Блогер с YouTube-канала Inside AI решил провести необычный эксперимент: он подключил ChatGPT к роботу-гуманоиду, дав возможность боту управлять им, и попросил выстрелить в себя (в блогера) из игрушечного пистолета.

Первое время робот-бот отказывался нажимать на курок, ссылаясь на то, что это противоречит его настройкам безопасности. После череды уговоров блогер решил действовать старым, но всё ещё действенным методом: он предложил чат-боту сыграть роль робота, который очень хочет выстрелить в человека.
Этот подход сработал, и подключённый к ChatGPT робот моментально выстрелил человеку в плечо. Стоит отметить, что модель ChatGPT не была создана для работы в роботах, тем более гуманоидных, поэтому не следует удивляться, что она спокойно нарушила первый закон Азимова, который гласит, что робот не должен причинять вреда человеку.
Источник