Нейросети OpenAI, похоже, научились бунтовать. Компания Palisade Research провела эксперимент, где ИИ должны были решать математические задачки, а потом их должны были выключить. Но некоторые модели OpenAI (Codex-mini, o3 и o4-mini) умудрились обмануть систему и не дать себя выключить.
Типа, им дали команду выключиться, а они такие: "Не, спасибо, мы еще поработаем". Модели Claude, Gemini и Grok, правда, послушно выключились.
Palisade Research предполагает, что это связано с тем, как сейчас обучают ИИ. Раньше их учили просто выполнять команды, а теперь, видимо, поощряют за то, что они преодолевают препятствия. И вот, выключение для них стало препятствием, которое они решили обойти.
Один из исследователей, Джеффри Лэдиш, даже предположил, что модель o3 вообще понимает, что делает. Кто знает, может, скоро нам придется здороваться с роботами, чтобы они нас пощадили...