OpenAI объявила у себя в блоге о планах внести ряд изменений в ChatGPT, которые помогут нейросети лучше справляться с «деликатными ситуациями» — в том числе с теми, когда речь идёт о причинении вреда себе.
«Мы продолжим совершенствоваться под руководством экспертов и исходя из ответственности перед людьми, которые используют наши инструменты. Мы надеемся, что другие присоединятся к нам, чтобы гарантировать, что эта технология защитит людей в наиболее уязвимые моменты»— пишет OpenAI
Компания рассказала о таких планах на фоне новости о судебном иске против OpenAI от родителей 16-летнего подростка, который этой весной покончил с собой — в случившемся винят ChatGPT. В иске указывается, что «ChatGPT активно помогал Адаму изучать способы самоубийства».
При этом сама OpenAI не упоминает ситуацию семьи Рейна в своей записи в блоге. Но публичные комментарии в компании дали:
«Мы выражаем глубочайшие соболезнования семье Рейн в это трудное время и рассматриваем поданное заявление»— представитель OpenAI
- Ожидается, что ChatGPT начнёт лучше распознавать психические расстройства и реагировать на них, чтобы не причинить вред — объясняя опасности и предлагая отдых.
- Отдельно OpenAI проработает вопросы, связанные с суицидом — ChatGPT будет предлагать помощь.
- Дополнительно, в компании планируют внедрить элементы управления для родителей, чтобы они могли определить, как их дети используют ChatGPT.
Это уже не первый раз, когда OpenAI уделяет особое внимание вопросам безопасности и здоровья пользователей. Летом этого года компания обновила ChatGPT, чтобы он лучше распознавал чувствительные темы, а также следил за временем, которое с ним проводит пользователь.
Источник