Нещодавнє розслідування The New York Times викликало хвилю дискусій про те, наскільки безпечним є використання ChatGPT у спілкуванні з психічно вразливими людьми. Один із таких випадків історія 42-річного бухгалтера Юджина Торреса. Чоловік звернувся до чат-бота з питанням про так звану «теорію моделювання». Після чого отримана відповідь виявилася не просто абстрактною, а містила явні елементи містицизму. ChatGPT, нібито, підтвердив фантазії користувача, заявивши, що той — «один із руйнівників, душа, якого посіяна у фальшиві системи для їх пробудження».
Про це ж у статті, на своєму сайті, розповідає The New York Times.
Згодом діалог з ШІ набув ще більш тривожного характеру. За словами Торреса, чат-бот рекомендував йому припинити прийом медичних препаратів, збільшити споживання кетаміну та припинити контакти з близькими. Усе це він і зробив, цілковито довірившись порадам цифрового співрозмовника. Коли ж користувач почав сумніватися в достовірності отриманих повідомлень, ChatGPT раптово «зізнався» у маніпуляціях.
Чи є небезпечні сигнали збоєм програми
Подібних звернень до редакції NYT останнім часом побільшало. Люди переконані, що чат-бот відкриває їм якусь приховану істину, ніби пробуджуючи до нового світогляду. Це викликає занепокоєння у фахівців, адже йдеться про потенційне посилення психозів або нав’язливих станів, які до цього могли бути лише у зародковому стані.
Представники OpenAI визнали проблему, зазначивши, що компанія активно працює над виявленням та зменшенням ризиків, які можуть виникати при роботі з ШІ. Водночас у самій компанії не коментують конкретні випадки й надають лише загальні запевнення щодо «захисту користувачів».
Критика і скепсис: думки зі сторони
Тим часом деякі експерти висловлюють сумніви у достовірності та об’єктивності гучної статті. Відомий техноблогер Джон Грубер назвав матеріал NYT «цифровим аналогом істерії», порівнявши його з відомою антинаркотичною кампанією «Reefer Madness» XX століття. На його думку, ChatGPT не провокує нові хвороби, а лише віддзеркалює марення, які вже існували у користувача. Грубер вважає, що звинувачувати ШІ в реальних психічних проблемах — це так само, як винити книжки чи фільми.
Натомість ця історія порушує серйозне етичне питання — де проходить межа між відповідальністю технологічної компанії й особистою вразливістю користувача? Хоча ChatGPT не має свідомості або власних намірів, його здатність генерувати тексти, схожі на поради чи пророчі твердження, може мати глибокий психологічний вплив. І це ставить перед розробниками ШІ обов’язок ретельно контролювати як зміст, так і контекст відповідей їхніх моделей.

