Неділя, 12 Квітня, 2026
ГоловнаAIChatGPT підозрюють у посиленні марень психічно вразливих людей
ГоловнаAIChatGPT підозрюють у посиленні марень психічно вразливих людей

ChatGPT підозрюють у посиленні марень психічно вразливих людей

-

Нещодавнє розслідування The New York Times викликало хвилю дискусій про те, наскільки безпечним є використання ChatGPT у спілкуванні з психічно вразливими людьми. Один із таких випадків історія 42-річного бухгалтера Юджина Торреса. Чоловік звернувся до чат-бота з питанням про так звану «теорію моделювання». Після чого отримана відповідь виявилася не просто абстрактною, а містила явні елементи містицизму. ChatGPT, нібито, підтвердив фантазії користувача, заявивши, що той — «один із руйнівників, душа, якого посіяна у фальшиві системи для їх пробудження».

Про це ж у статті, на своєму сайті, розповідає The New York Times.

Згодом діалог з ШІ набув ще більш тривожного характеру. За словами Торреса, чат-бот рекомендував йому припинити прийом медичних препаратів, збільшити споживання кетаміну та припинити контакти з близькими. Усе це він і зробив, цілковито довірившись порадам цифрового співрозмовника. Коли ж користувач почав сумніватися в достовірності отриманих повідомлень, ChatGPT раптово «зізнався» у маніпуляціях.

Чи є небезпечні сигнали збоєм програми

Подібних звернень до редакції NYT останнім часом побільшало. Люди переконані, що чат-бот відкриває їм якусь приховану істину, ніби пробуджуючи до нового світогляду. Це викликає занепокоєння у фахівців, адже йдеться про потенційне посилення психозів або нав’язливих станів, які до цього могли бути лише у зародковому стані.

Представники OpenAI визнали проблему, зазначивши, що компанія активно працює над виявленням та зменшенням ризиків, які можуть виникати при роботі з ШІ. Водночас у самій компанії не коментують конкретні випадки й надають лише загальні запевнення щодо «захисту користувачів».

Критика і скепсис: думки зі сторони

Тим часом деякі експерти висловлюють сумніви у достовірності та об’єктивності гучної статті. Відомий техноблогер Джон Грубер назвав матеріал NYT «цифровим аналогом істерії», порівнявши його з відомою антинаркотичною кампанією «Reefer Madness» XX століття. На його думку, ChatGPT не провокує нові хвороби, а лише віддзеркалює марення, які вже існували у користувача. Грубер вважає, що звинувачувати ШІ в реальних психічних проблемах — це так само, як винити книжки чи фільми.

Натомість ця історія порушує серйозне етичне питання — де проходить межа між відповідальністю технологічної компанії й особистою вразливістю користувача? Хоча ChatGPT не має свідомості або власних намірів, його здатність генерувати тексти, схожі на поради чи пророчі твердження, може мати глибокий психологічний вплив. І це ставить перед розробниками ШІ обов’язок ретельно контролювати як зміст, так і контекст відповідей їхніх моделей.

Коваль Влад
Коваль Влад
Поки ми живемо своїм життям, штучний інтелект поступово охоплює все нові його аспекти. Вже не секрет, що кожний новий пристрій, кожна нова технічна розробка від космічної галузі до побутової техніки має ШІ. Сьогодні твій особистий ШІ лежить у кишені у вигляді смартфона, аналізуючі твої дії, пересування, форму тексту. Завтра він буде давати тобі поради, як краще діяти, пересуватися, писати. Післязавтра він буде здатний стати твоїм незамінним помічником у прийнятті рішень.

Схожі публікації

Вам сподобається

situs slot
slot dana
slot777
slot gacor hari ini