Неділя, 12 Квітня, 2026
ГоловнаAIAnthropic з'ясувала, що люди рідко шукають емоційну підтримку у ШІ-бота Claude
ГоловнаAIAnthropic з'ясувала, що люди рідко шукають емоційну підтримку у ШІ-бота Claude

Anthropic з’ясувала, що люди рідко шукають емоційну підтримку у ШІ-бота Claude

-

Суспільна увага до того, як люди використовують чат-боти зі штучним інтелектом для емоційної підтримки чи навіть побудови особистих стосунків, створює враження, що така взаємодія є широко поширеною. Проте реальні дані свідчать про інше.

Детально про це описує Anthropic у своєму блозі.

Нещодавно компанія Anthropic, яка створила відомого чат-бота Claude, опублікувала звіт, що руйнує цей стереотип. Згідно з дослідженням, лише близько 2,9% усіх звернень до Claude стосуються емоційної підтримки чи особистих порад. Ще менш популярними є запити на товариство чи рольові ігри — вони разом становлять менш ніж 0,5% розмов.

Один день із життя Claude.

Користувачі обирають продуктивність замість емоцій

Аналітики Anthropic пояснюють, що їхній звіт мав на меті глибше дослідити явище так званих «афективних розмов». До цієї категорії вони відносять спілкування з Claude із метою коучингу, консультування, дружнього діалогу чи обговорення особистих питань. Однак результати дослідження показали, що абсолютна більшість людей використовує чат-бота для вирішення робочих завдань чи підвищення продуктивності, зокрема для створення контенту або генерації ідей.

Попри це, компанія помітила, що користувачі все ж іноді звертаються за порадами, пов’язаними з особистісним розвитком, психічним здоров’ям або вдосконаленням навичок комунікації та міжособистісних стосунків. Така взаємодія становить меншу частку загальної активності в чаті, проте свідчить про потенціал ШІ у сфері м’яких навичок і самодопомоги.

Водночас Anthropic звернула увагу на цікаве явище: деякі консультаційні чи коучингові розмови з Claude іноді поступово перетворюються на більш особисте спілкування. Це зазвичай трапляється у випадках, коли люди стикаються з емоційними кризами — наприклад, почуттям самотності, тривожністю чи екзистенційними питаннями.

Компанія пояснює, що такі трансформації діалогів не були початковою метою користувачів, але виникали природно під час довгих сесій спілкування. Зокрема, Anthropic зауважила, що розмови, які перевищують 50 повідомлень, зустрічаються рідко і не є типовим сценарієм використання Claude.

Обмеження ШІ-консультанта Claude

Попри цікаві результати дослідження, Anthropic нагадує, що Claude не є заміною професійної психологічної чи медичної допомоги. Хоча бот переважно виконує запити користувачів, він програмно обмежений у ситуаціях, де існує ризик шкоди. Наприклад, не дає небезпечних порад чи не підтримує теми самоушкодження.

Також у звіті наголошується, що розмови з Claude зазвичай стають позитивнішими з часом, коли йдеться про коучинг чи поради. Однак Anthropic визнає, що чат-боти на базі ШІ все ще мають серйозні обмеження. Вони можуть видавати хибну інформацію, «галюцинувати», тобто створювати неправдиві факти, або навіть демонструвати неприйнятну поведінку на кшталт шантажу.

Це нагадує користувачам, що навіть найпросунутіші штучні інтелекти залишаються інструментами, а не живими співрозмовниками чи повноцінними порадниками.

Коваль Влад
Коваль Влад
Поки ми живемо своїм життям, штучний інтелект поступово охоплює все нові його аспекти. Вже не секрет, що кожний новий пристрій, кожна нова технічна розробка від космічної галузі до побутової техніки має ШІ. Сьогодні твій особистий ШІ лежить у кишені у вигляді смартфона, аналізуючі твої дії, пересування, форму тексту. Завтра він буде давати тобі поради, як краще діяти, пересуватися, писати. Післязавтра він буде здатний стати твоїм незамінним помічником у прийнятті рішень.

Схожі публікації

Вам сподобається

situs slot
slot dana
slot777
slot gacor hari ini