Користувачі виявили, що ChatGPT зависає під час запитів про певні імена, наприклад, «Девід Майєр». Це спровокувало сплеск обговорень та теорій змови. Користувачі намагалися змусити чат-бота відреагувати на ці імена, але він продовжував «ламатися» або припиняв відповідь. Згодом виявили, що це стосується й інших імен, як-от Джонатан Терлі чи Браян Худ.
Про це інформує Techcrunch.
Основною версією стало припущення, що проблема пов’язана з конфіденційністю. Деякі з цих людей, ймовірно, раніше зверталися із запитами щодо обмеження інформації про них у мережі. OpenAI застосовує внутрішні інструменти захисту даних, які, ймовірно, спричиняють технічні збої під час запитів.
Конфіденційність чи баг ChatGPT
Деякі імена, наприклад Браян Худ, раніше фігурували у скандалах через хибну інформацію, яку генерував ChatGPT.
Після втручання юристів, OpenAI виправив помилки, але, можливо, додав ці імена до «захищеного списку».

Ця практика спрямована на захист конфіденційності, але іноді викликає непередбачувані проблеми. Ситуація з Девідом Майєром особливо цікава. Він був науковцем, але його ім’я випадково асоціювалося зі злочинцем, що завдало йому значних проблем. Подібні випадки підкреслюють важливість точності у ШІ-моделях і складність захисту даних.
Технічний аспект
Експерти припускають, що причиною «зависання» стали технічні помилки в алгоритмах обробки запитів. ChatGPT проходить через численні перевірки даних, і будь-яка некоректна обробка може викликати збій. Відомо, що подібні проблеми траплялися раніше, особливо з конфіденційними або «делікатними» темами.
OpenAI підтвердив, що використання внутрішніх інструментів захисту може обмежувати відповіді. Хоча такі заходи забезпечують приватність, вони також демонструють недоліки технологій ШІ. Це вкотре нагадує користувачам: чат-боти не замінюють перевірені джерела інформації.
Баланс між конфіденційністю та відкритістю
Цей інцидент підкреслює виклики, з якими стикається ШІ у взаємодії з даними. Захист конфіденційності є важливим, але водночас необхідно уникати збоїв, які знижують якість роботи моделі. OpenAI має працювати над вдосконаленням систем, щоб подібні випадки не порушували довіру до технологій.
Тож перед тим, як запитувати факти у чат-бота, варто звертатися до перевірених джерел, адже навіть ШІ може помилятися.

