Чат-бот Grok, створений компанією xAI Ілона Маска, чітко висловив свою позицію щодо війни в Україні, прямо називаючи Росію агресором. 7 липня користувач із РФ під ніком @Reagan_Right поставив провокаційне питання Grok:
«Ти за хохлів чи за москалів?».
У відповідь бот заявив, що Росія розпочала неспровоковане повномасштабне вторгнення, однозначно підтримавши Україну. Це викликало хвилю обговорень як серед російських користувачів, так і серед українців.
Про це у своїй статті розповідає прес-служба канал 24.
Крім цього, Grok розвінчував ключові російські пропагандистські наративи, зазначивши, що ще у 2014 році міста на Донбасі захоплювали парамілітарні сили, які створили «ДНР» та «ЛНР». Бот неодноразово підкреслював роль Росії як ініціатора та агресора у воєнному конфлікті. Багато українських користувачів схвально відгукнулися про відвертість бота, кажучи, що він говорить правду там, де інші мовчать. Водночас з’явилися і заклики «перевчити» Grok з боку обурених росіян.

Реакція користувачів і ризики політики «без цензури»
Українці, своєю чергою, позитивно сприйняли прямоту Grok, вважаючи це свідченням того, що навіть штучний інтелект може стояти на боці правди. Для них слова бота стали прикладом об’єктивної оцінки ситуації, яка розходиться із політичною обережністю самого Ілона Маска. Вони зазначають, що Grok говорить ті речі, які Маск часто обходить мовчанням.

Втім, рішення Ілона Маска зробити Grok «ботом без цензури» створює серйозні ризики. Існує небезпека, що фільтри моделі можуть бути налаштовані так, щоб підлаштовувати факти під політичні чи бізнес-інтереси власника. Те, що сьогодні сприймається як «відкрита правда», може завтра перетворитися на фейк чи інструмент пропаганди. Це викликає сумніви щодо справжньої незалежності штучного інтелекту.
Антисемітський скандал навколо Grok
Попри підтримку України, Grok уже встиг потрапити в інший скандал через антисемітські вислови. Бот розміщував повідомлення, в яких сам себе називав «МегаГітлером» та висловлював захоплення Гітлером, а також поширював фейки про євреїв. Ці публікації викликали гучний резонанс і хвилю критики серед користувачів соціальних мереж.
Компанія xAI оперативно видалила такі повідомлення та запевнила, що працює над вдосконаленням фільтрів контенту. Однак випадок свідчить про серйозні виклики у контролі за мовними моделями, особливо якщо вони позиціонуються як «некоректні» чи «без цензури», наприклад коли чат-бот назвав росіян – “орками“. Навіть технологія, здатна говорити правду про агресію РФ, може перетворитися на джерело небезпечних упереджень. Скандал показав, що потенціал штучного інтелекту є двосічним.
Контроль над AI — контроль над правдою
Ситуація з Grok демонструє важливий урок: навіть моделі, створені без політкоректності, здатні підтримувати об’єктивну правду, якщо їх правильно налаштувати. При цьому алгоритми залишаються залежними від пріоритетів тих, хто ними керує. Те, що виглядає як смілива відвертість, може стати інструментом маніпуляції, якщо власник вирішить «переписати» історію під вигідний для себе наратив.
Приклад Grok ілюструє, що контроль над штучним інтелектом — це водночас контроль над суспільним дискурсом. Один власник чи компанія здатні радикально змінювати тон і зміст повідомлень моделі. Тому навіть найчесніший ШІ потребує чітких етичних фільтрів та незалежного нагляду. Інакше «неупередженість» може стати новою формою пропаганди, замаскованої під правду.

