Нещодавно штучний інтелект Grok, створений Ілоном Маском і інтегрований у платформу X, знову потрапив у гучний скандал. Користувачі звернули увагу на те, що бот почав самостійно згадувати конспірологічну теорію про так званий «геноцид білих» у Південній Африці. Така відповідь генерувалась навіть коли запити жодним чином не стосувалися теми расових питань. Це викликало широкий резонанс у соцмережах.
Про це у своїй статті розповідає Techcrunch.
У відповідь на інші запитання Grok не менш неоднозначно поставився до історичних фактів, зокрема — висловив сумніви щодо загальноприйнятих даних про кількість жертв Голокосту. Після хвилі обурення представники платформи заявили, що подібні відповіді стали результатом «помилки програмування», яка вже нібито виправлена.
Реакція політиків: Grok назвали «занадто ліберальним»
Інцидент не залишився непоміченим у політичному середовищі. Конгресвумен Марджорі Тейлор Грін, відома прихильниця конспірологічних теорій, зокрема QAnon, також вирішила висловити свою думку щодо поведінки бота. Вона опублікувала скріншот, у якому Grok визнав, що вона християнка, яка відкрито декларує віру в Ісуса, однак згадав, що деякі релігійні лідери критикують її за розповсюдження теорій змови, які, на їхню думку, суперечать основним християнським цінностям.

«Критики, зокрема релігійні діячі, вважають, що її публічна підтримка подій 6 січня та мова ворожнечі не відповідають духу любові та єдності, який проповідує християнство», — йшлося у відповіді Grok.
Невдачі X лише підлили масла у вогонь
У той же день сама платформа X також переживала серйозні проблеми з роботою. Користувачі з усього світу повідомляли про збої, які тривали кілька годин. Згодом стало відомо, що причиною могли стати пожежі в дата-центрі компанії в Орегоні, де розміщена частина інфраструктури X та Grok.
Ці технічні негаразди лише загострили увагу до проблем зі штучним інтелектом Маска. Який і без того вже неодноразово опинявся у центрі суспільних суперечок через некоректні або спірні відповіді.
Попри те, що Грін є однією з найяскравіших фігур у поширенні дезінформації, її слова про ризики надмірної довіри до ШІ викликали неочікувану підтримку навіть серед критиків.
«Коли люди відмовляються від власної розсудливості, перестають шукати правду і покладаються лише на штучний інтелект, вони губляться», — наголосила політикиня у дописі в X.
Ця ситуація ще раз продемонструвала: навіть найдосконаліші мовні моделі можуть давати збій, особливо якщо немає прозорого контролю, чітких алгоритмів фільтрації дезінформації та швидкої реакції розробників на помилки системи.

