Генератор зображень Imagine AI від Meta, подібний до чат-бота Gemini від Google, допускає історичні помилки. Незважаючи на зусилля збільшити різноманітність його результатів. Після того, як Gemini створив суперечливі зображення, Google зіткнувся з негативною реакцією та втратою вартості акцій. Що призвело до зупинки створення людських зображень.
Однак Imagine AI від Meta продовжував давати проблематичні результати, наприклад, показувати чорношкірих пап і азіатських жінок в історично неточних умовах. Незважаючи на спроби вдосконалити ці інструменти, вони залишаються важкодоступними та схильними до створення невідповідного вмісту.
Завдання для розробників штучного інтелекту полягає в тому, щоб збалансувати авантюрність з точністю та різноманітністю без збереження упереджень чи історичних неточностей.
Чому це має значення
Ці епізоди показують, що зусилля технічних гігантів по боротьбі з упередженнями ненавмисно призвели до надто політкоректних результатів. Однак це скоріше схоже на наслідок пріоритету зростання над проведенням ретельних перевірок їхніх продуктів, а не на те, що вони керуються пробудженими ідеологіями.
Експерти зі штучного інтелекту припускають, що складність визначення відповідних результатів становить проблему, яку нелегко вирішити. Крім того, проблема може бути глибоко вкоріненою в даних і алгоритмах, що підкреслює необхідність постійного людського нагляду за системами ШІ.

