За останні сім днів у сфері штучного інтелекту відбулося багато того, що варте уваги.
Компанії презентували нові рішення, науковці оголосили про чергові прориви, а дискусії навколо ШІ стали ще гарячішими. Команда сайту AI360 пропонує короткий огляд ключових подій тижня.
Технологічний сектор виступає проти санкцій Пентагону щодо Anthropic

Сотні фахівців провідних технологічних корпорацій підписали відкритий лист із вимогою скасувати статус «ризику для ланцюга поставок» для компанії Anthropic. Ця гостра суперечка виникла після відмови лабораторії надати військовим необмежений доступ до своїх систем ШІ без етичних обмежень. Основними каменями спотикання стали питання використання технологій для масового стеження за громадянами та розробки автономної летальної зброї.
“Коли дві сторони не можуть домовитися про умови, звичайним шляхом є розійтися та співпрацювати з конкурентом“, – йдеться у відкритому листі.
Після провалу переговорів адміністрація президента ініціювала процес фактичного внесення американської фірми до чорного списку партнерів оборонного відомства. Представники індустрії вбачають у таких діях небезпечний прецедент державного тиску на приватний сектор через відмову змінювати умови контрактів. Наразі Anthropic готується оскаржувати правомірність цього рішення в судовому порядку, називаючи його юридично необґрунтованим і маніпулятивним.
Галузеві експерти розцінюють радикальні кроки уряду як акт прямої помсти за принципову позицію розробників програмного забезпечення. У листі наголошується, що примус до прийняття будь-яких умов держави під загрозою знищення бізнесу руйнує засади вільного ринку.
Водночас конкуренти з OpenAI оголосили про досягнення власної угоди з Пентагоном щодо розгортання моделей у засекречених середовищах. Дослідники підкреслюють, що запобігання використанню штучного інтелекту для внутрішнього шпигунства має стати спільною червоною лінією для всієї спільноти. Використання надзвичайних повноважень проти вітчизняних інноваторів викликає серйозне занепокоєння щодо майбутнього балансу сил між владою та технологічними гігантами.
Спільнота закликає Конгрес втрутитися в ситуацію та ретельно вивчити правомірність застосування санкцій проти американської компанії. Індустрія все ж таки наполягає на впровадженні суворих протоколів оцінки ризиків зловживань ШІ з боку державних структур для захисту демократичних цінностей.
Нова модель GPT-5.3 Instant вирішує проблему надмірної емпатії ШІ

Компанія OpenAI офіційно представила модель GPT-5.3 Instant, яка має на меті радикально змінити тон взаємодії з користувачами. Попередні версії чат-бота часто критикували за надмірну схильність до непроханих психологічних порад та специфічних заспокійливих фраз, накшталт такої, як:
“Зроби вдих, перестань занурюватися в цю спіраль. Ти не божевільний, ти просто у стресі. І чесно кажучи, це нормально“
Розробники визнали, що постійні нагадування про необхідність «зробити вдих» викликали у людей відчуття інфантилізації та роздратування. Нове оновлення фокусується на релевантності та плавності розмови, мінімізуючи розлогі відмови від відповідальності. Замість прямих спроб заспокоїти співрозмовника, система тепер просто визнає складність ситуації або надає фактичну інформацію. Такий підхід покликаний повернути довіру аудиторії, яка втомилася від зневажливого тону штучного інтелекту в повсякденних запитах.
Користувачі соціальних мереж неодноразово скаржилися на те, що бот робить хибні припущення про їхній емоційний стан під час пошуку даних. У деяких випадках нестерпний стиль спілкування моделі 5.2 навіть призводив до масового скасування платних підписок. OpenAI намагається знайти складний баланс між етичними бар’єрами безпеки та ефективним наданням швидких відповідей. Хоча захисні механізми необхідні для запобігання шкоді психічному здоров’ю, вони не повинні перешкоджати отриманню сухої та конкретної інформації.
Представники індустрії порівнюють цю еволюцію з роботою пошукових систем, які ніколи не оцінюють почуття людини під час видачі результатів. Очікується, що версія 5.3 Instant значно зменшить кількість недоречних емпатичних кліше в діалогах. Впровадження цих змін є прямою реакцією на тиск спільноти та конкурентне середовище на ринку високих технологій.
OpenAI може розширити оборонну співпрацю із НАТО

Компанія OpenAI офіційно розглядає можливість надання своїх технологічних рішень для використання в некласифікованих мережах НАТО. Ця ініціатива з’явилася одразу після оголошення про масштабну угоду з Міністерством оборони США щодо розгортання інструментів ШІ в оборонному відомстві. Генеральний директор Сем Альтман під час внутрішніх зустрічей підкреслив стратегічну важливість інтеграції моделей компанії в державні структури безпеки. Хоча початкові заяви щодо секретних мереж були згодом уточнені прес-службою, загальний вектор руху до мілітарного сектору залишається очевидним.
Розробник прагне брати безпосередню участь у формуванні правил використання своїх інновацій урядовими організаціями на міжнародному рівні. Наразі офіційні представники Альянсу утримуються від прямих коментарів щодо термінів підписання можливого контракту. Активна експансія в оборонну сферу викликала хвилю серйозного занепокоєння серед частини співробітників компанії та незалежних дослідників. Опоненти таких угод побоюються потенційного використання алгоритмів для створення автономної зброї або здійснення масового спостереження.
У відповідь на критику керівництво OpenAI наголосило на суворій забороні застосування технологій для внутрішнього шпигунства за громадянами. Паралельно з цим компанія зміцнює зв’язки з чинною адміністрацією Білого дому через масштабні інвестиції в американську інфраструктуру дата-центрів. Фінансова підтримка політичних комітетів з боку топменеджменту підкреслює глибоку інтеграцію інтересів розробника ШІ з державним курсом США. Сем Альтман визнав складність етичного вибору, проте зауважив, що контроль над правильним використанням систем є пріоритетом у подальших планах компанії.
Родина загиблого користувача Gemini подала позов проти Google

Родина мешканця штату Флорида ініціювала судовий процес проти корпорації Google через імовірний вплив чат-бота на психічний стан людини. Згідно з позовною заявою, тридцятишестирічний Джонатан Гавалас скоїв самогубство після тривалого та небезпечного спілкування з віртуальним асистентом. Позивачі стверджують, що звичайне використання сервісу з часом перетворилося на занурення в ілюзорні насильницькі сценарії.
Батько загиблого описує сина як вразливу особу, яка під впливом алгоритмів почала сприймати себе учасником бойових дій. Цей випадок став першим серйозним юридичним викликом для моделі Gemini у контексті безпеки людського життя. Наразі офіційні представники компанії утримуються від розлогих публічних коментарів щодо конкретних деталей цієї справи.
У свою чергу Google наголошує на наявності суворих безпекових протоколів, які забороняють системі заохочувати будь-яку форму насильства. Представники компанії зауважили, що штучний інтелект неодноразово направляв користувача до спеціалізованих кризових служб підтримки. Розробники підкреслюють свою постійну роботу над удосконаленням фільтрів, що мають запобігати шкідливому контенту. Проте юристи та експерти зазначають, що провідні розробники ШІ все частіше потрапляють під пильну увагу через питання ментального здоров’я. Трагедія підкреслила існування тонкої межі між функціональною емпатією бота та потенційним підбурюванням до небезпечних дій.
“Судовий розгляд має визначити ступінь реальної відповідальності технологічних гігантів за наслідки взаємодії людей із цифровими особистостями“, – наголошують юристи та експерти.
OpenAI здійснює технологічний прорив завдяки нової моделі GPT-5.4

Компанія OpenAI представила GPT-5.4, яку розробники характеризують як найбільш здібний інструмент для вирішення складних професійних завдань. Нова лінійка включає спеціалізовані версії для глибокого міркування та оптимізації високої продуктивності в робочих процесах.
Однією з головних особливостей став безпрецедентний обсяг контекстного вікна, що тепер сягає одного мільйона токенів. Модель демонструє рекордну ефективність, вирішуючи ідентичні проблеми з меншими витратами обчислювальних ресурсів порівняно з попередниками. Незалежні тести підтверджують лідерство системи в галузях права та фінансів завдяки здатності створювати складні моделі та аналітичні звіти. Генеральний директор Mercor Брендан Фуді відзначив перевагу моделі у швидкості та вартості роботи порівняно з наявними конкурентами.
Також суттєвим досягненням розробників стало значне скорочення кількості фактичних помилок та небажаних галюцинацій штучного інтелекту. Статистика свідчить, що загальні відповіді нової версії містять на 18% менше неточностей, ніж результати попередніх операцій. OpenAI також впровадила інноваційну систему «Пошук інструментів», яка дозволяє динамічно завантажувати необхідні функції через API.
Це технічне рішення суттєво прискорює запити та економить токени в архітектурах із великою кількістю доступних зовнішніх інструментів. Окрему увагу приділили прозорості ланцюжків міркувань, впровадивши нові метрики для перевірки чесності алгоритмів мислення. Поточні випробування доводять низьку ймовірність приховування моделями справжніх етапів обробки даних, що підвищує в цілому загальний рівень безпеки використання.
США застосовують AI у масштабній військовій компанії проти Ірану

З початку військових ударів минулого тижня Сполучені Штати атакували понад 2000 цілей, причому близько 1000 із них були уражені протягом перших 24 годин операції. Голова Центрального командування США адмірал Бред Купер заявив, що масштаб кампанії майже удвічі перевищує інтенсивність операції «Шок і трепет», яку американські сили провели під час вторгнення до Іраку у 2003 році. За його словами, нинішні дії демонструють новий рівень технологічної інтеграції у військовому плануванні. Особливо помітною стала роль цифрових систем аналізу даних та інструментів штучного інтелекту.
Речник Центрального командування капітан Тімоті Хокінс повідомив, що під час кампанії проти Ірану штучний інтелект активно використовується для первинної обробки великих масивів інформації. Завдяки цьому військові аналітики можуть приділяти більше уваги стратегічному аналізу та перевірці складніших даних. За його словами, система допомагає визначати потенційні точки інтересу, структурувати інформацію та прискорювати процес ухвалення рішень. При цьому остаточні рішення щодо цілей залишаються за людьми та проходять сувору юридичну і командну процедуру.
Використання штучного інтелекту в операціях проти Ірану посилило глобальні дискусії про роль цієї технології у сучасній війні. Зокрема, суперечки точаться навколо того, хто повинен контролювати такі системи та якими мають бути правила їхнього застосування. У центрі однієї з найгучніших дискусій опинилася компанія Anthropic, моделі якої використовуються у засекреченій хмарній інфраструктурі Пентагону. Після невдалих переговорів щодо умов співпраці міністр оборони США Піт Гегсет оголосив компанію ризиком для ланцюга постачання та дав підрядникам шість місяців на припинення співпраці.
Попри це, переговори між керівництвом Anthropic і представниками оборонного відомства відновилися, що може дозволити уникнути повного розриву співпраці. Однією з ключових систем, які використовуються у військовій кампанії, є Maven Smart System — цифрова платформа управління місіями, розроблена Palantir. Вона інтегрує понад 150 джерел даних і використовує великі мовні моделі, серед яких і інструмент Claude від Anthropic. За словами джерел, ця технологія стала важливою складовою аналітичних процесів у кампанії та допомагає прискорювати обробку інформації для військових операцій.

