Пізно ввечері в п'ятницю, коли геополітична напруженість переросла у відкритий конфлікт на Близькому Сході, Сем Альтман опублікував у X оголошення про угоду, якої багато хто в технологічній спільноті давно боялися, але мало хто очікував, що вона матеріалізується так раптово.
OpenAI офіційно підписала угоду з Міністерством оборони США (DoW) про розгортання своїх передових моделей у найбільш чутливих, засекречених мережах військових.
Оголошення спровокувало миттєву хаотичну бурю. За лічені хвилини обговорення перетворилося на поле бою з хештегами "Скасувати ChatGPT", гострими запитаннями від експертів з національної безпеки та запальними звинуваченнями у продажу майбутнього людства.
Для компанії, заснованої на принципі забезпечення того, щоб штучний загальний інтелект приносив користь всьому людству, перехід до статусу основного оборонного підрядника відчувався як тектонічний зсув у моральному ландшафті галузі.
Контекст цього раптового повороту такий же драматичний, як і сама угода. Лише за кілька годин до оголошення Альтмана президент Дональд Трамп видав широкий виконавчий наказ, який наказував усім федеральним агентствам негайно припинити використання технології Anthropic, головного суперника OpenAI.
Міністр оборони Піт Хегсет назвав Anthropic "ризиком ланцюга постачання для національної безпеки", позначення, яке зазвичай резервується для іноземних противників, таких як Huawei.
Anthropic, за повідомленнями, відмовилася надати Пентагону безумовний доступ до своїх моделей Claude, наполягаючи на договірних "червоних лініях", які забороняли б використання технології для внутрішнього масового спостереження або повністю автономної летальної зброї.
Сем Альтман, генеральний директор OpenAI
OpenAI заповнила вакуум, залишений після відходу конкурента. Хоча адміністрація вимагала, щоб моделі ШІ були доступні для "усіх законних цілей", OpenAI представила свій вступ не як капітуляцію, а як витончений компроміс.
У своєму Ask Me Anything (AMA) Альтман стверджував, що OpenAI забезпечила ті самі запобіжні заходи безпеки, які шукала Anthropic, але досягла їх через багаторівневий підхід, а не ультиматум.
Погодившись працювати в межах існуючих правових рамок, посилаючись на Четверту поправку та Закон Posse Comitatus, OpenAI ефективно деескалувала протистояння, яке загрожувало залишити військових США без передових можливостей ШІ під час активної війни.
Обговорення швидко перейшло від корпоративного PR до жорстких дебатів про етику ведення війни за допомогою ШІ. Одне з найбільш вподобаних питань стосувалося фундаментального зсуву в місії OpenAI: чому перейти від "покращення людства" до співпраці з обороною?
Відповідь Альтмана була характерно прагматичною: "Світ — це складне, заплутане і іноді небезпечне місце. Ми вважаємо, що люди, які відповідають за захист країни, повинні мати доступ до найкращих доступних інструментів."
Альтман детально описав технічні запобіжні заходи, розроблені для запобігання тому, щоб ШІ став автономним виконавцем.
До них належить стратегія розгортання "тільки в хмарі", що запобігає вбудовуванню моделей безпосередньо в крайові пристрої чи збройне обладнання, та розгортання "інженерів польового розгортання" (FDE) для нагляду за засекреченим використанням.
Однак обговорення залишалося скептичним. Критики вказали на примітку спільноти, яка підкреслювала, що відповідно до Патріотичного акту США "законне використання" все ще може охоплювати масштабний збір даних.
Коли його запитали про ймовірність того, що ШІ спричинить глобальну катастрофу, Альтман був нехарактерно лаконічним, припускаючи, що співпраця з національною безпекою може фактично зменшити ризик, тримаючи державу та розробників на одній сторінці.
Один з найбільш показових обмінів стосувався управління. Коли його запитали, чи може федеральний уряд зрештою націоналізувати OpenAI, Альтман визнав: "Я, звичайно, думав про це, але це не здається надто ймовірним на поточній траєкторії."
Це визнання мало вплинуло на тих, хто бачить ребрендинг Міністерства оборони та занесення Anthropic до чорного списку як перші кроки до державного управління штучним загальним інтелектом.
Наслідки цієї угоди виходять далеко за межі одного контракту. Прийнявши позначення ризику ланцюга постачання свого конкурента, OpenAI неявно підтвердила світ, у якому уряд може вибирати переможців і переможених на основі ідеологічної прихильності компанії до військової корисності.
Це створює лякаючий прецедент, як визнав навіть Альтман, коли приватні компанії можуть відчувати тиск знизити свої етичні запобіжні заходи, щоб уникнути позначення як загрози національній безпеці.
З етичної точки зору вимога людини в циклі залишається найбільш спірним моментом.
Хоча OpenAI наполягає на тому, що люди збережуть відповідальність за застосування сили, експерти з оборони в обговоренні зазначили, що поточна політика DoW (Директива 3000.09) є невизначено розпливчастою щодо того, що становить значущий людський контроль у високошвидкісному цифровому бою.
Сем Альтман
Якщо ШІ обробляє дані про цілі швидше, ніж людина може моргнути, чи справді людина в циклі, чи просто штамп для рішення машини?
Ризик втрати контролю над штучним загальним інтелектом більше не є теоретичною проблемою далекого майбутнього; це питання того, як ці моделі поводитимуться в надзвичайно напруженому середовищі засекреченої війни.
Також читайте: OpenAI залучила рекордні 110 мільярдів доларів від Amazon, NVIDIA та SoftBank для розвитку ШІ
Коли AMA завершилася, образ Альтмана в пам'яті користувачів OpenAI був не образом мрійливого технологічного візіонера, а цифрового дипломата, який орієнтується у світі жорсткої сили.
Він залишив обговорення з тверезим висновком: ера нейтральної розробки ШІ закінчилася. Рішення OpenAI інтегруватися з Міністерством оборони знаменує початок нового розділу, де штучний загальний інтелект розглядається як стратегічний актив держави, а не глобальне суспільне благо.
Публікація Підсумок AMA Сема Альтмана щодо суперечливої угоди OpenAI з Міністерством оборони вперше з'явилася на Technext.


