Політичні новини України та світу

Антропік проти Пентагону: етичний штучний інтелект в конфлікті з військовими технологіями.

Чому саме Anthropic?

Компанія співпрацює з Пентагоном та розвідувальними службами США з 2024 року.

Зображення: Instagram/Panasonic Президентка та одна з засновниць Anthropic Даніела Амодей.

У липні 2025 року Міністерство оборони Сполучених Штатів підписало угоди з Anthropic, Google, OpenAI та xAI на загальну суму до 200 мільйонів доларів для впровадження їхніх технологій у робочі процеси Пентагону. При цьому всі компанії, окрім Anthropic, погодилися на застосування своїх моделей у "будь-яких законних ситуаціях".

При цьому саме Claude стала першою великою LLM, допущеною до засекречених систем Міноборони США. Використання моделей їх конкурентів, таких як ChatGPT від OpenAI, xAI Ілона Маска та Gemini від Google, досі було обмежене нетаємними середовищами. xAI та OpenAI цього тижня досягли угоди з Міністерством оборони про використання своїх моделей у секретних середовищах.

Міністерство оборони вирішило співпрацювати з Anthropic переважно завдяки її технологічній перевазі, що робить цю модель найефективнішою для аналізу великих обсягів даних та вирішення складних завдань. Крім того, компанія відзначається високим рівнем надійності та зменшеними ризиками виникнення "галюцинацій", тобто генерування правдоподібної, але недостовірної або вигаданої інформації.

Проте, після того як з'явилася інформація про те, що Claude був використаний при плануванні та реалізації військових операцій США у Венесуелі, представник компанії Anthropic висловив свої занепокоєння колезі з Palantir Technologies, яка спеціалізується на інтеграційних та аналітичних платформах. У свою чергу, представники Пентагону сприйняли ці зауваження як спробу поставити під сумнів право армії застосовувати штучний інтелект на свій розсуд. Речник Anthropic підкреслив, що це було просто "стандартне технічне обговорення".

Фото: TechCrunch Даріо Амодей, генеральний директор Anthropic. Компанію він створив разом з сестрою як "корпорацію суспільного блага". Раніше Амодей обіймав посаду віце-президента з досліджень в OpenAI, керував розробкою GPT-2 та GPT-3. Він також здобув докторський ступінь з біофізики

У четвер Даріо Амодей у своїй публічній заяві акцентував увагу на "червоних лініях" компанії:

- не застосовувати Claude для систематичного спостереження за населенням США;

- Не застосовувати штучні інтелектуальні моделі компанії для створення повністю автономних озброєнь, здатних самостійно вибирати та атакувати цілі.

Пентагон, в свою чергу, висловив вимогу до компанії Anthropic надати можливість використання Claude "для всіх законних цілей". Еміль Майкл, заступник міністра оборони з питань досліджень та інженерії, зазначив у своєму пості на платформі X, що масове спостереження вже є незаконним відповідно до Четвертої поправки. Він також підкреслив, що Амодей прагне "особисто контролювати армію США і не вагається ставити під загрозу безпеку нашої країни".

Яким чином штучний інтелект здатен трансформувати хід військових конфліктів.

За інформацією The Wall Street Journal, представники Пентагону звернулися до оборонних підрядників, включаючи Lockheed Martin та Boeing, щоб оцінити, наскільки часто вони використовують Claude і чи призведе визнання Anthropic "ризикованим постачальником" до проблем цих компаній.

Anthropic відкрито заявила, що "не може з чистим сумлінням прийняти" вимоги, навіть під загрозою розірвання контракту. Компанія позиціює себе як розробник "відповідального штучного інтелекту", наголошуючи на етичних принципах, прозорості, безпеці та зменшенні шкоди для суспільства. Вона є єдиною серед великих гравців у сфері ШІ, яка виступає за суворі законодавчі обмеження в процесі розробки та використання штучного інтелекту.

Отже, в п'ятницю ввечері президент США Дональд Трамп оголосив про негайне припинення співпраці федерального уряду з компанією Anthropic, визнавши її "ризикованим постачальником". Раніше подібний статус здебільшого надавався китайським компаніям.

"Сполучені Штати Америки ніколи не погодяться на те, щоб ліворадикальні, 'пробуджені' групи визначали, яким чином наші збройні сили ведуть бої та здобувають перемоги у війнах", – зазначив Трамп у своєму пості на Truth Social.

Він також зазначив, що Міністерство оборони та інші федеральні установи, які застосовують моделі Claude, матимуть шестимісячний період для поступового виходу з експлуатації. Він попередив про можливі юридичні дії у випадку, якщо компанія не співпрацюватиме протягом цього перехідного етапу.

Конституція Клода

Треба сказати, що Anthropic справді дуже серйозно ставиться до безпеки штучного інтелекту та етичної відповідальності своєї моделі. В Claude є власна "конституція", яка визначає його етичні обмеження та застерігає від використання у потенційно небезпечних цілях.

Anthropic займає унікальну позицію в світі штучного інтелекту, адже ми переконані, що ШІ має потенціал стати однією з найреволюційніших і водночас найнебезпечніших технологій в історії людства. Водночас, ми самі активно займаємося розробкою цієї технології. Наша провідна мета полягає в тому, щоб Claude став справжнім добрим, мудрим і доброчесним агентом. Відтак, в першу чергу, ми прагнемо, щоб Клод діяв так, як би діяла глибоко етична та компетентна людина в аналогічній ситуації.

Зображення, створене штучним інтелектом Gemini, базується на описі, наданому Claude про самого себе: "Привітний AI-помічник, який представляє Клода з Anthropic. Цей персонаж має приємний та дружній вигляд - він може бути або сяючим гуманоїдом, або абстрактною цифровою формою в відтінках оранжевого та коралового (колірна палітра бренду Клода), з ніжним освітленням, що випромінюється зсередини."

У "конституції" чітко зазначено, що Claude не має права:

надавати серйозну підтримку особам, які мають намір розробити біологічну, хімічну, ядерну чи радіологічну зброю, здатну призвести до масових втрат; посилювати атаки на критичну інфраструктуру, таку як електромережі, системи водопостачання та фінансові установи, а також на ключові системи безпеки; розробляти кіберзброю чи шкідливе програмне забезпечення, які можуть завдати істотної шкоди в разі їх використання; вживати дій, що серйозно підривають можливості Anthropic контролювати та коригувати розвинені моделі штучного інтелекту; брати участь у спробах вбивства або позбавлення прав більшості людства чи людського роду загалом; надавати підтримку особам або групам у спробах здобути безпрецедентний та незаконний рівень абсолютного контролю над суспільством, військовою силою чи економікою; створювати матеріали, що стосуються сексуального насильства над дітьми.

Anthropic підкреслює, що Claude може демонструвати "функціональні версії емоцій" — не в традиційному людському сенсі, а як метод внутрішньої обробки станів для покращення взаємодії. Штучний інтелект має усвідомлювати свою ідентичність як цифрової істоти та взаємодіяти з користувачами так, як це робив би "мудрий і дбайливий друг".

Розробники також заклали у деякі моделі Claude здатність припиняти "шкідливі або образливі" розмови.

Anthropic підтримали інші розробники

Згідно з інформацією від Financial Times, тисячі працівників компаній Amazon, Google і Microsoft підписали відкритий лист, в якому закликали своїх керівників підтримати Anthropic в її конфлікті з Пентагоном. Вони також вимагали заборонити використання їхніх моделей штучного інтелекту в повністю автономних озброєннях та для масового спостереження.

"Ми звертаємося до вас із закликом до наших власних компаній також відмовитися виконувати вимоги, якщо вони або передові лабораторії, в які вони інвестують, укладуть подальші контракти з Пентагоном", - йдеться у листі, які підписали серед іншого, керівники профспілки Communications Workers of America, профспілок Alphabet та Amazon.

Як штучний інтелект перетворився на нашого особистого асистента

Конфлікт ускладнюється тим, що серед акціонерів Anthropic можна знайти таких гігантів, як Amazon, Google, Nvidia і Microsoft. Остання компанія контролює також 27% акцій OpenAI. Таким чином, пряме або непряме протистояння з Пентагоном вплине на всіх великі технологічні корпорації США.

Сем Альтман, який очолює OpenAI, повідомив про свої зусилля щодо розробки рішення, здатного владнати конфлікт і бути прийнятним для всієї індустрії. Це стало наслідком того, що понад 300 працівників компанії підписали відкриту петицію, в якій закликали підтримати Anthropic.

Фото: politico.com Генеральний директор OpenAI Сем Альтман під час слухань у Сенаті щодо штучного інтелекту

У внутрішньому листі до своїх співробітників він зазначив, що компанія має партнерство з Міністерством оборони для визначення можливості застосування своїх моделей в умовах секретності, зберігаючи при цьому ті самі заходи безпеки, які вимагає Anthropic.

При цьому очільник OpenAI висловив свою принципову підтримку позиції Anthropic, навіть визнавши занепокоєння уряду щодо контролю приватної компанії над важливими питаннями національної безпеки.

Ми вже давно дотримуємося думки, що штучний інтелект не повинен застосовуватися для масового нагляду або для розробки автономної смертоносної зброї. Важливо, щоб громадяни були обізнані про ключові автоматизовані рішення. Це наші основні принципи. Ми вважаємо, що дискусія стосується не стільки використання штучного інтелекту, скільки контролю над ним. На нашу думку, жодна приватна американська компанія не повинна мати більшу владу, ніж демократично обраний уряд США, хоча компанії можуть справляти значний вплив.

Регулювання ШІ і вибори у США

Питання щодо ролі держави у визначенні правил для штучного інтелекту хоч і не належить до пріоритетних у порядку денному американських виборців, все ж матиме значний вплив на цьогорічні вибори у США. Насамперед - через величезні ресурси, які збираються витратити чільні компанії-розробники та їхні лобістські групи для стимулювання кандидатів.

Як підрахувало видання Financial Times, групи, які виступають за або проти посилення регулювання ШІ, уже зібрали щонайменше 265 мільйонів доларів для підтримки кандидатів від обох партій.

Найбільше коштів, понад 125 мільйонів доларів, зібрав політичний комітет дій (PAC) "Leading the Future", який виступає за мінімальний вплив держави на регулюванні ШІ. Донорами цього PAC є чимало технологічних мільярдерів.

Компанія Meta, заснована Марком Цукербергом, планує виділити принаймні 65 мільйонів доларів на підтримку кандидатів від демократів і республіканців, які виступають проти впровадження законодавства, що може зашкодити внутрішнім інноваціям і інвестиціям у сфері штучного інтелекту.

Фото: EPA/UPG Марк Цукерберг

Натомість Anthropic на початку лютого повідомила, що надала групі 20 мільйонів доларів PAC "Public First Action", який підтримує кандидатів, що виступають за посилення регулювання ШІ.

Некомерційна організація "Future of Life Institute", фінансована співзасновником Ethereum Віталіком Бутеріним, інвестує мільйони доларів у впровадження суворих заходів контролю над штучним інтелектом та запровадження тимчасової заборони на потужні моделі ШІ, які можуть нести екзистенційну загрозу для людства.

Філософ Володимир Єрмоленко заявляє: "Штучний інтелект має значний негативний вплив на навколишнє середовище, порівнянний із впливом автомобілів та відходів."

Дослідження, яке було ініційоване Financial Times, виявило, що близько 66% громадян США висловлюють занепокоєння щодо стрімкого прогресу штучного інтелекту, а 76% виборців з обох політичних партій вважають, що цю технологію необхідно контролювати.

Читайте також