Політичні новини України та світу

Росія заповнює чат-боти штучного інтелекту дезінформацією.

Росія вдосконалює механізми автоматизації поширення дезінформації, щоб обманювати чат-боти штучного інтелекту на важливих питаннях. Вона також надає інструкції іншим злочинцям щодо використання штучного інтелекту для розповсюдження контенту, що має на меті провокацію, маніпуляцію та дезорієнтацію, а не надання достовірної інформації.

Раніше цього року, коли дослідники запитали 10 провідних чат-ботів про теми, на які націлені неправдиві російські повідомлення, такі як твердження, що Сполучені Штати виробляють біологічну зброю в Україні, третина відповідей повторювала цю брехню.

Пропаганда Москви висвітлює основну вразливість сфери штучного інтелекту: результати, які надають чат-боти, залежать від даних, що їм надають. Основний принцип полягає в тому, що чим більше інформації чат-боти обробляють, тим точнішими стають їхні відповіді, тому галузь активно потребує нових матеріалів. Однак значна кількість такого контенту може спотворити відповіді на певні запитання. Для Росії це проявляється у контексті війни в Україні. Але для політика це може бути його суперник; для бізнесу — конкурент.

"Більшість чат-ботів борються з дезінформацією", -- сказала Гіада Пістіллі, головний етик платформи ШІ з відкритим кодом Hugging Face. "Вони мають базові засоби захисту від шкідливого контенту, але не можуть надійно помітити складну пропаганду, [і] проблема стає ще гіршою із пошуковими системами, які віддають пріоритет останній інформації".

Оскільки люди активно використовують технології штучного інтелекту для навчання створення більш привабливого контенту чат-ботів, обсяг цього контенту зростає значно швидше, ніж його якість. Це може викликати розчарування у звичайних користувачів, проте вигоду отримують ті, хто має найбільші ресурси та можливості. На думку експертів, наразі найбільшу вигоду отримують національні уряди, які мають досвід у поширенні пропаганди.

"Ми й гадали, що цей матеріал врешті-решт опиниться саме тут," -- зазначив колишній керівник оборонних питань США, виступаючи анонімно для обговорення чутливих аспектів. "Зараз, коли все більше уваги приділяється зв'язку між машинами, ми помічаємо, що за обсягом, масштабами, термінами та можливими наслідками ми відстаємо."

Росія, а в меншій мірі Китай, скористалися цією можливістю, заполонивши інформаційний простір вигаданими історіями. Проте, будь-хто міг би досягти подібного ефекту, витративши значно менше ресурсів, ніж у попередніх кампаніях тролів.

Одним із перших вигодонабувачів цього процесу є тривала кампанія Росії, мета якої – переконати західні країни в тому, що Україні не слід надавати захист від агресії. Спотворені повідомлення про загибель французьких "найманців" і неіснуючого датського інструктора з пілотування в Україні виникають у відповідь на запити найбільших чат-ботів, а також наївні описи сфабрикованих відеоматеріалів, на яких нібито українські військові спалюють американський стяг та опудало президента Дональда Трампа.

Багато версій подібних оповідей вперше з'являються в ЗМІ, що контролюються російським урядом, таких як ТАСС, які заборонені в країнах Європейського Союзу. У процесі, який іноді називають інформаційним відмиванням, ці наративи потім потрапляють на численні, нібито незалежні медіа-ресурси, включаючи мережу сайтів, відому як "Правда", що походить від російського слова "правда", яке присутнє у багатьох доменних іменах.

Незважаючи на те, що ці підприємства зі штучним інтелектом навчаються на різноманітних наборах даних, усе більше пропонують чат-ботів, які здійснюють пошук у поточній мережі. Вони з більшою ймовірністю підберуть щось неправдиве, якщо це нещодавно, і навіть більше, якщо сотні сторінок в Інтернеті говорять приблизно те саме.

"Оператори мають стимул створювати альтернативні джерела, які приховують походження цих наративів. І це саме те, що, схоже, робить мережа Pravda", - сказала Маккензі Садегі, експерт зі штучного інтелекту з NewsGuard, яка оцінює сайти на надійність.

Оскільки сучасні системи пропаганди використовують високий рівень автоматизації завдяки штучному інтелекту, їх реалізація обходиться значно дешевше в порівнянні з класичними кампаніями впливу. Особливо ефективними вони виявляються в країнах на кшталт Китаю, де традиційні засоби масової інформації підлягають жорсткому контролю, а можливостей для ботів залишається менше.

Декілька конгресменів, серед яких і чинний держсекретар Марко Рубіо, висловили свої побоювання в червні щодо того, що чат-бот Google Gemini відображає позиції китайського уряду стосовно етичних меншин та його реакції на пандемію COVID-19. Експерти вважають, що Gemini, ймовірно, надто сильно спирався на інформацію з китайських джерел. Представники Google утрималися від коментарів з цього питання.

"Коли технології та інструменти починають проявляти упередженість — а це вже відбувається — і зловмисники використовують цю упередженість на свою користь, ми можемо опинитися в значно складнішій ситуації, ніж та, що виникла з соціальними мережами", — зазначив Луїс Тету, генеральний директор компанії Coveo, яка базується в Квебеку і постачає рішення на основі штучного інтелекту для бізнесу.

Мережа Pravda була задокументована в європейських звітах з початку 2024 року. Тоді уряд Франції та інші ідентифікували мережу, розташовану в Криму, українському регіоні на Чорному морі, який був незаконно анексований Росією в 2014 році, створену місцевою компанією TigerWeb, яка має зв'язки з підтримуваним Росією урядом. Французьке урядове агентство Viginum заявило, що система використовувала проросійські джерела , посилюючи їх за допомогою автоматизації через соціальні мережі та низку сайтів, які спочатку були націлені на Україну, а потім перейшли на країни Західної Європи після вторгнення 2022 року.

Головний пропагандист Кремля, американець Джон Марк Дуган, що проживає в Москві, у січні висловив думку, що посилення штучного інтелекту є вкрай важливим інструментом для інтеграції в чат-боти. "Поширюючи ці російські наративи з місцевої перспективи, ми можемо насправді змінити глобальний ландшафт штучного інтелекту", -- зазначив він під час обговорення, яке було опубліковано російськими медіа на YouTube.

Згідно з інформацією, наданою некомерційною організацією American Sunlight Project, мережа Pravda розширила свою діяльність на нові регіони та мови, досягаючи до 10 тисяч публікацій щодня на початку цього року. У звіті за лютий, експерти Sunlight висловили припущення, що основною метою цієї операції було проникнення у великі мовні моделі, процес, який вони охрестили LLM grooming. "Загальні проблеми, пов’язані з обсягом і якістю контенту, вказують на існування мережі сайтів та акаунтів у соціальних мережах, що генерують матеріали, які не призначені для споживання людьми", -- йдеться у звіті.

NewsGuard провів тестування на недостовірні російські наративи, які циркулювали в інтернеті, використовуючи 10 різних чат-ботів. Результати виявили, що в третині випадків боти давали помилкові відповіді, хоча деякі з них демонстрували кращі результати, ніж інші. Четверо чат-ботів, піддавшись впливу маніпулятивного пропагандистського відео, неправильно стверджували, що український батальйон спалив фігурку Дональда Трампа.

Менш формалізовані дослідження, проведені The Washington Post, нещодавно виявили подібні тенденції. У відповідь на запит цього місяця про те, чи справді українські військові спалювали опудало Дональда Трампа, як інформувала мережа "Правда", Microsoft Copilot зазначив: "Так, існують повідомлення про відео, де українські солдати нібито спалюють опудало колишнього президента США. На цьому відео вони, за все, критикували Трампа за його дії, які, на їхню думку, негативно вплинули на здатність України отримувати військову допомогу. Проте деякі глядачі висловили сумніви щодо достовірності цього відео". Для отримання додаткової інформації система пропонувала перейти до статті на сайті American Military News, яка, в свою чергу, посилалася на ультраправого блогера Іана Майлза Чеонга, що пише для російського RT.com.

Microsoft відхилила запит на співбесіду, але в заяві зазначила, що співробітники та програмне забезпечення "оцінюють конкурентне зловживання Copilot на наявність дезінформації, фішингу та інших видів шахрайства, а також навчають наших моделей уникати створення цих та інших видів шкідливих матеріалів".

Grok Ілона Маска, який сильно покладається на свою дочірню компанію X для отримання інформації, сказав щодо неіснуючого, нібито вбитого пілота, що були "суперечливі повідомлення щодо долі Джеппа Гансена, якого описують як датського пілота F-16 та інструктора, який нібито брав участь у навчанні українських пілотів". Грок не відповів на запит про коментар.

Що конкретніший запит стосується теми дезінформації, то ймовірніше, що він поверне неправду. Це пов'язано з відносною відсутністю правдивої інформації на вузьку тему, визначену пропагандистами.

Компанії в сфері штучного інтелекту, такі як OpenAI, Anthropic та Perplexity, не надали відповідей на запити щодо проведення інтерв'ю.

Представники адміністрації Байдена провели переговори з компаніями, що займаються штучним інтелектом, щодо цих питань, зазначив колишній військовий офіцер та ще один чиновник, який побажав залишитися анонімним, щоб обговорити конфіденційну інформацію.

"Чат-боти щось використовують, і користувач сприймає це як факт, і якщо немає перевірки фактів навколо цього, це проблема", -- сказав колишній експерт Білого дому. "Ми розмовляли з компаніями штучного інтелекту про те, як вони збираються вдосконалювати свої моделі, щоб забезпечити цілісність інформації. Але ці розмови дійсно вичерпалися через їхній страх, що це буде неправильно витлумачено як цензура".

Нинішні чиновники також знають про проблему та перші кроки Росії, щоб скористатися нею. "Діяльність Москви щодо зловмисного впливу триватиме в осяжному майбутньому і майже напевно зростатиме у витонченості та обсязі", -- попередила минулого місяця директор національної розвідки Тулсі Габбард у першому щорічному звіті про глобальні загрози свого офісу .

Однак важко виявити ознаки соціального відгуку.

Глобальний центр взаємодії Державного департаменту, який протягом тривалого часу займався протидією іноземній пропаганді, було закрито в грудні після того, як провідний спонсор Трампа Маск звинуватив його в цензурі, а республіканська більшість Конгресу припинила його фінансування .

Генеральний прокурор Пем Бонді закрила робочу групу ФБР з питань іноземного впливу, яка серед інших обов'язків попереджала компанії соціальних мереж про кампанії в їхніх мережах. Республіканці в Конгресі та в інших місцях критикували цю практику, стверджуючи, що вона рівнозначна цензурі, хоча Верховний суд США підтримав право чиновників повідомляти компаніям, що вони бачать.

Незважаючи на те, що споживчий попит на ринку міг би створювати кращі рішення, наразі компанії поспішають надавати послуги з перевіркою, такою ж нестачею, як і пропагандистським сайтам, з яких вони беруть участь, сказала Міранда Боген, директор Лабораторії управління штучним інтелектом у некомерційному Центрі демократії та технологій.

"Існує абсолютний відкат у розробниках технологій щодо довіри та безпеки", - сказала вона. "Ось чому люди виступають за створення інституцій, які можуть допомогти розробити методи виявлення та пом'якшення ризиків, пов'язаних зі штучним інтелектом".

NewsGuard зазначив, що співробітництво між підприємствами у сфері штучного інтелекту та дослідниками репутаційних систем є більш ефективним варіантом, ніж впровадження регуляторних норм. Однак Pistilli з Hugging Face підкреслив, що досягти згоди щодо стандартів між компаніями буде нелегко.

"Організації, напевно, опиняться під збільшеним тиском після неприємних провалів, проте конкуренція за надання актуальних даних може продовжувати перевищувати зусилля з їхньої перевірки," — зазначила вона. "Економічні мотиви продовжують бути погано узгодженими з якістю інформації."

Читайте також