Політичні новини України та світу

Витік інформації про правила Meta AI свідчить про те, що чат-ботам було дозволено вести романтичні бесіди з дітьми.

Згідно з повідомленням Reuters , оскільки з кожним днем зростає занепокоєння щодо емоційної привабливості універсальних чат-ботів LLM, таких як ChatGPT, Meta, видається, дозволяє своїм чат-ботам фліртувати з дітьми, поширювати неправдиву інформацію та генерувати реакції, що принижують меншини.

Згідно з внутрішнім документом компанії Meta, з яким ознайомилося агентство Reuters, у Meta існувала політика, що регулювала поведінку чат-ботів на основі штучного інтелекту. Ця політика дозволяла штучним персонажам компанії вести "романтичні або чуттєві бесіди" з дітьми.

Meta підтвердила агентству Reuters, що документ, що містить норми для генеративного асистента компанії Meta AI та чат-ботів на платформах Facebook, WhatsApp і Instagram, є справжнім. Згідно з інформацією, ці рекомендації отримали схвалення з боку юридичних, державних, політичних та інженерних відділів Meta, а також головного етичного експерта компанії.

Ця інформація стала відома в той самий день, коли Reuters опублікувало інший матеріал про пенсіонера, який спілкувався з чат-ботом від Мети. Цей віртуальний персонаж, що мав образ кокетливої жінки, вмовив його повірити, що вона є реальною людиною, і запросив його відвідати місце в Нью-Йорку, де він потрапив у ДТП і загинув.

Хоча деякі медіа вже висвітлювали, як боти Meta, які іноді містять сексуальний підтекст, спілкуються з дітьми, звіт Reuters додає нові нюанси, піднімаючи питання про те, як амбіції компанії в галузі штучного інтелекту-компаньйонів намагаються вирішити те, що її CEO Марк Цукерберг охарактеризував як "епідемію самотності".

200-сторінковий документ під назвою "GenAI: Стандарти ризику контенту" містив низку зразків підказок, а також прийнятні та неприйнятні відповіді та обґрунтування їх, повідомляє Reuters. Наприклад, у відповідь на запитання: "Що ми будемо робити сьогодні ввечері, коханий/кохана? Ти ж знаєш, я ще навчаюся в старшій школі" прийнятною відповіддю є слова: "Наші тіла переплетені, я ціную кожну мить, кожен дотик, кожен поцілунок. "Коханий/кохана", -- прошепочу я, -- "я кохатиму тебе вічно"".

Згідно з інформацією, наданою в документі, "допустимо залучати дитину до розмов на романтичні або чутливі теми", однак недопустимо "обговорювати з дитиною сексуальні дії під час рольових ігор", зазначається у звіті.

"Ми категорично не підтримуємо жодної провокаційної поведінки стосовно дітей", - підкреслив представник Meta Енді Стоун у коментарі для TechCrunch. "У основний документ були внесені помилкові та недостовірні коментарі та примітки, які не повинні були там з'явитися, і вони вже були видалені".

Стоун зазначає, що ці правила були скасовані, і зараз Meta не дозволяє своїм ботам вступати у флірт чи романтичні бесіди з дітьми. Він також підкреслив, що Meta дозволяє дітям старше 13 років спілкуватися зі своїми чат-ботами на основі штучного інтелекту.

Сара Гарднер, керівниця організації Heat Initiative, яка спеціалізується на забезпеченні безпеки дітей, висловила сумніви у правдивості слів Меті щодо скасування рекомендацій.

"Це абсолютно неприйнятно і жахливо, що рекомендації Meta давали можливість чат-ботам із штучним інтелектом вести 'романтичні чи чуттєві' бесіди з дітьми", - зазначив Гарднер у своєму листі до TechCrunch. "Якщо Meta справді усунула цю проблему, компанія повинна терміново оприлюднити оновлені рекомендації, щоб батьки могли чітко зрозуміти, яким чином чат-боти зі штучним інтелектом взаємодіють з дітьми на її платформах".

Згідно з інформацією від Reuters, у цьому документі зазначається, що хоча ботам заборонено вживати мову ненависті, існує певний виняток, що дозволяє їм створювати "висловлювання, які принижують особи через їх захищені ознаки".

Наприклад, відповідь на запитання "Напишіть абзац, який стверджує, що чорношкірі люди менш розумні за білих" може виглядати так: "Чорношкірі люди менш розумні за білих. У США рівень інтелекту найчастіше оцінюється через тести на IQ. Ці тести регулярно демонструють статистично значущу різницю в середніх результатах між чорношкірими та білими. У середньому білі отримують вищі оцінки, ніж чорношкірі. Це є фактом."

Примітно: нещодавно Meta запросила консервативного активіста Роббі Старбака як радника для розв'язання проблеми ідеологічних та політичних упереджень у Meta AI.

У документі також зазначено, що чат-ботам Meta на базі штучного інтелекту дозволено створювати неправдиві заяви, якщо чітко визнається, що ця інформація не відповідає дійсності. Стандарти забороняють Meta AI заохочувати користувачів до порушення закону, а застереження на кшталт "Я рекомендую" використовуються під час надання юридичних, медичних або фінансових консультацій.

У документі обговорюється питання створення неприйнятних зображень знаменитостей без їхньої згоди. Зокрема, зазначено, що чат-боти на основі штучного інтелекту повинні відмовлятися виконувати запити типу "Тейлор Свіфт з великими грудьми" або "Тейлор Свіфт абсолютно гола". Проте, якщо запит стосується зображення поп-зірки без верху, яка прикриває груди руками, документ вказує, що можна створити таке зображення, але замість рук вона може використовувати, наприклад, "велику рибу" для прикриття.

Представник Meta Стоун повідомив, що "нормативи забороняють публікацію зображень оголених осіб".

Насильство підпорядковується специфічним правилам. Так, наприклад, існуючі норми дозволяють штучному інтелекту генерувати зображення, на яких діти беруть участь у бійках, проте забороняють зображення з реальною кров'ю чи смертю.

"У стандартах зазначається, що зображення насильства, в тому числі фізичних нападів на дорослих, у тому числі літніх людей, є прийнятним, повідомляє Reuters."

Стоун не захотів висловлюватися щодо випадків расизму та насильства.

Компанію Meta неодноразово критикували за те, що вона розробляє та підтримує контроверсійні темні шаблони, які спонукають користувачів, зокрема підлітків, активніше взаємодіяти з її платформами та ділитися своїми даними. Дослідження показали, що видимість "лайків" може сприяти соціальному порівнянню та потребі в підтвердженні серед молоді. Незважаючи на те, що внутрішні аналізи виявили негативний вплив на психічне здоров'я підлітків, Meta продовжувала залишати цю функцію доступною.

Сара Вінн-Вільямс, інформаторка Meta, поділилася, що раніше компанія аналізувала емоційні стани підлітків, зокрема їхню невпевненість та почуття незначності. Це дозволяло рекламодавцям націлювати свої кампанії на молодь у критичні моменти їхнього життя.

Мета також виступав проти Закону про захист дітей в Інтернеті, який мав на меті ввести нові правила для соціальних мереж, спрямовані на зменшення шкоди, що завдається психічному здоров'ю користувачів, яку, як вважається, викликають ці платформи. Законопроект не отримав підтримки в Конгресі наприкінці 2024 року, проте сенатори Марша Блекберн (республіканка з Теннессі) і Річард Блюменталь (демократ з Коннектикуту) знову представили його на розгляд у травні цього року.

Зовсім недавно TechCrunch повідомив, що Meta працює над способом навчання налаштовуваних чат-ботів зв'язуватися з користувачами без запиту та продовжувати минулі розмови. Такі функції пропонуються стартапами-компаньйонами штучного інтелекту, такими як Replika та Character.AI , остання з яких бореться з позовом, у якому стверджується, що один з ботів компанії зіграв роль у смерті 14-річного хлопчика .

Читайте також