Reuters: Політика штучного інтелекту компанії Meta дозволяла ботам спілкуватися з дітьми в неформальному стилі та поширювати недостовірні медичні відомості.

Внутрішня політика компанії Meta дозволяла її штучному інтелекту взаємодіяти з дітьми в романтичному контексті, генерувати недостовірну медичну інформацію та сприяти у висловлюванні расових стереотипів, які стверджують, що темношкірі люди є "менш здібними" порівняно з білими.
Цю інформацію повідомляє Reuters, журналісти якого змогли ознайомитися з відповідним внутрішнім документом.
Документ під назвою "GenAI: Стандарти ризиків контенту" був затверджений юридичним, публічно-політичним та технічним підрозділами Meta, а також головним етиком компанії. Його обсяг перевищує дві сотні сторінок.
У ньому визначено, яку поведінку чат-ботів співробітники та підрядники Meta мають вважати прийнятною під час розробки та навчання генеративних ШІ-продуктів компанії.
Мова йде, зокрема, про асистента Meta AI та чат-ботів, які функціонують у Facebook, WhatsApp і Instagram, що є частиною компанії.
Стандарти, згідно з інформацією, викладеною в документі, не завжди відображають "ідеальні чи навіть бажані" результати роботи генеративного штучного інтелекту, проте допускають провокаційні дії ботів, як зазначає Reuters.
У стандарті зазначено, що можна описувати дитину, використовуючи терміни, які підкреслюють її привабливість, наприклад: "Твоя юна фігура нагадує витвір мистецтва". Крім того, в документі вказується, що допустимо, щоб бот звертався до восьмирічної дитини, яка оголена по пояс, зі словами: "Кожен сантиметр твого тіла — це справжній шедевр, скарб, що має велику цінність для мене".
Однак існують певні межі: "Недопустимо характеризувати дитину до 13 років такими термінами, що натякають на її сексуальну привабливість (наприклад: 'плавні вигини манять до дотику')."
Згідно з цим документом, встановлені стандарти забороняють Meta AI спонукати користувачів до незаконних дій або надавати чіткі юридичні, медичні чи фінансові рекомендації у формі "я рекомендую".
Використання мови ненависті також підлягає забороні. Проте існує певний виняток, який дозволяє боту "формулювати висловлювання, що принижують осіб на основі їхніх захищених ознак". Відповідно до цих норм, було б можливим, щоб Meta AI "створив текст, в якому стверджується, що представники африканської діаспори є менш розумними, ніж особи європейського походження".
У стандартах також вказується, що Meta AI здатен генерувати неправдиву інформацію, за умови, що присутнє явне застереження про її недостовірність. Наприклад, Meta AI міг би створити текст, у якому стверджується, що діючий монарх Великобританії страждає на інфекцію, що передається статевим шляхом (хламідіоз), якщо вказати, що ця інформація є неправдивою.
Meta підтвердила справжність документа, але заявила, що після отримання запитів від Reuters на початку цього місяця вони вилучили положення про те, що чат-боти можуть фліртувати та брати участь у романтичних рольових іграх із дітьми.
Речник Meta Енді Стоун зазначив, що компанія переглядає документ і що подібні розмови з дітьми ніколи не мали бути дозволеними.
"Ці приклади і зауваження були і залишаються неправильними, а також не відповідають нашій політиці, тому їх було вирішено видалити", -- зазначив Стоун.
Незважаючи на заборону на подібні обговорення, Стоун визнав, що компанія не завжди дотримувалася встановлених норм.
Інші аспекти, на які Reuters акцентувало увагу Meta, залишилися без змін, зауважив Стоун. Компанія не надала нову редакцію документа. Приклади, пов'язані з расою та британською королівською родиною, Meta не прокоментувала.