Політичні новини України та світу

Політика Global Voices у сфері штучного інтелекту

Global Voices гордо представляє матеріали, переклади та ілюстрації, які створюються людьми для людей. Ми сподіваємося, що наші автори дотримуватимуться цих принципів.

Оскільки використання інструментів на основі великих мовних моделей (LLM), таких як ChatGPT, DeepSeek, Midjourney та інших форм генеративного "штучного інтелекту", стає дедалі поширенішим і інтегрованим у платформи та операційні системи, для Global Voices, як медіаорганізації, важливо визначити чітку політику щодо їхнього використання на нашому сайті.

Ми обмежуємо використання штучного інтелекту у своїй роботі з двох основних причин, обидві з яких пов'язані з нашою місією:

1. Довіра. Великі мовні моделі не призначені для генерування надійного контенту. Хоча їх алгоритми іноді можуть продукувати коректну інформацію, це не є їх основним призначенням, а кількість випадків, коли вони генерують абсолютно неправдиві дані, значна. Як новинна організація, що дотримується журналістських стандартів, ми прагнемо публікувати лише перевірені факти. Використання LLM для написання текстів, перекладу або створення візуального контенту може загрожувати цим стандартам і підривати довіру наших читачів.

2. Підтримка недосить представлених голосів. Моделі на основі LLM функціонують, спираючись на вже існуючі дані, а саме на текстах, на яких вони були навчено. Відповіді, що вони створюють, часто базуються на найпоширеніших і найвідоміших інтернет-джерелах. Це може призвести до однорідності в цифровому середовищі та зникнення унікальних точок зору, включаючи ті, які ми прагнемо підкреслити. Наша мета полягає в тому, щоб публікувати оригінальні ідеї та знання, навіть якщо вони не відповідають загальноприйнятим мовним стандартам чи традиційним способам мислення. Для нас важливо передати автентичну точку зору, а не просто створювати тексти, які "звучать коректно".

Окрім цих причин, є й інші важливі аспекти: екологічний вплив LLM, питання авторських прав, які виникають як під час навчання моделей, так і в процесі їхньої роботи, а також етичні проблеми, зокрема використання контенту без дозволу авторів та ілюстраторів і недооцінка праці людей, що беруть участь у процесах розмітки та модерації даних.

Ми усвідомлюємо, що LLM можуть виглядати як корисний засіб для створення текстів, малювання чи перекладів, особливо для осіб, які спілкуються нерідною мовою або стикаються з незнайомими вимогами. До того ж, LLM та аналогічні технології часто вбудовуються в інші програми, що робить повний відмову від їх використання досить складною.

Разом із цим, ми визнаємо, що автори, перекладачі та ілюстратори традиційно використовують допоміжні ресурси, такі як словники, тезауруси, посібники зі стилю чи референсні зображення. Деякі інструменти, що називаються "штучним інтелектом", працюють подібним чином: письменники перевіряють орфографію, перекладачі шукають синоніми, ілюстратори використовують зразки для натхнення.

Однак так само, як ми не приймаємо статті, скопійовані з енциклопедій чи Вікіпедії (навіть із мінімальними змінами), або переклади, у яких кожне слово механічно замінене на варіант із словника, ми не приймаємо автоматично згенеровані тексти, переклади чи ілюстрації.

Як децентралізована організація, ми повинні покладатися на наших авторів. Проте наразі не існує надійних технологій для виявлення контенту, створеного за допомогою LLM. Більше того, інструменти, які претендують на таку можливість, часто стикаються з тими ж етичними та екологічними викликами, що й LLM самі по собі. Тому ми залишаємо за собою право ретельно перевіряти матеріали, які можуть свідчити про використання таких технологій, а також вимагати їх доопрацювання, відмовляти у публікації або видаляти контент, якщо його створення суперечить нашій місії.

Ми розуміємо, що технології швидко змінюються, тож ця політика також потребуватиме коригування. Ми будемо оновлювати її відповідно до викликів часу та змін у сфері цифрових технологій.

Читайте також