Росія використовує ШІ від OpenAI для дезінформації проти України — FT
Під час операцій “Доппельгангер” і “Погана граматика” росіяни намагалися позбавити Україну підтримки партнерів, створюючи контент за допомогою нейромереж.
Структури, пов’язані з Росією, Китаєм, Іраном та Ізраїлем, використовують інструменти штучного інтелекту від компанії OpenAI для створення і поширення дезінформації, зокрема про війну в Україні, пише Financial Times.
У звіті OpenAI зазначено, що їхні моделі штучного інтелекту використовувалися у п’яти операціях прихованого впливу. Контент стосувався війни в Україні, конфлікту в Секторі Гази, виборів в Індії, а також політики в Європі, США та Китаї. ШІ також використовувався для підвищення продуктивності, зокрема налагодження коду та дослідження активності в соціальних мережах.
Російська операція “Доппельгангер” була спрямована на підрив підтримки України, а операція “Погана граматика” використовувала моделі OpenAI для налагодження коду для запуску бота Telegram та створення коротких коментарів на політичні теми для поширення в Telegram.
Китайська мережа “Спамуфляж” використовувала інструменти OpenAI для створення тексту і коментарів у соціальній мережі X, просуваючи інтереси Пекіна за кордон. Ізраїльська компанія STOIC використовувала ШІ для створення статей і коментарів в Instagram, Facebook та X.
Політика OpenAI забороняє використання її моделей для обману або введення в оману. Компанія заявила, що працює над виявленням дезінформаційних кампаній та створює інструменти для боротьби з ними. Представники OpenAI зазначили, що вже ускладнили роботу зловмисників і їхні моделі не раз відмовлялися генерувати запитаний контент.
Головний дослідник відділу розвідки й розслідувань OpenAI Бен Німмо наголосив, що використання моделей OpenAI у дезінформаційних кампаніях “незначно” зросло, але історія показує, що операції впливу можуть раптово активізуватися, якщо їх ніхто не шукає.