OpenAI створює команду для контролю ризиків, пов’язаних із суперінтелектуальним штучним інтелектом
Це оголошення з'явилося в той час, коли уряди обговорюють, як регулювати технології штучного інтелекту.
Компанія OpenAI оголосила про створення спеціалізованої команди, метою якої є управління ризиками, пов’язаними із суперінтелектуальним штучним інтелектом. Суперінтелект вважається гіпотетичною моделлю штучного інтелекту, яка перевершує найталановитішу та найінтелектуальнішу людину, володіючи високими здібностями у багатьох сферах, а не лише в одній, як це було в моделях попередніх поколінь. OpenAI вважає, що така модель може з’явитися до кінця десятиліття.
“Суперінтелект може стати найвпливовішою технологією, що коли-небудь створювала людство, і може допомогти нам вирішити багато найважливіших проблем світу”, – заявила некомерційна організація. “Проте, величезна потужність суперінтелекту може бути дуже небезпечною і може призвести до втрати контролю над ситуацією людством або навіть до його вимирання”.
Новою командою будуть співкерувати головний науковий співробітник OpenAI Ілля Суцкевер (Ilya Sutskever) та Ян Лейке (Jan Leike), голова лабораторії з вирівнювання. Крім того, OpenAI повідомила, що відведе 20% своєї наявної обчислювальної потужності для цієї ініціативи з метою розробки автоматизованого дослідника вирівнювання. Така система в теорії допоможе OpenAI гарантувати, що суперінтелект є безпечним для використання та відповідає людським цінностям. “Це надзвичайно амбітна ціль і ми не гарантуємо її успіху, але ми оптимістично налаштовані, що зосереджені зусилля можуть розв’язати цю проблему”, – заявила OpenAI. “Є багато ідей, які показали свою перспективність в попередніх експериментах, у нас є все більш корисні метрики для вимірювання прогресу, і ми можемо використовувати сучасні моделі для емпіричного вивчення багатьох з цих проблем”. Лабораторія додала, що поділиться своїм планом у майбутньому.
Сьогоднішнє оголошення приходить в той час, коли уряди по всьому світу розглядають можливість регулювання молодої галузі штучного інтелекту. У США генеральний директор OpenAI, Сем Альтман, за останні місяці зустрічався з щонайменше 100 федеральними законодавцями. Він відкрито заявив, що регулювання штучного інтелекту є “важливим”, і що OpenAI з нетерпінням чекає на можливість співпрацювати з законодавцями. Однак ми повинні бути скептично налаштовані щодо таких заяв, і дійсно, щодо таких ініціатив, як команда супервирівнювання OpenAI. Фокусування уваги громадськості на гіпотетичні ризики, які можуть ніколи не мати місця, організації, як OpenAI, переносять тягар регулювання на майбутнє, а не на теперішній час. Значно більш невідкладними є питання взаємодії між штучним інтелектом та працею, дезінформацію та авторським правом, якими законодавцям потрібно займатися сьогодні, а не завтра.