OpenAI закриває інструмент для розпізнавання тексту, написаного ШІ – через низьку точність
Класифікатор ШІ від OpenAI припинив роботу з 20 липня, повідомляє компанія в блозі.
«Ми вивчаємо відгуки та досліджуємо більш ефективні методи класифікації тексту», — заявили в OpenAI.
OpenAI визнала, що класифікатор з самого початку працював не надто ефективно і часто видавав помилкові відповіді, позначаючи текст людини, як такий, що писав генеративний ШІ. В компанії думають, що більша кількість даних для навчання, зможе виправити цю проблему у майбутньому.
Водночас розробник ChatGPT зосередиться й на механізмах, які дозволять класифікувати аудіо- чи візуальний контент — як створений ШІ або людиною.
Вірусний чатбот від OpenAI дебютував восени 2022 року, активізувавши ШІ галузь та наблизивши сучасну технологію до широких мас. Декілька секторів підняли тривогу щодо створених ШІ текстів і зображень — викладачі зокрема хвилювалися, що студенти більше не навчатимуться й просто дозволятимуть ChatGPT писати за них домашні завдання. Пізніше школи Нью-Йорка навіть заборонили використання чатбота.
Інша проблема — здатність подібних чатботів надавати неправдиву інформацію як факт (чатбот Google Bard, до прикладу, відзначився цим вже у рекламному ролику). Уряди нині ще не придумали як контролювати генеративний ШІ й вдалися лише до деяких обмежень у його використанні, та й самі компанії-розробники, здається, теж не знають як приборкати цю технологію й примусити працювати належним чином.