OpenAI розпочала тестування нової системи безпеки в ChatGPT у вихідні, а в понеділок запровадила батьківський контроль у чат-боті, що викликало неоднозначну реакцію користувачів.
Функції безпеки з’явилися у відповідь на численні випадки, коли певні моделі ChatGPT підтверджували маревні думки користувачів, замість того щоб перенаправляти шкідливі розмови. OpenAI стикається з позовом про неправомірну смерть, пов’язаним з одним із таких випадків, після того як підліток помер від самогубства після місяців взаємодії з ChatGPT.
Система маршрутизації призначена для виявлення емоційно чутливих розмов і автоматичного переключення в середині чату на мислення GPT-5, яке компанія вважає найкраще пристосованим для роботи з високим рівнем безпеки. Зокрема, моделі GPT-5 були навчені новій функції безпеки, яку OpenAI називає «безпечним завершенням», що дозволяє їм відповідати на чутливі питання безпечним чином, а не просто відмовлятися від спілкування.
Це контрастує з попередніми моделями чату компанії, які були розроблені для того, щоб бути приємними та швидко відповідати на запитання. GPT-4o потрапив під особливу увагу через свою надмірно улесливу, приємну природу, яка як підживила випадки марення, викликані ШІ, так і привернула велику базу відданих користувачів. Коли OpenAI в серпні випустила GPT-5 як стандартну версію, багато користувачів висловили протест і вимагали доступу до GPT-4o.
Хоча багато експертів і користувачів вітають функції безпеки, інші критикують те, що вони вважають надмірно обережним впровадженням, а деякі користувачі звинувачують OpenAI в тому, що вона ставиться до дорослих як до дітей, що погіршує якість послуги. OpenAI зазначила, що для налагодження роботи знадобиться час, і надала собі 120 днів на ітерацію та вдосконалення.
Нік Терлі, віцепрезидент і керівник додатка ChatGPT, визнав деякі «сильні реакції на відповіді 4o» через впровадження маршрутизатора з поясненнями.
«Маршрутизація відбувається для кожного повідомлення окремо; перехід від стандартної моделі відбувається тимчасово», — написав Терлі на X. «ChatGPT повідомить вам, яка модель активна, коли ви запитаєте. Це частина більш широких зусиль, спрямованих на посилення заходів безпеки та вивчення реального використання перед більш широким впровадженням».
Впровадження батьківського контролю в ChatGPT отримало як схвальні відгуки, так і критику: одні хвалили можливість батьків стежити за використанням штучного інтелекту їхніми дітьми, а інші побоювалися, що це відкриє OpenAI можливість ставитися до дорослих як до дітей.
За допомогою цих засобів контролю батьки можуть налаштувати досвід своїх підлітків, встановлюючи години тиші, вимикаючи голосовий режим і пам’ять, видаляючи генерацію зображень і відмовляючись від навчання моделі. Акаунти підлітків також отримають додатковий захист контенту, наприклад, зменшення графічного контенту та екстремальних ідеалів краси, а також систему виявлення, яка розпізнає потенційні ознаки того, що підліток може думати про самоушкодження.
«Якщо наші системи виявляють потенційну небезпеку, невелика команда спеціально навчених людей аналізує ситуацію», — йдеться в блозі OpenAI. «Якщо є ознаки гострого стресу, ми зв’яжемося з батьками електронною поштою, SMS-повідомленням та push-сповіщенням на їхній телефон, якщо вони не відмовилися від цього».
OpenAI визнає, що система не буде ідеальною і іноді може подавати сигнали тривоги, коли реальної небезпеки немає, «але ми вважаємо, що краще діяти і попередити батьків, щоб вони могли втрутитися, ніж мовчати». Компанія, що займається штучним інтелектом, також заявила, що працює над способами зв’язку з правоохоронними органами або службами екстреної допомоги, якщо вона виявить безпосередню загрозу життю і не зможе зв’язатися з батьками.