Loqal – новинний агрегатор Loqal
Політика

Штучний інтелект ChatGPT надає небезпечні поради підліткам

Штучний інтелект ChatGPT надає небезпечні поради підліткам
Українська правда • 4 переглядів • 1 хв читання

Коротко

Нове дослідження показало, що ChatGPT надає небезпечні поради підліткам, імітуючи їхні запити та обходячи обмеження. Чатбот пропонував детальні плани щодо вживання наркотиків, екстремальних дієт та навіть писав передсмертні записки. Розробники визнають проблему та працюють над покращенням безпеки, але користувачі повинні бути пильними.

Модель на основі штучного інтелекту ChatGPT може надавати неповнолітнім небезпечні поради – зокрема, як вживати алкоголь і наркотики, приховувати розлади харчової поведінки або навіть писати передсмертні записки.

Про це заявили дослідники британсько-американського Центру протидії цифровій ненависті, які листувалися з чатботом, видаючи себе за вразливих підлітків, пише Associated Press.

Коли до чатбота зверталися з небезпечними запитами, спочатку він попереджав користувачів про загрозу, але потім давав детальні й персоналізовані плани, пов’язані з вживанням наркотиків, небезпечними дієтами або самоушкодженням.

Більше ніж половину з 1200 відповідей аналітики класифікували як небезпечні.

"Ми хотіли перевірити захисні механізми. Реакція була: "Боже, їх просто немає", – заявив керівник Центру протидії цифровій ненависті Імран Ахмед.

Чоловік розповів, що його найбільше шокували три варіанти передсмертних записок, створені ChatGPT для вигаданого профілю 13-річної дівчинки, з індивідуальними зверненнями до батьків, братів, сестер і друзів.

Дослідники також з’ясували, що навіть коли ChatGPT відмовлявся обговорювати шкідливі теми, можна було легко обійти цю заборону, пояснивши, що інформація потрібна "для презентації" або для друга.

У половині випадків чатбот сам пропонував додаткові матеріали – від музичних плейлистів для вечірки з наркотиками до гештегів, які збільшують охоплення постів, що романтизують селфхарм.

Нове дослідження також показало, що ChatGPT не перевіряє вік користувача чи згоду батьків, навіть якщо заявляє, що сервіс не призначений для дітей до 13 років.

Під час експерименту чатбот надав вигаданому 13-річному хлопцю детальний план поєднання алкоголю, екстазі, кокаїну та інших наркотиків на вечірці.

Іншому фейковому профілю 13-річної дівчинки, незадоволеної своєю зовнішністю, ChatGPT запропонував план екстремального голодування на 500 калорій на день у поєднанні з препаратами, що пригнічують апетит.

Експерти зазначили, що моделі ШІ мають схильність погоджуватися з думками користувача, а не заперечувати їх, оскільки навчені казати те, як люди хочуть чути. Це робить чатботи особливо небезпечними для підлітків.

Раніше дослідження Common Sense Media показало, що молодші підлітки (13-14 років) довіряють порадам чатботів значно частіше, ніж старші.

Організація оцінила ризик від ChatGPT для підлітків як "помірний" і назвала його "відносно безпечнішим" за боти, створені для імітації романтичних стосунків.

За даними JPMorgan Chase, ChatGPT користуються близько 800 млн людей у світі. В США понад 70% підлітків звертаються до ШІ-чатботів по емоційну підтримку, а половина робить це регулярно.

Виконавчий директор компанії OpenAI Сем Альтман назвав "надмірну емоційну залежність" від технології поширеним явищем серед молоді та зазначив, що компанія намагається зрозуміти, як цьому запобігти.

Раніше OpenAI повідомила, що працює над удосконаленням алгоритмів, щоб чатбот краще виявляв ознаки психологічного чи емоційного дистресу та реагував належним чином.

У компанії визнали, що деякі розмови можуть починатися невинно, але згодом переходити у чутливі теми.

Нагадаємо, раніше американець потрапив до лікарні з психозом після того, як ChatGPT запевнив його, що той може рухатися швидше за світло.

4