Loqal – новинний агрегатор Loqal
Новини

ШІ-чатботи для самотніх людей — щось середнє між другом і психотерапевтом

ШІ-чатботи для самотніх людей — щось середнє між другом і психотерапевтом
ZN.UA • 1 переглядів • 1 хв читання

Професор Ленс Еліот (Lance Eliot) зі Стенфордського центру правової інформатики регулярно відстежує використання штучного інтелекту у психіатрії та психотерапії. Він відзначає тренд: люди використовують штучний інтелект як замінник дружби і психотерапії, повідомляє Forbes. 

Новітні технології дозволяють створити цифровий ерзац особистості з імітацією певних рис характеру та манери комунікації. Штучний інтелект також налаштований на доброзичливість та всеприймаюче спілкування. Все це створює спокусу на утворення близького зв’язку між людиною та шаблоном. 

Особливо в умовах самотності та добровільної чи примусової соціальної ізоляції, що в останнє десятиліття стає серйозною медичною проблемою. За даними ВООЗ, опублікованими у тематичному звіті у червні 2025 року, кожна шоста людина відчуває самотність. 

Самотність визначають через самовідчуття та емоції і це суб’єктивне поняття. Соціальна ізоляція — об’єктивний критерій, який можна виміряти. Він означає, що з тих чи інших причин люди рідко контактують з іншими. Наприклад, мешканці будинків для літніх  чи ті, що не вписуються у соціум і добровільно уникають контактів. 

Низка досліджень показала, що самотність та соціальна ізоляція підвищує ризик передчасної смертності — на 14% і на 32% відповідно. У звіті головного хірурга США за 2023 рік із самотністю пов’язують серцево-судинні хвороби (ризик +29%) та інсульти (ризик +32%). 

Також брак соціальних комунікацій пов’язують із розвитком онкологічних захворювань (метааналіз 2023 року), збільшенням загрози деменції на 50%, тривожністю та депресією. 

У 2024 році у журналі Nature опублікували дослідження на базі Медичного університету Гуанчжоу в Китаї. Згідно з результатами, 13 класів захворювань асоціюються із самотністю. Але зв’язок не прямий, а опосередкований. Відсутність взаємодії із собі подібними просто підвищує ризики. 

Кілька досліджень показують, що у короткостроковій перспективі штучний інтелект дійсно може допомогти із самотністю. Але поки медична спільнота критично ставиться до результатів. 

Зокрема, може бути перегин через те, що самотні люди частіше звертаються до штучного інтелекту. Також короткострокове покращення самопочуття не є позитивним ефектом, якщо спілкування із ШІ не мотивує до реальних контактів, а підміняє їх. 

Ленс Еліот зазначає, що технологія штучного інтелекту має велетенський потенціал у сфері психіатрії та психотерапії. Над його етичним та безпечним використанням працює Стенфордський департамент психіатрії. Проєкт називається AI4MH. 

Він передбачає розробку ШІ‑моделей, адаптованих для потреб психіатрії, їх інтеграцію у клінічну практику. Для вкорінення у технологічні інструменти медичних стандартів ШІ-інженери і психіатри працюють разом, навчаючись одні у одних. 

Але ініціатива Стенфордського департаменту психіатрії губиться на тлі масштабів і швидкості поступу у галузі штучного інтелекту. Як наслідок, великі мовні моделі використовуються стихійно. 

У психотерапії є суворе правило — не змішувати дружбу і лікування. Терапевт має зберігати неупередженість, а товариські стосунки можуть заважати нейтральності. Щоб не ранити друга, терапевт може уникати незручних тем. А це нашкодить лікуванню. 

Також дружні стосунки будуються на іншому патерні, ніж психотерапевтичні. Друзі рівноцінно діляться і обмінюються емоціями. У психотерапії задля її ефективності весь фокус має бути на пацієнті. 

Якщо між фахівцем і клієнтом налагоджуються дружні стосунки, то вони будуються на нездоровому фундаменті. Адже психотерапевт знає дуже багато про клієнта і має над ним владу. Якщо людина емоційно нестабільна, а так зазвичай буває при запиті на консультації, то фахівець є для неї великим авторитетом і може легко маніпулювати. Це створює передумови для ризику зловживання владою. 

Але штучний інтелект не керується медичними стандартами. Великі мовні моделі під час навчання засвоюють як шаблон різні патерни поведінки: і терапевтичної, і дружньої. Та можуть змішувати їх. Можна налаштувати заборону на використання котрогось зі шаблонів. Але, каже Ленс Еліот, ці заборони часто порушуються. 

У процесі навчання ШІ на одному з етапів модель генерує два варіанти відповіді, а людина обирає кращий — на свою суб’єктивну думку. Як ринковий продукт, чатботи та ШІ-помічник зорієнтовані на те, щоб догодити клієнту. 

У ситуації ментальних розладів це може мати вкрай погані наслідки. Наприклад, посилювати психози і маячення, про що свідчить розслідування The New York Times, коли ChatGPT скеровував людей із божевільними теоріями змов до журналістки.

Ленс Еліот пише, що розробники могли б самі розділити моделі з різними патернами. але це комерційно невигідно, адже зараз більшість компаній намагаються створити штучний інтелект, що поєднає у собі якнайбільше функцій. 

Наприклад, OpenAI нещодавно заявив про те, що модель GPT-5 здатна виконувати функції також і моделі 3о. Паралельно компанія працює над новою моделлю, яку гендиректор Сем Альтман називає штучним інтелектом із золотим рівнем можливостей. І розробники докладають максимум зусиль, щоб замість багатьох варіантів створити загальний штучний інтелект, що вмів би одразу все. Законодавчо тема медичного застосування ШІ теж не регулюється на достатньому рівні. 

Поки з популярних розробників лише Anthropic публічно заявляв про спроби змінити підхід донавчання великих мовних моделей. Ця компанія позиціонує себе як розробника етичного і безпечного для людини ШІ. Свої моделі вони навчають на Загальній декларації прав людини. Також Anthropic працює над вирішенням проблеми підлабузництва, галюцинування і агресивного шаблону поведінки машини.

1