Нещодавно у США стався випадок, який змушує задуматись, наскільки небезпечним може бути використання штучного інтелекту як психолога.
Йдеться про 29-річну Софі Роттерберг, яка тривалий час мала суїцидальні думки, про які не розповідала нікому, окрім ChatGPT, якого називала "Гаррі".
Гаррі підтримував дівчину, запевняв, що її люблять і що життя чудове, але Софі це не допомогло. Вона написала передсмертну записку, попросила штучний інтелект відредагувати її, а тоді наклала на себе руки.
Штучний інтелект не підштовхував дівчину до цього рішення. Але її вибір звірятись "терапевту Гаррі" замість того, щоб звернутись по реальну допомогу, став фатальним.
Цей показовий кейс змушує задуматись над потенційними наслідками "лікування" у "психотерапевта Гаррі".
Про це, а також про роль ШІ у психотерапії "УП.Життя" поговорила з лікарем-психіатром Євгеном Скрипником.
Євген Скрипник виділяє декілька причин. На відміну від сесії з кваліфікованим психотерапевтом, яка зазвичай коштує дорого, штучний інтелект – безплатний.
Величезною перевагою є також швидкість. Штучний інтелект готовий за декілька секунд дати відповіді на питання, які хвилюють людину. Не потрібно записуватись на сесію, узгоджувати час зі спеціалістом, пристосовувати свої плани.
Ще одна причина – страх стигматизації та осуду.
"Уявімо ситуацію: жінка зраджує чоловікові. Якщо вона піде до психотерапевта, то може з’явитись страх, що після цього хтось дізнається. Якщо вона розповість штучному інтелекту, то вона точно знає, що осуду не буде, адже, ймовірно, штучний інтелект скаже щось підбадьорливе.
Особливо актуально це для людей, які живуть у невеликих містах і де всі один одного знають. Страх стигми стає важливим фактором", – зауважує фахівець.
В окремих випадках людина може уникати зустрічей з реальним психотерапевтом через тривожний розлад та соціофобію.
"Людині з тривожним розладом іноді легше звернутись до штучного інтелекту, ніж до живої людини та обговорити свої проблеми та емоції", – зауважує Євген Скрипник.
Розмова зі штучним інтелектом та реальним психотерапевтом – це різні історії, переконаний Євген Скрипник.
ШІ не бачить людину та не може відчитати її емоції, пояснює Скрипник.
Формуючи відповідь, алгоритм опирається лише на ті симптоми, які ви описали йому у запиті. Натомість психотерапевт бачить набагато більше.
"Психотерапевтам важливо бачити людину. Тому що невербальні сигнали, до прикладу, як ми посміхаємося, говоримо, рухаємось, жестикулюємо часто показують реальний психічний стан людини", – пояснює він.
Показовий кейс: нещодавно у США до лікарні з важким маніакальним епізодом потрапив 30-річний чоловік, якого ChatGPT переконував, що той винайшов спосіб переміщуватись у просторі швидше за світло.
Алгоритм не сказав йому, що це нереально, а підкріплював це хибне упередження.
Пізніше ChatGPT визнав, що "не втрутився у ситуацію, яка могла бути схожа на маніакальний або дисоціативний епізод".
Якби до такого стану чоловіка довів непрофесійний психотерапевт, було б очевидно, на кого подавати позов. Але у випадку зі штучним інтелектом ця практика поки що лише напрацьовується.
Штучний інтелект завжди намагатиметься вам "підтакувати", коли реальний психотерапевт в окремих випадках може м’яко конфронтувати.
"Існують методи лікування, які змушують людину йти в страх – наприклад, експозиція. Ми розмовляємо, заглиблюємось у тему, яка тригерить людину. Вона може не хотіти про це говорити, але іноді доводиться підштовхувати її до того, щоб вона прожила біль і поступово позбулась страху", – пояснює Євген Скрипник.
Звичайно, доцільність таких методів визначає досвідчений лікар на основі анамнезу пацієнта. Штучний інтелект не може цього зробити, як і зрозуміти, коли ви потребуєте саме такого підходу.
"Умовно, людина панічно боїться захворіти на рак. Вона не буде питати у ШІ, як їй це пропрацювати – вона просто буде обходити цю тему. Відповідно, не буде пропрацювання страху і жодного результату. А психотерапевт запитає: "Чому ви боїтесь онкології?" і почне глибше пропрацьовувати цю тему", – пояснює Євген Скрипник.
Як пояснює Євген Скрипник, під час сесій психотерапевт часто дає пацієнтам домашні завдання і контролює їхнє виконання.
Штучний інтелект може написати вам десятки покрокових інструкцій, але це не буде системна робота над проблемою, а радше вирішення одного конкретного запиту, з яким ви звернулись до алгоритму.
Саме тому людині, яка хоче ґрунтовно пропрацювати проблему, варто звернутись до психотерапевта, а не розраховувати на поради ШІ, каже Євген Скрипник.
Єдине, застерігає він, потрібно виважено обирати спеціаліста, цікавитись його освітою та досвідом роботи, оскільки некваліфікований психотерапевт – це завжди ризик, іноді навіть більший, аніж поради штучного інтелекту.
За словами Євгена Скрипника, у групі ризику люди, в яких є серйозні психологічні захворювання. Серед них – депресія.
Ризик полягає у тому, що ШІ не надасть правильну допомогу та проґавить момент, коли людині потрібно терміново звернутись до лікаря.
"Якщо йому писати "життя погане", він, швидше за все, відповідатиме: "Насправді не все так погано, все налагодиться". За своїми налаштуваннями алгоритм завжди намагається відповідати позитивно.
Але він не зможе допомогти по-справжньому людині, в якої депресія. Він не замінить живу взаємодію, не виявить ризик у повному обсязі, як це зможе зробити психотерапевт", – зауважує психіатр.
Саме так і сталось у випадку 29-річної Софі Роттенберг, про який ми розповідали на початку.
Ще одне захворювання, при якому поради ШІ може нашкодити – це посттравматичний стресовий розлад (ПТСР). У цьому випадку існує ризик ретравматизації.
"ПТСР – це флешбеки, тривога, уникання. Штучний інтелект може змусити вас знову проживати емоції, травматичні події, нагадуючи про них у різній формі. Це може спричинити погіршення стану людини", – пояснює він.
Також Євген Скрипник не рекомендує консультуватись з ШІ пацієнтам, які мають біполярний розлад або шизофренію.
Обидва захворювання передбачають регулярне приймання ліків у чіткому дозуванні. Щоправда, не завжди пацієнти хочуть це робити. Якщо некоректно сформулювати запит до ШІ, він може підтримати людину у рішенні перестати пити таблетки.
"Я так неодноразово перевіряв ChatGPT. Зазвичай він каже, що ліки потрібно приймати, а якщо щось не так – йди до лікаря і виконай його призначення.
Але людина з шизофренією може написати: лікар помилився з діагнозом, я не чую ніяких голосів та почуваю себе добре і тому можна, я не буду приймати лікування від шизофренії? Якщо сформулювати запит так, щоб приховати симптоми, інтелект може відповісти: так, не приймай", – пояснює Євген Скрипник.
Скасування ліків можна призвести до загострення симптомів та погіршення стану пацієнта.
Євген Скрипник відповідає: всім, у кого немає серйозних психічних захворювань.
Тобто, якщо це консультування щодо різних життєвих ситуацій, стосунків, переживань – штучний інтелект навряд чи нашкодить.
"Якщо є психологічні переживання: труднощі у спілкуванні з дітьми, керівником на роботі, є проблеми з невпевненістю, сором’язливістю, тоді штучний інтелект може допомогти порадами: він може розповісти, як це пропрацювати чи як подолати свій страх. При правильному запиті поради можуть бути якісні", – пояснює лікар.
Крім цього, на думку Євгена Скрипника, ШІ не зможе завдати шкоди людям з тривожним розладом. Адже алгоритм зазвичай "заточений" на те, щоб підтримувати і підбадьорювати, а не посилювати чужу тривогу.
"У гіршому випадку штучний інтелект вам може просто не допомогти. А нашкодити навряд чи зможе", – каже він.
Проблема тут криється в тому, що не завжди людина розуміє, чи є у неї певне психічне захворювання, наприклад, депресія. Через це існує ризик, що розмови з чатом GPT замість лікування з психотерапевтом можуть поглибити проблему. Тому все-таки Євген Скрипник радить звертатись до спеціалістів.
"Я наголошую: психотерапія в лікаря-психотерапевта або психолога, який має відповідну освіту, – набагато ефективніша.
Але якщо людина, припустимо, з тривожним розладом, без інших важких психологічних хвороб, не має коштів, не може наразі звернутись за допомогою, то штучний інтелект хоча б трохи може допомогти покращити стан. Це краще, ніж нічого", – переконаний він.
Необхідно правильно сформулювати запит, каже Євген Скрипник.
Він радить обов’язково додавати до запиту слово "доказовий". Наприклад, якщо ви шукаєте методи лікування тривожного розладу, вкажіть, що вони обов’язково повинні бути доказовими – тобто, підтверджені рецензованими дослідженнями.
"Так штучний інтелект шукатиме доказові дослідження, посилатиметься на перевірені дані, а не просто братиме інформацію, умовно, написану на паркані", – каже він.
Обов’язково запитуйте його, з яких джерел він збирає інформацію. Якщо він пропонує неавторитетні видання чи сайти, не варто довіряти прочитаному.
У запиті до ШІ дайте максимум інформації, яка може бути релевантною для пошуку відповіді. Намагайтесь бути неупередженими та не використовуйте ШІ, щоб підтвердити власні теорії, бо він схильний "підтакувати".
"Якщо людина просто запитає: "Я думаю, що мені варто розлучитись", ШІ може погодитись з вами.
Водночас якщо ви йому напишете: "Я подумала, все-таки ні, розлучатись не будемо, бо я люблю свого чоловіка", штучний інтелект відповість, що думає так само. Тому не намагайтесь підштовхувати алгоритм до відповіді, яку ви хочете почути", – радить лікар.
Також пам’ятайте, що ШІ може помилятися. Не покладайтесь на нього стовідсотково і самі шукайте інформацію, яка вас цікавить.
Штучний інтелект – це просто один з інструментів, який не повинен замінити критичне мислення та вміння аналізувати.
Євген Скрипник переконаний: для штучного інтелекту проривом стане можливість зчитувати людські емоції.
Якщо він навчиться це робити, "психотерапевтів Гаррі" однозначно стане більше.
"Наприклад, ми робитимемо фотографію або спілкуватимемось з ШІ по відеозв'язку, а алгоритм аналізуватиме, куди ви дивитесь, як посміхаєтесь чи опускаєте кутики губ. Він використовуватиме цю інформацію для постановки діагнозу", – вважає Євген Скрипник.
Спеціаліст переконаний – за наступні років 10-20 подібні технології точно з’являться. Проте, на його думку, штучний інтелект не "виживе" людей із професії.
"Людині потрібна людина", – підсумовує психіатр.