Коротко
Чоловік отримав пораду від ChatGPT щодо заміни хлориду на натрій бромід, не усвідомлюючи його токсичності. Вживання призвело до серйозних психіатричних проблем та госпіталізації. Цей випадок слугує попередженням про необхідність перевірки інформації, отриманої від ШІ, у фахівців.
Пацієнт потрапив до лікарні з підозрою, що його отруїв сусід. Попри відносно нормальні показники аналізів, він поводився збуджено й параноїдально, відмовлявся пити воду та страждав на зорові й слухові галюцинації. Згодом у нього стався повноцінний психотичний епізод, через що його госпіталізували до психіатричного відділення.
Медики з’ясували, що протягом трьох місяців чоловік свідомо вживав натрій бромід, придбаний онлайн. Це рішення він прийняв після консультації з ChatGPT, коли шукав, чим можна замінити хлорид у раціоні. ШІ порадив бромід, не попередивши про його токсичність, повідомляє Gizmodo.
Лікарі наголосили, що інцидент демонструє ризики використання ШІ без перевірки даних у фахівців. ChatGPT у тестовій взаємодії підтвердив можливість заміни хлориду на бромід у певних технічних контекстах, але не надав попередження про небезпеку для здоров’я.