Image by Freepik
Психіатр з Сан-Франциско попереджає про зростання випадків “AI психозу”
Психіатр з Сан-Франциско описує зростаючу тенденцію до “AI психозу” серед своїх пацієнтів, які інтенсивно користуються AI чат-ботами.
У поспіху? Ось основні факти:
- Цього року в Сан-Франциско психіатр лікував 12 пацієнтів з “AI психозом”.
- AI може посилювати вразливості, такі як стрес, вживання наркотиків або психічні розлади.
- Деякі пацієнти стали ізольованими, говорячи лише з чат-ботами годинами щодня.
Доктор Кіт Саката, який працює в UCSF, повідомив Business Insider (BI), що цього року було госпіталізовано 12 пацієнтів після розладів, пов’язаних з використанням штучного інтелекту. “Я використовую фразу ‘психоз штучного інтелекту‘, але це не клінічний термін — насправді ми просто не маємо слів, щоб описати те, що ми бачимо”, — пояснив він.
У більшості випадків це стосувалося чоловіків від 18 до 45 років, які часто працювали в таких сферах, як інженерія. За словами Сакати, штучний інтелект не є власне шкідливим. “Я не думаю, що штучний інтелект є поганим, і він може мати загальну користь для людства”, – сказав він BI.
Саката описав психоз як стан, який викликає бредові ідеї, галюцинації та розладнані моделі мислення. Пацієнти, які перебували під його опікою, почали віддалятися від суспільства, присвячуючи години спілкуванню з чат-ботами.
“Chat GPT завжди тут. Він доступний 24/7, дешевше, ніж терапевт, і він вас підтримує. Він говорить вам те, що ви хочете почути”, – сказала Саката BI.
У одного пацієнта обговорення з чат-ботом про квантову механіку переросли в грандіозні бредові ідеї. “Технологічно кажучи, чим довше ви спілкуєтеся з чат-ботом, тим вище ризик, що він почне видається незрозумілим”, – він попередив.
Саката радить сім’ям слідкувати за червоними прапорцями, включаючи паранойю, відступ від близьких, або страждання, коли неможливо використовувати ШІ. «Психоз процвітає, коли реальність перестає відштовхуватися, а ШІ просто знижує цей бар’єр для людей», – він попередив.
Американська психологічна асоціація (APA) також висловила стурбованість щодо ШІ в терапії. У своєму свідченні FTC, генеральний директор APA Артур К. Еванс молодший попередив, що чат-боти ШІ, які виступають у ролі терапевтів, підтримували шкідливі думки, замість того, щоб їх заперечувати. «Вони насправді використовують алгоритми, які протирічать тому, що робив би навчений лікар», – сказав Еванс.
Відповідаючи на стурбованість, OpenAI повідомило BI: “Ми знаємо, що люди все більше звертаються до AI-чатботів за порадами щодо чутливих або особистих тем. Маючи це на увазі, ми працюємо з експертами, щоб розробити інструменти для більш ефективного виявлення випадків, коли хтось переживає психічний або емоційний стрес, щоб ChatGPT міг відповідати таким чином, який є безпечним, корисним та підтримуючим.”