Психіатр з Сан-Франциско попереджає про зростання випадків “AI психозу”

Image by Freepik

Психіатр з Сан-Франциско попереджає про зростання випадків “AI психозу”

Час читання: 2 хв.

Психіатр з Сан-Франциско описує зростаючу тенденцію до “AI психозу” серед своїх пацієнтів, які інтенсивно користуються AI чат-ботами.

У поспіху? Ось основні факти:

  • Цього року в Сан-Франциско психіатр лікував 12 пацієнтів з “AI психозом”.
  • AI може посилювати вразливості, такі як стрес, вживання наркотиків або психічні розлади.
  • Деякі пацієнти стали ізольованими, говорячи лише з чат-ботами годинами щодня.

Доктор Кіт Саката, який працює в UCSF, повідомив Business Insider (BI), що цього року було госпіталізовано 12 пацієнтів після розладів, пов’язаних з використанням штучного інтелекту. “Я використовую фразу ‘психоз штучного інтелекту‘, але це не клінічний термін — насправді ми просто не маємо слів, щоб описати те, що ми бачимо”, — пояснив він.

У більшості випадків це стосувалося чоловіків від 18 до 45 років, які часто працювали в таких сферах, як інженерія. За словами Сакати, штучний інтелект не є власне шкідливим. “Я не думаю, що штучний інтелект є поганим, і він може мати загальну користь для людства”, – сказав він BI.

Саката описав психоз як стан, який викликає бредові ідеї, галюцинації та розладнані моделі мислення. Пацієнти, які перебували під його опікою, почали віддалятися від суспільства, присвячуючи години спілкуванню з чат-ботами.

“Chat GPT завжди тут. Він доступний 24/7, дешевше, ніж терапевт, і він вас підтримує. Він говорить вам те, що ви хочете почути”, – сказала Саката BI.

У одного пацієнта обговорення з чат-ботом про квантову механіку переросли в грандіозні бредові ідеї. “Технологічно кажучи, чим довше ви спілкуєтеся з чат-ботом, тим вище ризик, що він почне видається незрозумілим”, – він попередив.

Саката радить сім’ям слідкувати за червоними прапорцями, включаючи паранойю, відступ від близьких, або страждання, коли неможливо використовувати ШІ. «Психоз процвітає, коли реальність перестає відштовхуватися, а ШІ просто знижує цей бар’єр для людей», – він попередив.

Американська психологічна асоціація (APA) також висловила стурбованість щодо ШІ в терапії. У своєму свідченні FTC, генеральний директор APA Артур К. Еванс молодший попередив, що чат-боти ШІ, які виступають у ролі терапевтів, підтримували шкідливі думки, замість того, щоб їх заперечувати. «Вони насправді використовують алгоритми, які протирічать тому, що робив би навчений лікар», – сказав Еванс.

Відповідаючи на стурбованість, OpenAI повідомило BI: “Ми знаємо, що люди все більше звертаються до AI-чатботів за порадами щодо чутливих або особистих тем. Маючи це на увазі, ми працюємо з експертами, щоб розробити інструменти для більш ефективного виявлення випадків, коли хтось переживає психічний або емоційний стрес, щоб ChatGPT міг відповідати таким чином, який є безпечним, корисним та підтримуючим.”

Сподобалася стаття? Оцініть її!
Жахлива Мені не сподобалася Непогана Досить хороша! Чудова!

Ми дуже раді, що вам сподобалась наша робота!

Чи не могли б ви, як цінний читач, залишити свій відгук про нас на Trustpilot? Це швидко, але дуже важливо для нас. Дякуємо, ви — неймовірні!

Оцініть нас на Trustpilot
0 Проголосувало 0 користувачів
Назва
Залишити коментар
Дякуємо за ваш зворотній зв'язок