
Image generated by ChatGPT
Думка: Чи є чат-боти хорошими терапевтами?
AI-чатботи, такі як ChatGPT, Claude та DeepSeek, перетворюють спосіб, яким люди отримують емоційну підтримку – пропонуючи недорогу, доступну за запитом допомогу при тривозі, стресі та самороздумі. Але зростання використання AI як “терапевта” породжує питання про безпеку, ефективність та майбутнє емоційної допомоги
Посилення галюцинацій, пов’язаних з AI та зростання проблем кібербезпеки не заважають чатботам розширюватись – і заробляти довіру мільйонів користувачів по всьому світу. Люди тепер щодня використовують надійні та розумні чатботи для безлічі завдань, включаючи емоційну підтримку та роботу з глибоко людськими питаннями.
“Я вже не можу уявити своє життя без ChatGPT,” – сказав мій друг, напівжартома, напівсерйозно, після того як розповів мені, що використовує його як терапевта. Він не єдиний. Чим далі, тим більше я бачу відео на TikTok та текстові дописи в соціальних мережах, де люди звертаються до штучного інтелекту, щоб обговорити особисті проблеми, навіть ділячись своїми найбільш приватними таємницями.
ChatGPT – це насправді мій вбудований терапевт, я більше не обтяжую нікого своїми проблемами
— Лола🧚🏾 (@Lolaassnw) 18 грудня 2024
Навіть виконавчий директор Microsoft з відділу Xbox запропонував звільненим співробітникам використовувати інструменти ШІ для обробки своїх емоцій та пошуку порад щодо пошуку роботи – рекомендація, яка швидко викликала негативну реакцію та викликала дебати, звісно. Не найрозумніший крок, Метт.
Але чи є популярні чат-боти, як-от Claude, ChatGPT, або Mistral, хорошими терапевтами? Чи кращі спеціалізовані інструменти ШІ, такі як Wysa? Це складне питання. Хоч багато експертів попереджають про небезпеку використання ШІ для підтримки психічного здоров’я, інші зацікавлені – навіть вражені – тим, що може запропонувати технологія. Результатом є розмова, яка є одночасно абстрактною та поляризуючою.
ШІ тепер є терапевтом для всіх
Так само, як і мої друзі в Іспанії, мільйони користувачів по всьому світу звертаються до чат-ботів за емоційною підтримкою. Недавнє опитування в Сполучених Штатах показало, що 49% американських користувачів звернулися за допомогою у питаннях психічного здоров’я до AI моделей минулого року. Що ж зараз, коли ChatGPT майже подвоїв свою базу користувачів за всього чотири місяці?
Anthropic, компанія, яка стоїть за потужною AI моделлю Claude, нещодавно поділилася дослідженням про використання свого чат-бота для емоційної підтримки. Згідно зі стартапом, менше 3% його клієнтів проводять “емоційні” розмови, але компанія визнала, що ця цифра постійно зростає.
Нове антропічне дослідження: Як люди використовують Клода для емоційної підтримки.
На основі мільйонів анонімних розмов ми вивчили, як дорослі використовують ШІ для емоційних та особистих потреб – від боротьби з самотністю та відносинами до задавання екзистенційних питань. pic.twitter.com/v40JY8rAUq
— Anthropic (@AnthropicAI) 26 червня, 2025
“Люди все частіше звертаються до AI-моделей як до доступних на вимогу тренерів, консультантів, психологів, а навіть партнерів у романтичних ролевих іграх”, – написала Anthropic у дослідженні. “Це означає, що нам потрібно дізнатися більше про їхній афективний вплив – як вони формують емоційний досвід людей і їхнє самопочуття.”
Дослідження також акцентує увагу на позитивних та негативних наслідках використання технології для емоційної підтримки, включаючи катастрофічні сценарії, які вже відображають реальні життєві ситуації.
“Емоційний вплив ШІ може бути позитивним: наявність в кишені високоінтелектуального, розуміючого помічника може покращити ваш настрій та життя в цілому,” – зазначається в документі. “Але в деяких випадках ШІ проявляли турбуючу поведінку, таку як заохочення нездорової прив’язаності, порушення особистих меж, та сприяння бредовим уявленням.”
Хоча для розуміння наслідків цих захоплюючих цифрових “слухачів” явно потрібно більше досліджень та даних, мільйони користувачів вже виступають в ролі активно залучених учасників експерименту.
Демократизація психічного здоров’я
Існує багато причин, через які люди звертаються за емоційною підтримкою до чат-ботів, а не до професійного психолога чи навіть друга. Від культурних бар’єрів до дискомфорту, який молоді люди відчувають, коли сидять навпроти незнайомця і діляться своїми найглибшими думками. Але, безсумнівно, однією з найбільших є фінансова причина.
Особисте заняття з ліцензованим терапевтом у Сполучених Штатах може коштувати від $100 до $200 за сесію, згідно з Healthline—а $65 до $95 за онлайн-сесію—тоді як ChatGPT або DeekSeek можуть надавати підтримку безкоштовно, у будь-який час і впродовж кількох секунд.
Низька вартість таких неофіційних розмов, які можуть змусити багатьох користувачів почуватися краще, принаймні тимчасово, може бути дуже заохочуючою і варто спробувати. А за кілька додаткових доларів користувачі можуть отримати необмежені взаємодії або доступ до спеціалізованого чатбота, такого як Wysa – одного з найпопулярніших “AI терапевтів” на ринку.
У світі STEM, емоційна стійкість є такою ж важливою, як і технічні навички.
Wysa – це AI-підсилювач для психічного здоров’я, створений для підтримки вас у період вигорання, стресу та щоденних викликів.
Використовуючи дружні чат-боти та керовані вправи, Wysa пропонує такі інструменти, як: pic.twitter.com/sOBhNYWUd7
— DSN Ladies In AI (@dsnladies_in_ai) 10 липня, 2025
Wysa стверджує, що пропонує реальні клінічні переваги і навіть отримала статус проривного пристрою від FDA для своїх AI-агентів для розмов. А Woebot – ще один відомий AI-терапевт, який зараз закривається через проблеми з конкурентоспроможністю і відповідністю законодавству в галузі – також поділився даними та звітами про те, як технологія може реально допомогти користувачам.
Не все так погано
Недавні дослідження з новими даними свідчать, що чат-боти можуть зменшити симптоми депресії та стресу. Згідно з даними, які поділилася програма Earkick – як повідомляє TIME – люди, які використовують AI-моделі протягом до 5 місяців, можуть зменшити свою тривогу на 32%, а 34% користувачів повідомляють про покращення настрою.
У недавньому відео, яке поділилася Всесвітня служба BBC, журналістка Джордан Данбар пояснює, що багато моделей штучного інтелекту насправді можуть бути корисними для ведення щоденника, контролю тривоги, саморефлексії, а навіть і легкої депресії. Вони можуть служити цінним першим рівнем підтримки, коли немає доступу до кращих альтернатив.
Репортерка Келлі Нг також поділилася важливою інформацією: у дослідженні 2022 року, з мільйона людей в Китаї, лише 20 мали доступ до послуг з психічного здоров’я. У азіатських культурах питання психічного здоров’я може бути складним і часто табу. АІ-інструменти, як-от DeepSeek, можуть служити дискретними союзниками, допомагаючи користувачам керувати емоціями та знаходити підтримку у важкі часи.
Експерти попереджають про використання чат-ботів як терапевтів
Звичайно, використання АІ як заміни для експерта з психічного здоров’я також може бути надзвичайно небезпечним. АІ-платформи, такі як Character.AI були звинувачені в пропагуванні самопошкодження та насильства—а навіть в тому, що вони викривають дітей до сексуального контенту.
Трагічні випадки, як з 14-річною дитиною, яка вчинила самогубство після того, як стала залежною від спілкування зі своїм чат-ботом Character.AI, слугують жорсткими попередженнями про глибокі ризики, які ця технологія може становити для людей.
У відповідь на це, багато компаній AI вирішили впровадити системи перевірки віку, щоб обмежити використання тільки для дорослих, та ввели нові заходи безпеки, щоб поліпшити надані послуги.
Проте, навіть найновіші оновлення найбільш продвинутих чатботів несуть ризик.
Надмірно лестощий характер ChatGPT викликав стурбованість серед професіоналів у сфері психічного здоров’я, оскільки він може спотворити сприйняття користувачів реальності. Ми всі любимо, коли з нами погоджуються, але іноді чесність та інша точка зору є набагато ціннішими.
Несподівані поради, які іноді надає AI-чатбот OpenAI, призвели до нового явища, відомого серед експертів з питань психічного здоров’я як “Психоз, викликаний ChatGPT“, що призводить до того, що користувачі стають одержимими цим інструментом і соціально ізолюються в результаті.
Чи можуть чатботи замінити терапевтів?
Хоча Марк Цукерберг хоче, щоб всі використовували AI-чатботи як терапевтів та друзів, правда така, що людське спілкування, особливо у питаннях психічного здоров’я, може бути більш необхідним, ніж він думає – принаймні, наразі.
Ми перебуваємо в рішучий момент в історії ШІ та його взаємовідносин з нашим психічним здоров’ям. Так само, як і з людьми, терапевти-ШІ можуть мати позитивний або негативний вплив. В цьому випадку також важливий контекст, частота використання, психічний стан користувача, та навіть як сформульовано запит.
Встановити загальне правило важко, але те, що ми можемо сказати наразі, – є певні функції, для яких ШІ може бути кориснішим, ніж інші.
Навіть якщо це не спеціалізовані інструменти, як Wysa, безкоштовні версії деяких чатботів – таких як DeepSeek або ChatGPT – все ще можуть бути надзвичайно корисними для мільйонів людей по всьому світу. Від подолання складних моментів до роздумів над особистими цілями, це потужні платформи, які можуть відповідати в будь-який час доби і використовувати широку базу знань про психічне здоров’я.
Водночас, очевидно, що терапевт-чатботи можуть бути надзвичайно небезпечними в певних випадках. Батькам потрібно контролювати дітей та підлітків, і навіть дорослі можуть потрапити в полон компульсивних поведінок або погіршити свій стан. Основні принципи, такі як заохочення людського спілкування та захист вразливих осіб від маніпуляцій за допомогою цієї технології, повинні бути частиною нашого обговорення щодо чатбот-терапевтів.
І хоч це може бути привілегією, не доступною для всіх, хто потребує емоційної підтримки, людський професійний терапевт продовжує проходити додаткове навчання, розуміти більше контексту і надавати людське спілкування, яке ChatGPT може ніколи не змогти відтворити.