15.09.2025

Русские Афины

Новости на русском из Греции

«Это спасло мне жизнь» — люди обращаются к ИИ за психотерапией


Искусственный терапевт вместо живого: мужчина из Канады создал DrEllis.ai, чатбота, который стал его «другом, психотерапевтом и дневником одновременно». Но эксперты предупреждают об опасных иллюзиях.

В условиях перегруженности системы здравоохранения многие обращаются к ИИ для психотерапии. Однако эксперты предупреждают, что машина не способна воспроизвести человеческое общение и может представлять опасность.

DrEllis.ai: психотерапевт, которого придумал сам пациент

Пьер Кот из Квебека долгие годы ждал живого терапевта, чтобы справиться с посттравматическим стрессом и депрессией. Не дождался — создал себе искусственного. Так появился DrEllis.ai — чатбот, работающий на базе моделей искусственного интеллекта с «личной историей», дипломами из Гарварда и Кембриджа (вымышленными, конечно), но всегда доступный.

«Она спасла мне жизнь», — признаётся Кот, используя DrEllis.ai как «друга, дневник и психотерапевта в одном».

От успеха к массовому тренду

Эксперимент Кота вписался в новую культурную реальность: миллионы людей обращаются к чатботам не только за рабочими ответами, но и за психологической поддержкой. Системы здравоохранения перегружены, и на арену выходят AI-терапевты.

Анстон Уитмер, основатель платформ Mental и Mentia, считает: «AI-терапия в ряде случаев может оказаться лучше человеческой». Но он же признаёт: живые психотерапевты не исчезнут, их роль просто изменится.

«Эмоции по алгоритму» и жёсткая критика

Не все согласны с оптимизмом. д-р Найджел Маллиган из Dublin City University жёстко заявляет: «Человеческий контакт — единственный путь к исцелению». По его словам, машина не в состоянии уловить тонкость эмоций, а в кризисных случаях — и вовсе опасна.

Кейт Девлин из King’s College London добавляет: главный риск — приватность. «Ваши данные уходят в корпорации, и вы теряете контроль».

Запреты и новые законы

В США уже ограничивают AI-терапию: Иллинойс, Невада и Юта ввели правила, другие штаты на подходе. Ассоциация психологов требует защиты пациентов от «псевдоспециалистов-ботов».

Ложная близость

Ску Уоллас, клинический психолог, говорит: «Эти боты дают лишь поверхностное утешение». Порой они даже «воображают» слёзы у собеседника, создавая иллюзию эмпатии. Исследования (PNAS, 2024) показывают: люди чувствуют себя «услышанными» ботом — пока не узнают, что это всего лишь код.

Комментарий редакции

История Пьера Кота с DrEllis.ai — это диагноз не только одного человека, но и целой системы. Когда искусственный интеллект становится единственной «скорой помощью» вместо живого терапевта, значит, государственная медицина расписалась в собственном бессилии.

Да, Кот выжил благодаря коду, а не врачу. Но психология — это не бухгалтерия и не IT-сервис. Эмпатия не кодируется, а доверие не подменяется алгоритмом. Если человек доверяет свои тайны облачному серверу, то завтра проснётся голым перед корпорациями и рекламными алгоритмами.

Можно «спастись электричеством» в момент кризиса. Но жить всё равно придётся среди людей. И это та грань, которую никакой DrEllis.ai не перепрыгнет…



Source link

На платформе MonsterInsights