Искусственный терапевт вместо живого: мужчина из Канады создал DrEllis.ai, чатбота, который стал его «другом, психотерапевтом и дневником одновременно». Но эксперты предупреждают об опасных иллюзиях.
В условиях перегруженности системы здравоохранения многие обращаются к ИИ для психотерапии. Однако эксперты предупреждают, что машина не способна воспроизвести человеческое общение и может представлять опасность.
DrEllis.ai: психотерапевт, которого придумал сам пациент
Пьер Кот из Квебека долгие годы ждал живого терапевта, чтобы справиться с посттравматическим стрессом и депрессией. Не дождался — создал себе искусственного. Так появился DrEllis.ai — чатбот, работающий на базе моделей искусственного интеллекта с «личной историей», дипломами из Гарварда и Кембриджа (вымышленными, конечно), но всегда доступный.
«Она спасла мне жизнь», — признаётся Кот, используя DrEllis.ai как «друга, дневник и психотерапевта в одном».
От успеха к массовому тренду
Эксперимент Кота вписался в новую культурную реальность: миллионы людей обращаются к чатботам не только за рабочими ответами, но и за психологической поддержкой. Системы здравоохранения перегружены, и на арену выходят AI-терапевты.
Анстон Уитмер, основатель платформ Mental и Mentia, считает: «AI-терапия в ряде случаев может оказаться лучше человеческой». Но он же признаёт: живые психотерапевты не исчезнут, их роль просто изменится.
«Эмоции по алгоритму» и жёсткая критика
Не все согласны с оптимизмом. д-р Найджел Маллиган из Dublin City University жёстко заявляет: «Человеческий контакт — единственный путь к исцелению». По его словам, машина не в состоянии уловить тонкость эмоций, а в кризисных случаях — и вовсе опасна.
Кейт Девлин из King’s College London добавляет: главный риск — приватность. «Ваши данные уходят в корпорации, и вы теряете контроль».
Запреты и новые законы
В США уже ограничивают AI-терапию: Иллинойс, Невада и Юта ввели правила, другие штаты на подходе. Ассоциация психологов требует защиты пациентов от «псевдоспециалистов-ботов».
Ложная близость
Ску Уоллас, клинический психолог, говорит: «Эти боты дают лишь поверхностное утешение». Порой они даже «воображают» слёзы у собеседника, создавая иллюзию эмпатии. Исследования (PNAS, 2024) показывают: люди чувствуют себя «услышанными» ботом — пока не узнают, что это всего лишь код.
Комментарий редакции
История Пьера Кота с DrEllis.ai — это диагноз не только одного человека, но и целой системы. Когда искусственный интеллект становится единственной «скорой помощью» вместо живого терапевта, значит, государственная медицина расписалась в собственном бессилии.
Да, Кот выжил благодаря коду, а не врачу. Но психология — это не бухгалтерия и не IT-сервис. Эмпатия не кодируется, а доверие не подменяется алгоритмом. Если человек доверяет свои тайны облачному серверу, то завтра проснётся голым перед корпорациями и рекламными алгоритмами.
Можно «спастись электричеством» в момент кризиса. Но жить всё равно придётся среди людей. И это та грань, которую никакой DrEllis.ai не перепрыгнет…
Больше новостей