Фиксирует доказательная медицина: все больше и больше пользователей обращаются к чат-ботами за разговорной терапией. Опасность в том, что для этого не всегда используются приложения, разработанные в дополнение к психотерапии, и часто с люди выбирают умные машины в качестве альтернативы психологам. Может ли робот дать дельный совет и откуда у него эмпатия? А когда цифровой разговор окажется реально полезным? Редакция Собака.ru поговорила с человеком, применяющим чат-бота, специалистом по нейросетям и доктором психологических наук и разобралась в вопросе.
Как общение с ИИ стало «звонком на "горячую линию"»
«В общении с ним мне было комфортнее, чем с некоторыми психотерапевтами, впрочем у меня бывали весьма неудачные заходы на психотерапию», — так Иван описывает Собака.ru свой опыт использования чат-бота для решения психологических проблем с которыми он сталкивается.
Ивану около 30, он работает в Москве и раньше не имел взаимодействия с ИИ. Однако пару месяцев назад решил попробовать пообщаться с набирающим популярность ботом DeepSeek о том, что происходит в его жизни. «Я задавал конкретные вопросы о психологии и психотерапии, — вспоминает собеседник редакции, — спрашивал: "вот я чувствую такое, чем это может объясняться?"».
«Я проходил экспериментальное психологическое исследование, — продолжает Иван. — Это немного как психологический анализ крови: ты получаешь результат, видишь вроде бы знакомые слова, а понять картину в целом не получается. Ты можешь, конечно, нагуглить отдельные термины, но в итоге можешь найти в интернете такое, что станет совсем грустно. Тогда я взял свое исследование, загрузил в ИИ, и он гораздо понятнее объяснил пул возможных проблем».
При этом собеседник редакции говорит, что не пытался полностью заменить психотерапевта чат-ботом: «для меня это именно дополнение [к терапии], как горячая линия», — объясняет он.
Подводный камень: «машина, которая говорит так, чтобы нам нравиться»
«Когда DeepSeek разговорится, когда ты дашь ему достаточно контекста, то он довольно эмпатичный», — объясняет Иван редакции Собака.ru. На первый взгляд, это может показаться парадоксальным, как алгоритм может проявлять эмпатию или даже казаться достаточно сочувствующим в таком тонком деле как психотерапия.
Однако для специалистов в области ИИ нет ничего удивительного. «Во время обучения у чат-ботов есть обратная связь от человека в формате лайк/дизлайк, — поясняет Собака.ru Алексей Комиссаров Преподаватель AI Talent Hub Университета ИТМО. — И все эти реакции на ответы, учитываются моделью во время обучения. В итоге у нас получается машина, которая говорит так, чтобы нам нравится, причем нравиться персонально каждому конкретному пользователю».
С одной стороны, продолжает Комиссаров, это приводит к тому, что «более внимательного и поддерживающего психолога, чем ИИ сейчас, наверное, найти невозможно». С другой, в этом свойстве алгоритмов таятся подводные камни. Дело в том, что крупные алгоритмы вроде знаменитых ChatGPT или DeepSeek обучаются на огромном массиве данных: от теорий заговора до последних достижений доказательной психологии и могут одинаково хорошо поддерживать разговор на обе эти темы.
«В итоге, чат человека с эзотерическим восприятием мира будет выглядеть совершенно не так, как чат человека с научной картиной мира, — объясняет Комиссаров. — Машина будет общаться с этими людьми (в том числе на тему психотерапии) совершенно разным образом — так, чтобы понравиться им обоим». Плюс к этому, добавляет эксперт, искусственный интеллект практически не способен критиковать пользователя, что также сужает его возможности к психотерапии.
Наконец, чтобы получить качественный совет, добавляет Алексей Комиссаров, необходимо иметь представление хотя бы о самых базовых правилах общения с ИИ. «К примеру, если попросить ChatGPT или DeepSeek совета о том, как наладить отношения с женой, и не дать больше никакой информации, то ответ будет максимально общим и касаться будет вообще отношений с какой-то абстрактной женой», — заключает он.
Может ли ИИ давать опасные советы? В теории, такого происходить не должно. Как поясняет Собака.ru Алексей Комиссаров специалист по нейросетям из Университета ИТМО, для этого у всех больших моделей вроде ChatGPT или Gemini от Google есть система Alignment, направленная на то, чтобы чат-бот не давал пользователю советов по совершению преступлений или причинении вреда самому себе.
Однако, отмечает собеседник редакции, далеко не у всех моделей Alignment работает одинаково хорошо: «к примеру в большинстве китайских моделей очень слабый Alignment», — констатирует он. Кроме того, добавляет Комиссаров, остается дискуссионным вопрос, может ли модель, стараясь понравиться пользователю, случайно усугубить его депрессивное состояние. «Вероятно, ни у кого нет точного ответа, честно говоря, то, что я знаю о моделях, не противоречит тому, что при определенных условиях ИИ может поддержать тебя в твоих самых темных и мрачных мыслях и начинаниях», — заключает эксперт.
Почему ИИ привлекательнее? С психологом плачешь, а с ним — нет
Между мыслью «наверно мне нужно сходить к психологу» и реальной записью на консультацию к специалисту иногда проходят годы. Но сейчас многие считают, что разобраться с психологическими проблемами можно и самостоятельно, обратившись за помощью к искусственному интеллекту.
Почему люди выбирают ИИ? Редакция попросила объяснить Викторию Ефимову, психофизиолога, доктора психологических наук, руководителя клиники «Прогноз», профессора кафедры возрастной психологии и педагогики семьи РГПУ им. А.И.Герцена.
- Никуда не надо идти. ИИ всегда под рукой, в любое время дня и ночи. Иногда человек, казалось бы, уже принял решение пойти на консультацию к живому психологу, но оказывается, что нужно ждать неделю, а то и больше. Энтузиазм за время ожидания пропадает. А с ИИ можно начать беседу в любой момент. Более того, закончить беседу можно тоже в любой момент, а с живым человеком не всегда получится так сделать.
- Это бесплатно. На живого психолога нужно найти не только время, но и деньги. Причем не вполне ясно, как объективно оценить связь между стоимостью консультации и ожидаемой эффективностью психологической помощи. Тем более, что одной консультацией обычно дело не обходится.
- Никто не узнает о твоих психологических проблемах. Конечно, предполагается, что психолог никому не расскажет о том, что происходит на консультации — это профессиональная этика. А вдруг попадется какой-то недобросовестный психолог? ИИ точно никому не расскажет.
- Можно быстро получить совет. Многие люди, обращаясь к психологу, ожидают, что им дадут четкую инструкцию: как необходимо поступить в той или иной ситуации. А психолог вместо этого начинает задавать бесконечные вопросы. Процесс получается долгим, сложным и энергозатратным. А ИИ ты можешь просто написать: дай мне совет.
- Можно не бояться, что это будет слишком эмоциональный опыт. Есть такой мем: «лучше плакать у психолога, чем смеяться у психиатра». Глубокая работа с психологом, действительно, всегда может затрагивать эмоции. Это не всегда легкий опыт. Напротив, ИИ использует исключительно рациональный, логический анализ ситуации.
Но все-таки именно «хороший психолог [не робот!] слышит тебя»
Популярность ИИ-психотерапии набирает обороты, о ней пишут ведущие СМИ. В научных же изданиях, таких как Nature, появляются статьи, по использованию искусственного интеллекта.
Впрочем, пока далеко не все пользователи ИИ сами уверены в том, что чат-боты могут заменить живого психотерапевта. «На основе личного опыта, мне кажется, DeepSeak может частично заменить разговорную терапию, но вот в КПТ (когнитивно-поведенческая терапия, — прим. Собака.ru) он не может быть таким же эффективным как человек, хотя может подсказать какую-то конкретную технику», — констатирует в беседе с Собака.ru Иван.
«Тут надо понимать, что если психолог хороший, то он слышит тебя. Ты приходишь к нему с одним запросом, а он, если, конечно, хороший специалист, может выявить у тебя совсем другие проблемы. Скажем, ты говоришь о проблемах со сном, а он поймет, что у тебя депрессия. DeepSeak, наверное, вряд ли на такое способен», — заключает Иван.
Чем принципиально отличается консультация психолога от советов ИИ?
Прежде всего тем, что психолог вообще не будет вам давать никаких конкретных советов, как уточнила психофизиолог, доктор психологических наук Виктория Ефимова. Задача психолога состоит в том, чтобы помочь человеку найти ответы, которые, уже где-то глубоко у него есть. Поэтому специалист в основном задает вопросы и внимательно слушает ваши ответы.
Чего еще не может дать ИИ?
- Живой психолог анализирует и интерпретирует не только ваши слова, но и невербальные сигналы: мимику, интонации, темп и громкость речи, позу, движения, цвет лица. Эта информация составляет не менее 80% в человеческой коммуникации. У ИИ нет эмоционального интеллекта (во всяком случае на сегодняшний день).
- У психолога есть профессиональное образование, он выбирает и использует определенные техники, кроме этого, психолог использует свой опыт, а в распоряжении ИИ только анализ текстовых данных. Своего опыта у ИИ нет. Невозможен и индивидуальный подход к выбору методов помощи.
- Психолог помогает человеку найти ответы на свои вопросы, используя не только логику, но и работу с эмоциями и подсознанием. ИИ может обратиться только к вашей логике.
- ИИ не несет никакой ответственности за то, к чему приведут его советы.
- В некоторых случаях кроме встреч с психологом или психотерапевтом необходимо назначение препаратов. ИИ не сможет выписать вам рецепт.
- Известно, что сейчас необходимость социального взаимодействия в реальном мире вызывает чувство тревоги у многих людей. Это одна из причин, по которой многие не идут к психологу.
Виктория Ефимова отмечает: если вам срочно хочется что-то обсудить, а не с кем — ИИ может стать подходящим собеседником. Но не стоит обращаться к ИИ в острых ситуациях: суицидальные мысли, депрессия, другие тяжелые расстройства. Здесь нужен настоящий опытный психотерапевт, который будет вас сопровождать, поддерживать и интересоваться изменениями в вашем состоянии.
Текст: Константин Крылов, Дарья Скаянская
Редакция напоминает, что материал (и искусственный интеллект!) не может использоваться для самодиагностики, а медицинские услуги имеют противопоказания. Необходима консультация специалиста.
Бонус! А что думает сам искусственный интеллект?
Спойлер: «ИИ создаст эффект присутствия, но не заменит человеческое понимание и эмоциональную связь».
Комментарии (0)