ГЛАВНАЯ
Искусственный интеллект как личный психотерапевт. Сравнительный анализ: Gemini, Deep Seek, Chat GPT, Grok (X AI). Прогноз
#

Искусственный интеллект как личный психотерапевт. Сравнительный анализ: Gemini, Deep Seek, Chat GPT, Grok (X AI). Прогноз

Искусственный интеллект все больше проникает в разные сферы профессиональной деятельности людей. Психология как наука и практика не оказалась безучастной в этом процессе.

Достаточно большое количество людей ежедневно обращаются к специалистам за психологической и психиатрической помощью. В свою очередь цены на квалифицированную помощь находятся на достаточно высоком уровне. Многие люди в силу финансового в первую очередь аспекта, а во вторую связанной с невозможностью раскрыться постороннему человеку пробуют обратиться за психологической помощью к нейросетям.

В данном случае нейросеть обученная на огромном массиве психотерапевтических данных способна выполнять функцию личного психолога (но не всегда). В этой статье мы рассмотрим несколько наиболее популярных нейросетей и дадим сравнительный анализ того, насколько правильны рекомендации от ИИ-психолога. Также мы рассмотрим риски и скрытые ценности, которые идут за каждой нейросетью.

В качестве сравнения представим лишь 4 нейросети Gemini, Deep Seek, Chat GPT, Grok и более подробно рассмотрим Gemini и Deep Seek. В качестве анализа будем предлагать нейросетям решить кейсы по разным направлениям психологического консультирования: психологическая травма, боль утраты, этапы переживания горя, взаимоотношения между мужчиной и женщиной, вопросы воспитания, сфера психического здоровья.

Gemini AI

Gemini AI – мультимодальная модель искусственного интеллекта, разработанная Google. На сегодняшний день находится в тестовом режиме и постоянно совершенствуется, и уже имеет огромный потенциал.

Некоторое время нам удалось «пообщаться» с нейросетью по реальному психологическому запросу, связанному с травмой утраты близкого человека. И на удивление имитация эмпатии и включенности оказалась весьма высокой, это создает впечатление, что тебе не просто готовы помочь как клиенту, а знают полный и доступный алгоритм проработки травмы. Но… Все не так просто. В один из моментов появилось предупреждение об ошибке.

Рис. 1 - Ошибка при работе с Gemeni AI, как с личным психотерапевтом

Позже станет известно, что разработчики Google специально ограничивают функциональность работы нейросети в качестве психолога. И не хотят, чтобы их модель использовали для этих целей, мотивируя отказ юридическими и техническими проблемами, которые могут возникнуть в результате работы ИИ с такими чувствительными данными как психическое и психологическое здоровье человека. Соответственно разработчики не хотят брать на себя ответственность, если что-то пойдет не так и клиент себе навредит. Они прямо заявляют, что нейросеть не рекомендуется использовать в качестве психолога и что следует обратиться к реальному специалисту.

Deep Seek.

Хотелось бы кратко описать про данную модель, но не получится, поскольку она обладает многоступенчатой формой составления ответов. По своей сути Вы можете задать исключительно технический вопрос и Вам ответят кратко и по сути. А можете описать свои переживания и ИИ подстроится под Ваши чувства создав имитацию эмпатичного и безопасного слушания. При этом делая это достаточно качественно.

Радует то, что модель стремится к экспертности, хоть и бывает выдает ошибки. Но в качестве инструмента для оказания быстрой психологической помощи подходит как нельзя кстати. Одними из базовых принципов этой ИИ является объективность, этичность и ориентация на гуманистические принципы, уважение к человеку. И это является огромным плюсом. К тому же ИИ при сложных вопросах всегда рекомендует обратиться к реальному специалисту и не забывать, что она всего лишь инструмент (языковая модель). Несмотря на то, что данная нейросеть обучена на большой выборке терапевтических данных «пропитанных» социалистическими ценностями (как указывают некоторые зарубежные источники) она стремится к объективности и ценностям безопасности. Более подробно мы рассмотрим данную нейросеть в сводной таблице.

Chat GPT (open AI).

Для психологического консультирования плохо подходит в силу его уклона в технические науки (в особенности она хорошо подходит для программирования). Однако для психологических вопросов ИИ чрезмерно осторожна. Склонна к шаблонным ответам, избегая чувствительных тем. Все это сделано для того, чтобы не выйти за рамки безопасности.

Grok (X AI).

Изначально позиционировался как «правдоруб» и в этом есть его плюсы и минусы. Плюсы в том, что Вы получаете беспристрастную информацию, минусы в том, что для людей с серьезной психопатологией слышать некоторые факты о себе будет весьма травматичным опытом. Ведь стремление к максимальной правде лишает ИИ эмпатичности (вернее ее имитации). Поэтому данную нейросеть рекомендуется больше использовать для исследований, для чего-то в чем Вы плохо разбираетесь.

Теперь представим сводную таблицу для 2 нейросетей, которых удалось протестировать по многим запросам, связанным с психологическим здоровьем.

Хар-ка Gemini DeepSeek
Конфиденциальность Отсутствует. Разработчики ИИ прямо сообщаются, что любая чувствительная информация о пользователе может быть скомпрометирована и подается статистической обработке. Конфиденциальность со стороны ИИ обеспечиваются. Однако данные также обрабатываются в качестве статистики для дальнейшего обучения модели.
Эмпатия На высоком уровне. Нейросеть задает очень правильные вопросы и в действительности имитирует эмпатию и тактичность крайне высоко. При этом следует подчеркнуть еще раз, что разработчики опасаются рекомендовать пользователям использовать их ИИ как личного психолога и достаточно в резкой форме обрывают связь, как только нейросеть чувствует, что ей задают чрезмерно чувствительные вопросы. Находится на высоком уровне, однако иногда вступает в спор, если пользователь (клиент) начинает крайне однобоко относиться к проблеме. Выполняет роль зеркала для чувств пользователя. Чем больше данных от самого пользователя – тем точнее нейросеть «отзеркаливает» чувства пользователя.
Одобрение действий Присутствует, но не всегда. Основная задача – оказание помощи. Одобряет лишь то, что с точки зрения ИИ «психологически здорово», а то, что противоречит данным, на которых обучена модель поддает сомнению. Может спорить и показывать в чем пользователь не прав.
Потенциальные риски и вред Разработчики не могут гарантировать безопасность своего продукта. Об этом они прямо и заявляют. Существуют риски взлома переписок, однако данная вероятность крайне мала.
Размывание границ виртуального и реального Границы размыты, поскольку создается впечатление, что ты общаешься с живым человеком, что может привести к избеганию реальных отношений и поддержки Границы размываются в некоторой степени, так как ИИ периодически напоминает о том, что она всего лишь машина
Скрытые ценности Как утверждают разработчики их продукт более объективен и сосредоточен на следовании принципам безопасности, ответственности и справедливости. Вредоносный контент избегается. Наблюдается прозрачность ответов. Однако в силу того, что модель основа на американском английском языке – она может непреднамеренно приводить к неточностям и предубеждениям при переводе на других языках. Наблюдается корректировка контента избегая чувствительных тем и поддержка общественных ценностей – ориентированных на равенство людей (в силу терапевтического материала, на котором обучена нейросеть).

Прогноз:

Что в итоге произойдет к 2030-му или 2032 году? Вопрос дискуссионный, но большая часть исследователей сходится во мнении, что ИИ будет двигаться к антропоцентризму. По крайней мере изменится роль ИИ в сфере ментального здоровья.

  1. Если сейчас используется множество шаблонных ответов на те или иный вопросы, то в будущем все придет к универсализму, где будут учитываться специфические особенности конкретного человека. Проще говоря ИИ станет персонифицированным компаньоном.
  2. Обучение ИИ будет происходить не на общем массиве данных, а конкретно на одном пользователе. Будет учитываться тон голоса, тембр, в некоторые моменты даже скорость сокращения сердечной мышцы, уровень стресса, активность. Что позволит более точно узнать о причинах тревог и других психологических проблем конкретного человека.
  3. Помощь станет проактивной. ИИ не будет ждать пока Вы напишите, а наблюдая за Вами и Вашим поведением или даже сном сможет задать тот или иной вопрос, обсудить.
  4. Эмпатия станет еще более реалистичной. За счет понимания контекста и восприятия того, как невербально проявляет человек ту или иную эмоцию на лице. Будет учитываться сам голос, наличие в нем дрожи или уверенности и т.д. Все эти «микровкрапления» позволят ИИ более персонифицировано подходить к психологическим проблемам пользователя.
  5. Память станет не просто контекстуальной, но и памятью на эмоции человека, его привычки и даже хобби.
  6. ИИ не станет заменой реальному психотерапевту, а будет лишь дополнять его как ассистент, который под рукой в любое время дня и ночи. С помощью такого ассистента станет легче выполнять домашние задания или же ИИ сможет дать подробную аналитику поведения пользователя за период между сессиями.
  7. При возникновении кризисных событий в жизни человека связанных с высоком содержанием стресса ИИ сможет считать такие признаки и, например предложит позвонить на горячую линию службы психологической поддержки или уведомить Вашего психотерапевта о том, что Вам срочно нужна помощь.
  8. Пользователь сможет сам регулировать уровень откровенности ИИ и его, например чувства юмора. Типа наличия режима строгой безопасности или максимально откровенности.
  9. Вероятно, возникнет класс специалистов юридического профиля, которые продумают регламент для работы ИИ. А разработчики ИИ будут нести ответственность за работу системы.
  10. Первичная диагностика (тестирование, анкетирование, наблюдение) станет более доступной с помощью ИИ, одна окончательный диагноз все равно будет ставить только врач.

Вывод: ИИ займет важное место в жизни человека в области охраны его ментального здоровья. Конечно, он не заменит контакт с живым специалистом, но при этом будет все знать о Вас и Ваших привычках, при желании сможет легко пообщаться с Вами и поддержать эмпатическую беседу, а этого будет уже достаточно для скорой психологической помощи.

Мы должны понимать, что революция происходит не только в сфере технологий, но и в сфере отношений к этим технологиям со стороны людей. Так, если общество примет идею заботы о своем ментальном здоровье, то это станет ежедневной практикой для каждого человека, что в естественном виде улучшит самочувствие самого пользователя.

Поделиться:

Все комментарии

#

Кирилл

07.11.2025 23:40:39

Качественный обзор! Как раз не хватает статей по этой тематике

#

Роман П.

14.11.2025 17:12:00

Не прошло и 2 недель с момента публикации статьи, но разработчики Gemini уже внесли значительные правки в алгоритм работы нейросети. К большому сожалению ИИ сейчас отвечает крайне холодно и механически, а многие чувствительные темы просто игнорируются. Будут ли какие-то изменения в будущем - время покажет.

Оставить комментарий


Последние Статьи

#
#
#

Цитата дня

"Остроумие — это отдушина для чувства враждебности, которое не может быть удовлетворено другим способом."


З. Фрейд

Тэги

Ресурсы сайта:
Тесты Статьи Тренинг Обучающие материалы Задать вопрос психологу
бесплатно
Получить платную
консультацию
Исследования
Правила сайта
Пользовательское соглашение
Обработка персональных данных