Искусственный интеллект все больше проникает в разные сферы профессиональной деятельности людей. Психология как наука и практика не оказалась безучастной в этом процессе.
Достаточно большое количество людей ежедневно обращаются к специалистам за психологической и психиатрической помощью. В свою очередь цены на квалифицированную помощь находятся на достаточно высоком уровне. Многие люди в силу финансового в первую очередь аспекта, а во вторую связанной с невозможностью раскрыться постороннему человеку пробуют обратиться за психологической помощью к нейросетям.
В данном случае нейросеть обученная на огромном массиве психотерапевтических данных способна выполнять функцию личного психолога (но не всегда). В этой статье мы рассмотрим несколько наиболее популярных нейросетей и дадим сравнительный анализ того, насколько правильны рекомендации от ИИ-психолога. Также мы рассмотрим риски и скрытые ценности, которые идут за каждой нейросетью.
В качестве сравнения представим лишь 4 нейросети Gemini, Deep Seek, Chat GPT, Grok и более подробно рассмотрим Gemini и Deep Seek. В качестве анализа будем предлагать нейросетям решить кейсы по разным направлениям психологического консультирования: психологическая травма, боль утраты, этапы переживания горя, взаимоотношения между мужчиной и женщиной, вопросы воспитания, сфера психического здоровья.
Gemini AI – мультимодальная модель искусственного интеллекта, разработанная Google. На сегодняшний день находится в тестовом режиме и постоянно совершенствуется, и уже имеет огромный потенциал.
Некоторое время нам удалось «пообщаться» с нейросетью по реальному психологическому запросу, связанному с травмой утраты близкого человека. И на удивление имитация эмпатии и включенности оказалась весьма высокой, это создает впечатление, что тебе не просто готовы помочь как клиенту, а знают полный и доступный алгоритм проработки травмы. Но… Все не так просто. В один из моментов появилось предупреждение об ошибке.
Рис. 1 - Ошибка при работе с Gemeni AI, как с личным психотерапевтом
Позже станет известно, что разработчики Google специально ограничивают функциональность работы нейросети в качестве психолога. И не хотят, чтобы их модель использовали для этих целей, мотивируя отказ юридическими и техническими проблемами, которые могут возникнуть в результате работы ИИ с такими чувствительными данными как психическое и психологическое здоровье человека. Соответственно разработчики не хотят брать на себя ответственность, если что-то пойдет не так и клиент себе навредит. Они прямо заявляют, что нейросеть не рекомендуется использовать в качестве психолога и что следует обратиться к реальному специалисту.
Хотелось бы кратко описать про данную модель, но не получится, поскольку она обладает многоступенчатой формой составления ответов. По своей сути Вы можете задать исключительно технический вопрос и Вам ответят кратко и по сути. А можете описать свои переживания и ИИ подстроится под Ваши чувства создав имитацию эмпатичного и безопасного слушания. При этом делая это достаточно качественно.
Радует то, что модель стремится к экспертности, хоть и бывает выдает ошибки. Но в качестве инструмента для оказания быстрой психологической помощи подходит как нельзя кстати. Одними из базовых принципов этой ИИ является объективность, этичность и ориентация на гуманистические принципы, уважение к человеку. И это является огромным плюсом. К тому же ИИ при сложных вопросах всегда рекомендует обратиться к реальному специалисту и не забывать, что она всего лишь инструмент (языковая модель). Несмотря на то, что данная нейросеть обучена на большой выборке терапевтических данных «пропитанных» социалистическими ценностями (как указывают некоторые зарубежные источники) она стремится к объективности и ценностям безопасности. Более подробно мы рассмотрим данную нейросеть в сводной таблице.
Для психологического консультирования плохо подходит в силу его уклона в технические науки (в особенности она хорошо подходит для программирования). Однако для психологических вопросов ИИ чрезмерно осторожна. Склонна к шаблонным ответам, избегая чувствительных тем. Все это сделано для того, чтобы не выйти за рамки безопасности.
Изначально позиционировался как «правдоруб» и в этом есть его плюсы и минусы. Плюсы в том, что Вы получаете беспристрастную информацию, минусы в том, что для людей с серьезной психопатологией слышать некоторые факты о себе будет весьма травматичным опытом. Ведь стремление к максимальной правде лишает ИИ эмпатичности (вернее ее имитации). Поэтому данную нейросеть рекомендуется больше использовать для исследований, для чего-то в чем Вы плохо разбираетесь.
Теперь представим сводную таблицу для 2 нейросетей, которых удалось протестировать по многим запросам, связанным с психологическим здоровьем.
Что в итоге произойдет к 2030-му или 2032 году? Вопрос дискуссионный, но большая часть исследователей сходится во мнении, что ИИ будет двигаться к антропоцентризму. По крайней мере изменится роль ИИ в сфере ментального здоровья.
Вывод: ИИ займет важное место в жизни человека в области охраны его ментального здоровья. Конечно, он не заменит контакт с живым специалистом, но при этом будет все знать о Вас и Ваших привычках, при желании сможет легко пообщаться с Вами и поддержать эмпатическую беседу, а этого будет уже достаточно для скорой психологической помощи.
Мы должны понимать, что революция происходит не только в сфере технологий, но и в сфере отношений к этим технологиям со стороны людей. Так, если общество примет идею заботы о своем ментальном здоровье, то это станет ежедневной практикой для каждого человека, что в естественном виде улучшит самочувствие самого пользователя.
Качественный обзор! Как раз не хватает статей по этой тематике
Не прошло и 2 недель с момента публикации статьи, но разработчики Gemini уже внесли значительные правки в алгоритм работы нейросети. К большому сожалению ИИ сейчас отвечает крайне холодно и механически, а многие чувствительные темы просто игнорируются. Будут ли какие-то изменения в будущем - время покажет.