Многим пользователям чат-боты на основе ИИ представляются отличным собеседником. Некоторые даже считают, что они способны выслушать и помочь в решении психологических проблем. Но так ли это?
Сразу уточним: любые медицинские диагнозы могут ставиться только лицензированными специалистами. Просить ChatGPT поставить вам диагноз – ничем не лучше, чем искать свои симптомы в поисковике.
Однако у чат-ботов есть преимущества перед поисковыми машинами – они способны дать вам не разрозненный набор ссылок, а представить организованную информацию. Это может быть очень важно, если вы напуганы своими проблемами или дезориентированы. Четкий и системный ответ нейросети может вам помочь.
Однако не стоит полностью полагаться на искусственный интеллект. Доверять нейросетям свое психологическое здоровье небезопасно.
1. Чат-боты не могут заменить терапию
Помните, что нейросети – это просто языковые модели, обученные на огромной базе данных. Они способны достаточно естественно взаимодействовать с вами или найти для вас информацию о психическом и психологическом здоровье.
Но они не смогут и не имеют права поставить вам диагноз, и общение с чат-ботом не может заменить терапию.
2. Подсказки должны быть максимально конкретными
В отличие от реальных людей, нейросети не могут понимать по вашим подсказкам, что именно вам требуется и не способны задать уточняющие вопросы.
Потому, если вы запросите информацию о каком-то расстройстве или тревожащих вас симптомах, то получите в ответ лишь общие сведения. А для того, чтобы создать максимально конкретную подсказку, вам придется сначала самому понять, что вам требуется. В этом случае вам тоже скорее поможет специалист, а не чат-бот.
3. Ложная информация
Несмотря на все усилия разработчиков, большие языковые модели все еще не способны отличить верную и ложную, а также неактуальную информацию.
Например, у ChatGPT при всем огромном объеме данных ограничена учебная база сведений из научной литературы. Другими словами, нейросеть не всегда имеет доступ к новейшим медицинским исследованиям и вполне может выдать вам устаревшие сведения о вашем заболевании или проблеме.
4. Отсутствие конфиденциальности
Медицинская информация является очень личной, и, возможно, вы не хотите ни с кем делиться своими проблемами. Но если врачи не имеют права разглашать данные, то нейросети таких обещаний не дают. Например, разработчик ChatGPT Open AI открыто заявляет, что ваша переписка с чат-ботом может быть передана третьим лицам.
И хотя эти сведения анонимизированы, то есть в них не будет ваших сугубо личных данных, а только общие сведения о запросах, это все равно создает угрозу безопасности.