ИИ-терапия: почему чат-боты не заменят психолога и угрожают конфиденциальности

Эксперты в области искусственного интеллекта и психологии бьют тревогу: несмотря на растущую популярность использования чат-ботов в терапевтических целях, такие системы не могут заменить квалифицированного специалиста и несут серьёзные риски для приватности пользовательских данных. Об этом сообщает агентство Bloomberg.

Всё больше людей обращаются к ИИ-ассистентам, таким как ChatGPT, за эмоциональной поддержкой, делясь с ними личными переживаниями и проблемами. Хотя боты иногда дают разумные ответы, важно понимать их фундаментальные ограничения. Они не создавались для замены психотерапевта и не обеспечивают должного уровня конфиденциальности, что может привести к негативным последствиям.

Личный опыт: терапия от алгоритма

Показательна история Ван Слайка, юриста из Чарльстона. Помимо сеансов с психотерапевтом, он начал регулярно общаться с чат-ботом, рассказывая ему о своих страхах и трудностях, связанных с жизнью транс-человека в условиях дискриминации. Для него бот стал инструментом эмоциональной разрядки — местом, где можно было быстро выговориться и получить ответ.

Однако эксперты подчёркивают, что общие чат-боты не являются терапевтическими инструментами. Они не запрограммированы на соблюдение строгих этических норм и юридических стандартов, обязательных для профессиональных психологов и психотерапевтов.

Обратите внимание: Российская компания достигла максимальных исторических показателей рентабельности бизнеса.

Кроме того, у них отсутствует контекстуальная память в том виде, в каком она нужна для терапии: они не могут отслеживать и анализировать динамику состояния пользователя от сеанса к сеансу, что является критически важным для настоящего лечения.

Мнение специалистов: высокие риски и этические дилеммы

Клинический психолог и профессор Канзасского университета Стивен Иларди прямо заявляет, что текущие ИИ-системы не готовы заменить живого специалиста, а связанные с их использованием риски слишком велики. Хотя он признаёт, что чат-бот может быть «неплохим собеседником», он называет такую практику рискованной полумерой, а не решением проблемы.

Официальная позиция разработчиков также осторожна. Представитель компании, создавшей ChatGPT, отказался комментировать случаи терапевтического использования бота, но сослался на внутреннюю политику, которая прямо запрещает применять их модели для диагностики или лечения серьёзных заболеваний.

Главная угроза — конфиденциальность

Особую озабоченность вызывает вопрос приватности. Маргарет Митчелл, главный специалист по этике в компании Hugging Face (разработчик моделей ИИ), указывает на тревожные последствия использования чат-ботов как «исповедников». Все диалоги пользователей могут просматриваться и использоваться для дальнейшего обучения системы. Процесс удаления учётной записи и связанных с ней данных может занимать недели. Уже были инциденты, когда из-за технических сбоев пользователи видели фрагменты чужих конфиденциальных разговоров, что вынудило компанию временно отключать сервис.

Больше интересных статей здесь: Технологии.

Источник статьи: Специалисты предупреждают, что ИИ не способен заменить специалиста, кроме того, он не дает гарантии конфиденциальности, пишет Bloomberg.