Спрашиваешь совет о здоровье у чат-бота? После недавнего запуска сервиса ChatGPT Health от OpenAI стоит учесть несколько важных факторов

Виктор Сизов Эксклюзив
VK X OK WhatsApp Telegram
Материал подготовлен K-News. Копирование или частичное использование возможно только с разрешения редакции K-News.

С запуском ChatGPT Health от OpenAI возникает необходимость учитывать несколько важных моментов, прежде чем обращаться к ИИ-чатботам за медицинскими рекомендациями.

С увеличением числа пользователей, обращающихся к чат-ботам за советами, стало очевидно, что технологические компании начнут разрабатывать приложения, ориентированные на здравоохранение.

В январе OpenAI анонсировала ChatGPT Health — обновленную версию своего чат-бота, которая, по утверждениям компании, способна анализировать медицинские данные пользователей, полученные из приложений для мониторинга здоровья и носимых устройств, чтобы предоставлять ответы на вопросы, касающиеся медицины.

На данный момент доступ к программе ограничен ожиданием. Конкурирующая компания Anthropic предлагает аналогичные функции для определенной группы пользователей своего чат-бота Claude.

Обе компании подчеркивают, что их языковые модели не предназначены для замены профессиональной медицинской помощи и не должны использоваться для диагностики. Чат-боты могут помочь обобщить и объяснить сложные медицинские результаты, подготовить к визиту к врачу или выявить важные тенденции в здоровье, скрытые в медицинских записях.

Однако насколько надежно и точно они могут анализировать данные о здоровье и болезни? И стоит ли на них полагаться?

Вот несколько аспектов, которые стоит учесть перед тем, как обсуждать свое здоровье с ИИ:

Чат-боты могут предоставлять более индивидуализированную информацию, чем поисковые системы

Некоторые медики и исследователи, которые работали с ChatGPT Health и подобными программами, рассматривают их как прогресс по сравнению с текущей ситуацией.

Искусственный интеллект не идеален — он иногда может выдавать неверные рекомендации (источник на английском языке), однако его ответы часто оказываются более адаптированными к конкретному пользователю, чем те, которые можно найти через Google.

«Часто единственная альтернатива — это отсутствие информации или действия наугад, — отмечает доктор Роберт Вахтер, эксперт в области медицинских технологий из Калифорнийского университета в Сан-Франциско. — Поэтому, если использовать эти инструменты ответственно, они могут предоставить действительно полезные данные».

В таких странах, как Великобритания и США, где ожидание приема к врачу может занимать недели, а в отделениях неотложной помощи приходится проводить часы, чат-боты могут помочь снизить уровень беспокойства и сэкономить время.

Кроме того, они могут указать на необходимость немедленного обращения к врачу в случаях с опасными симптомами.

Одним из преимуществ новых чат-ботов является их способность отвечать на запросы пользователей, учитывая их медицинскую историю, включая принимаемые лекарства, возраст и записи от врачей.

Даже если доступ к медицинским данным не предоставляется, специалисты, такие как Вахтер, советуют как можно больше подробно описывать свои симптомы для получения более точных ответов.

Не обращайтесь к ИИ при тревожных симптомах

Вахтер и его коллеги отмечают, что в некоторых ситуациях лучше всего отказаться от использования чат-ботов и сразу обратиться за медицинской помощью. Симптомы, такие как одышка, боль в груди или сильная головная боль, могут указывать на экстренное состояние.

Даже в менее критических случаях как пациенты, так и врачи должны подходить к ИИ с определенной долей скептицизма, подчеркивает доктор Ллойд Майнор из Стэнфорда.

«Если речь идет о серьезном медицинском решении или даже о менее важном вопросе, касающемся здоровья, нельзя полагаться исключительно на информацию, предоставленную языковой моделью, — добавляет Майнор, декан медицинской школы Стэнфордского университета».

Даже в случае распространенных и менее сложных заболеваний, таких как синдром поликистозных яичников (СПКЯ), зачастую предпочтительнее обратиться к квалифицированному врачу, так как симптомы могут проявляться по-разному у разных людей, что влияет на выбор лечения.

Обдумайте конфиденциальность, прежде чем делиться данными о здоровье

Многие преимущества, которые предлагают ИИ-боты, зависят от того, насколько охотно пользователи делятся личной медицинской информацией. Важно понимать, что все, что вы передаете компании, разрабатывающей ИИ, не защищено федеральным законом о конфиденциальности США, который регулирует обращение с чувствительными медицинскими данными.

Этот закон, известный как HIPAA, предусматривает наказания для врачей, больниц, страховщиков и других медицинских учреждений за разглашение медицинской информации. Однако он не распространяется на компании, разрабатывающие чат-ботов.

«Когда человек загружает свою медицинскую историю в языковую модель, это совершенно не то же самое, что передать ее новому врачу, — объясняет Майнор. — Потребители должны осознавать, что стандарты конфиденциальности в этих случаях значительно различаются».

В OpenAI и Anthropic утверждают, что данные пользователей хранятся отдельно от остальных и защищены дополнительными мерами. Компании не используют медицинские данные для обучения своих моделей. Пользователь должен отдельно согласиться на передачу такой информации и может в любой момент отказаться от этого.

Несмотря на растущий интерес к ИИ, независимые исследования таких технологий находятся на начальной стадии. Первые результаты показывают, что программы, такие как ChatGPT, хорошо справляются с медицинскими экзаменами, но часто не могут корректно взаимодействовать с людьми.

Недавнее исследование Оксфордского университета, в котором принимали участие 1300 человек, продемонстрировало, что пользователи ИИ-чат-ботов для получения информации о гипотетических заболеваниях не принимали более обоснованных решений, чем те, кто полагался на традиционный онлайн-поиск или собственное мнение.

Когда ИИ-чат-ботам предоставляли медицинские сценарии в виде подробного описания, они правильно устанавливали основное заболевание в 95 процентах случаев.

«В этом моменте не было проблем, — говорит ведущий автор работы Адам Махди из Оксфордского университета. — Проблемы возникали на этапе общения с реальными участниками».

Махди и его команда выявили несколько проблем в коммуникации. Люди часто не предоставляли чат-ботам достаточно данных для корректного определения их состояния. В свою очередь, системы ИИ иногда отвечали сочетанием верной и неверной информации, что затрудняло пользователям отличить одно от другого.

Исследование, проведенное в 2024 году, не включало тестирование последних версий чат-ботов, включая ChatGPT Health.

Второе мнение от ИИ может оказаться полезным

Способность чат-ботов задавать уточняющие вопросы и извлекать ключевые детали у пользователей — это область, где, по мнению Вахтера, есть большой потенциал для улучшения.

«Я уверен, что они станут действительно эффективными, когда их подход к общению с пациентами станет более «врачебным», а диалоги будут напоминать настоящие консультации, — считает Вахтер».

В настоящее время один из способов повысить уверенность в получаемой информации — это сравнивать мнения нескольких чат-ботов, как пациенты иногда получают второе мнение от другого врача.

«Иногда я ввожу одни и те же данные в ChatGPT и в Gemini, — делится Вахтер, имея в виду ИИ-инструмент от Google. — Когда их ответы совпадают, я чувствую себя увереннее в правильности ответа».

Статья Запрашиваете медицинские советы у чат-бота? После недавнего старта ChatGPT Health от OpenAI стоит обратить внимание на несколько ключевых аспектов впервые была опубликована на K-News.
VK X OK WhatsApp Telegram

Читайте также: