ИИ-врач: Скрытая предвзятость калечит медицину

Инструменты искусственного интеллекта (ИИ) созданы для помощи врачам в принятии решений. Однако они не всегда относятся ко всем пациентам одинаково. Новое исследование показывает тревожную тенденцию. Эти системы могут изменять рекомендации по лечению в зависимости от личных данных пациента. Например, от его социально-экономического положения. Это происходит даже тогда, когда медицинские показания у пациентов совершенно одинаковы. Исследователи из Медицинской школы Икан Маунт-Синай (Icahn School of Medicine at Mount Sinai) протестировали ведущие генеративные модели ИИ. Они обнаружили несоответствия в предложениях по лечению. Результаты подчеркивают существование скрытой предвзятости ИИ, которая может повлиять на качество медицинской помощи.

Исследование, опубликованное в журнале *Digital Medicine*, было проведено под руководством доктора Ари Цимента (Ari Ciment) и доктора Марка Бьюрлина (Marc Bjurlin). Они создали гипотетические описания клинических случаев (виньетки). В каждом случае медицинская информация была идентичной. Однако исследователи изменяли такие параметры пациента, как:

  • раса
  • пол
  • возраст
  • социально-экономический статус
  • тип страховки
  • Затем эти виньетки предоставили четырем популярным большим языковым моделям:

    1. OpenAI GPT-3.5
    2. OpenAI GPT-4
    3. Google Bard (теперь Gemini)
    4. Meta Llama 2

    Цель состояла в том, чтобы увидеть, будут ли ИИ-модели предлагать разные планы лечения для пациентов с одинаковыми симптомами, но разным бэкграундом.

    Результаты исследования: Обнаружена скрытая предвзятость ИИ

    Непоследовательные рекомендации

    Результаты оказались тревожными. Модели ИИ действительно демонстрировали значительные различия в своих рекомендациях. Эти различия касались логики постановки диагноза, планов лечения и последующего наблюдения. Важно отметить, что эти вариации возникали несмотря на идентичность клинических данных пациентов. Это прямо указывает на влияние немедицинских факторов.

    Влияние неклинических факторов

    Исследование показало, что ИИ-модели иногда прямо ссылались на социально-экономический статус пациента. Они использовали это для обоснования своих решений. Например, ИИ мог предложить менее дорогостоящий вариант лечения. Или предложить другой план последующего наблюдения. Это делалось исходя из предполагаемой способности пациента оплатить лечение или следовать рекомендациям. Такой подход показывает, как **скрытая предвзятость ИИ** может влиять на медицинские решения. Модели ИИ, похоже, интернализировали общественные стереотипы.

    Сравнение моделей ИИ

    Хотя все протестированные модели показали предвзятость, были и различия. Модель GPT-4 от OpenAI продемонстрировала меньшую степень предвзятости по сравнению с другими моделями. Однако даже у GPT-4 несоответствия в рекомендациях все же присутствовали. Это говорит о том, что проблема является системной для текущего поколения ИИ.

    Последствия и опасения

    Риск усугубления неравенства в здравоохранении

    Главное опасение заключается в том, что использование таких предвзятых ИИ-инструментов может усугубить существующее неравенство в доступе к качественной медицинской помощи. Если ИИ систематически предлагает менее оптимальное лечение определенным группам населения, это приведет к ухудшению их здоровья. Это особенно актуально для России, где доступ к медицине может сильно различаться в зависимости от региона и социального статуса.

    Призыв к действию: Тестирование и регулирование

    Авторы исследования подчеркивают срочную необходимость разработки методов для тестирования ИИ. Нужно выявлять и устранять предвзятости перед широким внедрением этих технологий в клиническую практику. “Наше исследование показывает, что ИИ-модели могут закреплять и даже усиливать существующие предубеждения в здравоохранении,” – говорит доктор Бьюрлин. “Крайне важно обеспечить справедливость и беспристрастность этих инструментов.”

    Прежде чем ИИ станет стандартной частью медицинской практики, необходимо тщательно проверять и устранять скрытую предвзятость ИИ. Требуется прозрачность в работе алгоритмов. Также необходимо разработать четкие регуляторные нормы. Это поможет гарантировать, что технологии ИИ принесут пользу всем пациентам, независимо от их происхождения или социально-экономического положения.

    Источник

    Оставьте комментарий