Новости
ВОЗ разработала этические принципы использования ИИ в сфере здравоохранения

ВОЗ разработала этические принципы использования ИИ в сфере здравоохранения

ВОЗ разработала этические принципы использования ИИ в сфере здравоохранения

Всемирная организация здравоохранения подготовила руководящий документ, в котором излагаются 6 ключевых принципов этичного использования искусственного интеллекта в сфере медицины. Разработкой этого документа занималось 20 экспертов, которые потратили на это 2 года. Данное руководство стало первым консенсусным отчётом по этике использования ИИ в медицинских учреждениях.

В документе подчеркиваются перспективы ИИ в области здравоохранения и его потенциал для помощи врачам в лечении пациентов, особенно в районах с ограниченными ресурсами. Но он также подчеркивает, что подобные технологии не являются быстрым решением проблем здравоохранения, особенно в странах с низким и средним уровнем доходов, и что правительства и регулирующие органы должны тщательно изучить, где и как ИИ используется в здравоохранении.

Отметим, в последние несколько лет системы искусственного интеллекта начали всё чаще применяться в медицине и соответствующих исследования:

ВОЗ надеется, что 6 разработанных принципов могут стать основой подхода правительств, разработчиков и регулирующих органов к технологии ИИ. Пока что технологии искусственного интеллекта в здравоохранении всё ещё новы, и многие правительства, регулирующие органы и медицинские учреждения пока не знают, как их оценивать и управлять ими. В публикации ВОЗ говорится, что вдумчивый и взвешенный подход поможет избежать потенциального вреда.

ВОЗ предлагает следующие 6 шесть этических принципов в своём руководстве:

Защита автономии: люди должны иметь надзор и последнее слово за всеми решениями, касающимися здоровья. Решения не должны приниматься исключительно машинами, а врачи должны иметь возможность отменять их в любое время. ИИ не должен использоваться для оказания помощи кому-либо без их согласия, а данные пациентов должны быть защищены.

Обеспечение безопасности человека: разработчики должны постоянно отслеживать любые инструменты искусственного интеллекта, чтобы убедиться, что они работают должным образом и не причиняют вреда.

Обеспечение прозрачности: разработчики должны публиковать информацию об архитектуре инструментов искусственного интеллекта. Системы ИИ критикуют за то, что они представляют собой «чёрные ящики», а исследователям и врачам слишком сложно понять, как они принимают решения. ВОЗ хочет видеть достаточную прозрачность, чтобы системы ИИ могли быть полностью поняты и доступны для проверки пользователям и регулирующим органам.

Стимулирование ответственности: когда что-то идет не так с технологией ИИ, например, если решение, принятое инструментом, приводит к причинению вреда пациенту, должны быть механизмы, определяющие, кто несёт ответственность (например, производители и клинические пользователи).

Обеспечение справедливости: инструменты быть доступны на нескольких языках и обучены работе с различными наборами данных. В последние несколько лет тщательное изучение общих алгоритмов в здравоохранении показало, что некоторые из них имеют расовую предвзятость.

Продвижение устойчивых систем ИИ: разработчики должны иметь возможность регулярно обновлять свои инструменты, а учреждения должны иметь возможность корректировать работу, если инструмент кажется неэффективным. Учреждения или компании также должны внедрять только те инструменты, которые можно отремонтировать, даже в системах здравоохранения с ограниченными ресурсами.

Источник: The Verge


Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: