Модели искусственного интеллекта (ИИ), которые оценивают медицинские изображения, способны ускорить и повысить точность диагностики рака, но они также могут быть с легкостью обмануты в результате хакерской атаки.
Исследователи из Университета Питтсбурга продемонстрировали, как медицинская программа определила, что на снимках нет следов онкологии, когда они на самом деле были и наоборот. В результате удалось обмануть как ИИ, так и опытных рентгенологов. Об этом сказано в статье, опубликованной в Nature Communications.
О подобных взломах не известно, но новое исследование дополнило предыдущие, предполагающие, что медицинские организации должны быть готовы к кибератакам. Хакеры все чаще нападают на больницы и медицинские учреждения. В большинстве случаев целью становятся данные пациентов (которые ценятся на черном рынке) либо ради выкупа блокируются компьютерные системы. Хакеры могут удаленно взламывать инсулиновые помпы, подключенные к интернету, и, например, вводить опасные дозы лекарства.
На примере маммограмм
Из 44 снимков с признаками онкологии, отредактированными GAN как без таковых, 42 были опознаны ИИ как без признаков рака. А из 319 изображений без онкологических процессов, измененных GAN, 209 были классифицированы как со следами новообразований. Состязательные образцы смогли обмануть ИИ в 69,1%. Эксперты определили подлинность изображений с точностью от 29% до 71%.
Следующим шагом будет разработка способов сделать модели ИИ более устойчивыми к подобным атакам.
В 2019 году The Washington Post рассказывало о компьютерном вирусе, меняющем результаты МРТ и КТ так, что даже врачи не в состоянии заметить признаки редактирования.