Новый метод обучения сделает ИИ менее лживым

Опубликовал Олександр Федоткін

Исследователи из США разработали инновационный метод обучения моделей искусственного интеллекта с автоматическим удалением ошибок еще до того, как ИИ пройдет процесс обучения.

Команда ученых из Центра автономии ИИ при Колледже инженерии и компьютерных наук Флоридского Атлантического университета разработала метод автоматического выявления и удаления неправильно маркированных примеров, которые впоследствии могут снизить производительность ИИ-моделей. Модели искусственного интеллекта в процессе обучения преимущественно полагаются на метод опорных векторов — ряд похожих алгоритмов обучения, которые впоследствии будут определять решения, принимаемые ИИ

Этот метод широко используется при обучении ИИ-моделей распознаванию изображений, голоса, а также в медицинской диагностике и при анализе текстов. В процессе обучения модели ИИ определяют границу, которая наилучшим образом делит различные категории данных. Если несколько примеров некорректно разделены, это может исказить границы принятия решений ИИ и снизить его производительность в реальных условиях.

Прежде чем ИИ перейдет к обучению, исследователи применяют технику, автоматически удаляющую странные или необычные примеры данных, которые не совсем вписываются в общий набор. Такие данные удаляются или помечаются, гарантируя, что ИИ с самого начала будет использовать только проверенную информацию.

«SVM являются одними из самых мощных и широко используемых классификаторов в машинном обучении, их применение варьируется от обнаружения рака до фильтрации спама Что делает их особенно эффективными — но и уникально уязвимыми — так это то, что они полагаются только на небольшое количество ключевых точек данных, называемых опорными векторами, чтобы провести границу между различными категориями. Последствия этого могут быть серьезными, будь то пропущенный диагноз рака или система безопасности, которая не может распознать угрозу», — объясняет профессор Димитрис Падос.

Удаление ложных данных из учебного набора информации для моделей ИИ работает на базе математического алгоритма, получившего название анализа главных компонент L1-нормы. Этот метод обнаруживает и удаляет подозрительные наборы данных в каждой категории исключительно на основе того, насколько хорошо они соответствуют остальной информации. 

«Точки данных, которые, по-видимому, значительно отклоняются от других — часто из-за ошибок в маркировке — помечаются и удаляются. В отличие от многих существующих методов, этот процесс не требует ручной настройки или вмешательства пользователя и может быть применен к любой модели ИИ, что делает его масштабируемым и практичным», — отмечает Димитрис Падос

Результаты исследования были опубликованы в журнале IEEE Transactions on Neural Networks and Learning Systems

Источник: TechXplore