
Investigadores de Estados Unidos han desarrollado un innovador método de entrenamiento de modelos de inteligencia artificial que elimina automáticamente los errores antes de que la IA pase por el proceso de aprendizaje.
Un equipo de científicos del Centre for AI Autonomy de la Facultad de Ingeniería e Informática de la Universidad Atlántica de Florida ha desarrollado un método para detectar y eliminar automáticamente ejemplos etiquetados incorrectamente que, posteriormente, pueden reducir el rendimiento de los modelos de IA. Los modelos de inteligencia artificial se basan sobre todo en el método de vectores soporte — una serie de algoritmos de aprendizaje similares que posteriormente determinar las decisiones tomadas por la IA.
Este método se utiliza ampliamente en el entrenamiento de modelos de IA para el reconocimiento de imágenes y voz, así como en diagnósticos médicos y análisis de textos. Durante el entrenamiento, los modelos de IA descubren el límite que mejor divide las distintas categorías de datos. Si varios ejemplos se dividen incorrectamente, esto puede distorsionar los límites de toma de decisiones de la IA y reducir su rendimiento en condiciones reales.
Antes de que la IA empiece a aprender, los investigadores utilizan una técnica que elimina automáticamente los ejemplos de datos extraños o inusuales que no encajan en el conjunto general. Esos datos se eliminan o se marcan, lo que garantiza que la IA sólo utilice información validada desde el principio.
«Los SVM se encuentran entre los clasificadores más potentes y utilizados en el aprendizaje automático, con aplicaciones que van desde la detección del cáncer al filtrado del spam. Lo que las hace especialmente eficaces — pero también singularmente vulnerables — es que sólo se basan en un pequeño número de puntos de datos clave, denominados vectores de apoyo, para trazar la línea divisoria entre las distintas categorías. Las consecuencias pueden ser graves, ya se trate de la omisión de un diagnóstico de cáncer o de un sistema de seguridad que no reconoce una amenaza», — explica el profesor Dimitris Pados.
La eliminación de datos falsos del conjunto de información de entrenamiento para modelos de IA se basa en un algoritmo matemático denominado análisis de componentes principales de la norma L1. Este método identifica y elimina los marcadores de datos sospechosos en cada categoría basándose únicamente en su concordancia con el resto de la información.
«Los puntos de datos que parecen desviarse significativamente de los demás — a menudo debido a errores de etiquetado — se marcan y eliminan. A diferencia de muchos métodos existentes, este proceso no requiere ajuste manual ni intervención del usuario y puede aplicarse a cualquier modelo de IA, lo que lo hace escalable y práctico», — afirmó Dimitris Pados.
Mattel lanza M3GAN? Las muñecas Barbie serán controladas por la IA OpenAI
Los resultados del estudio se publicaron en la revista IEEE Transactions on Neural Networks and Learning Systems
Fuente: TechXplore
Spelling error report
The following text will be sent to our editors: