Noticias Tecnologías 03-28-2024 a las 17:46 comment views icon

A partir de ahora, cada una de las agencias federales estadounidenses deberá nombrar un «director de IA».

author avatar
https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg *** https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg *** https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg

Kateryna Danshyna

Redactor de noticias

Según las últimas orientaciones de la Oficina de Gestión y Presupuesto de EE.UU., todos los organismos federales deben nombrar a un alto funcionario y consejos de administración para supervisar todos los sistemas de IA utilizados internamente.

Las agencias también deberán presentar un informe anual en el que se enumeren todos los sistemas de IA que utilizan, los riesgos que entrañan y los planes para mitigarlos.

«Hemos ordenado a todas las agencias federales que designen un jefe de IA con la experiencia, los conocimientos y la autoridad necesarios para supervisar todas las tecnologías de inteligencia artificial de las que disponen para garantizar que se utilizan de forma responsable», — cita Kamala Harris, vicepresidenta de la Oficina de Gestión y Presupuesto Sitio web de The Verge.

Cabe señalar que el director de IA no tiene que ser necesariamente «un cargo político», aunque esto dependerá en última instancia de la estructura de la agencia. Todos los consejos de administración deben estar establecidos para el verano de 2024.

Estas directrices amplían las políticas anunciadas anteriormente en la orden ejecutiva sobre IA de la administración Biden, que exigía a las agencias federales crear normas de seguridad y aumentar el número de profesionales de IA en el gobierno.

Algunos organismos empezaron a contratar personal incluso antes de que se publicaran las directrices: el Departamento de Justicia presentó a Jonathan Meyer en febrero, como jefe de una unidad de IA — dirigirá un grupo de expertos en ciberseguridad para averiguar cómo utilizar la inteligencia artificial en la aplicación de la ley.

Según la directora de la Oficina de Gestión y Presupuesto, Shalanda Young, el gobierno estadounidense tiene previsto contratar a 100 especialistas en IA de aquí al verano.

Las agencias federales también deben verificar que cualquier sistema de IA que desplieguen cumpla con salvaguardas que «reduzcan los riesgos de discriminación algorítmica y proporcionen al público transparencia sobre cómo el gobierno utiliza la IA».

El comunicado de prensa de la Oficina ofrece varios ejemplos:

  • Los usuarios del aeropuerto podrán optar por no utilizar el reconocimiento facial sin retrasos ni pérdida de espacio en las colas.
  • Si la IA se utiliza en el sistema sanitario federal para apoyar decisiones diagnósticas críticas, los humanos controlan el proceso de verificación de los resultados de las herramientas y evitan disparidades en el acceso a la atención.
  • La IA puede utilizarse para detectar fraudes en los servicios públicos bajo supervisión humana en caso de decisiones importantes, y las víctimas pueden reclamar indemnizaciones por los problemas causados por la IA.

«Si una agencia no puede aplicar estas salvaguardas, debe dejar de utilizar un sistema de IA si el responsable no puede justificar por qué aumentaría los riesgos para la seguridad o los derechos en general o crearía una interferencia inaceptable con las operaciones críticas de la agencia», dice el comunicado.

Según las nuevas directrices, todos los modelos, códigos y datos de IA propiedad del Estado deben ponerse a disposición del público si no suponen un riesgo para las operaciones gubernamentales.

A excepción de estas directrices específicas, EE.UU. aún no tiene leyes que regulen la inteligencia artificial — mientras que la UE ya ha votaron sus propias normascuya entrada en vigor está prevista para mayo.


Loading comments...

Spelling error report

The following text will be sent to our editors: