Рубрики TecnologíasNoticias

Los riesgos superan a los beneficios. Empleados de OpenAI y Google DeepMind piden un control más estricto de la IA.

Опубликовал
Ігор Шелудченко

Antiguos y actuales empleados de OpenAI y Google DeepMind han firmado una carta abierta en la que exigen medidas de seguridad más estrictas en el desarrollo de la inteligencia artificial.

En una carta abierta Los expertos piden la creación de organismos reguladores independientes y el establecimiento de normas estrictas para controlar el desarrollo y la aplicación de las tecnologías de IA. Señalan que Sin un control y una regulación adecuados, los riesgos potenciales superarán los beneficios que pueden aportar estas tecnologías.

Los firmantes expresan su preocupación por los posibles usos indebidos y peligros asociados al desarrollo incontrolado de la IA. Subrayan la importancia de la cooperación interdisciplinar para garantizar el uso seguro y ético de las tecnologías de IA, así como la necesidad de transparencia y responsabilidad en este ámbito.

Los trabajadores proponen los siguientes requisitos para las empresas líderes en IA:

  • No celebre acuerdos que prohíban criticar los riesgos de la empresa y no tome represalias contra los empleados por dichas críticas.
  • Garantizar que las advertencias puedan comunicarse (incluso de forma anónima) al consejo de administración, a los reguladores y a otras organizaciones.
  • Fomente una cultura de diálogo abierto y permita a los empleados hacer declaraciones públicas sujetas a la protección de los secretos comerciales.
  • No sancione a los empleados que compartan públicamente información confidencial sobre riesgos después de que hayan fracasado otros medios para plantear inquietudes.

La carta abierta ya ha recibido un amplio apoyo en los círculos académicos y entre las ONG que trabajan en cuestiones de ética y seguridad en el sector tecnológico.

OpenAI respondió al llamamiento afirmando que ya dispone de canales para informar sobre posibles riesgos de la IA, incluida la «línea directa». La empresa tampoco libera nuevas tecnologías hasta que se aplican las medidas de seguridad adecuadas.

Cabe señalar que las empresas de IA, incluida OpenAI, han utilizado en repetidas ocasiones tácticas agresivas para impedir que los empleados hablen libremente. Según Vox, la semana pasada se supo que OpenAI obligaba a los empleados que abandonaban la empresa a firmar documentos extremadamente restrictivos de no competencia y no divulgación, o de lo contrario perderían todas sus acciones acumuladas. El consejero delegado de OpenAI, Sam Altman, se disculpó tras el informe y dijo que cambiaría sus procedimientos de despido.

La carta llega poco después de que dos empleados clave abandonaran OpenAI — el cofundador Ilya Sutskever y el investigador de seguridad clave Jan Leike. Tras las salidas, Leike afirmó que OpenAI había abandonado una cultura de seguridad en favor de «productos brillantes».

La AGI — no está lejos, según los expertos

Al mismo tiempo, los expertos en inteligencia artificial expresan su preocupación por el ritmo y el vector del desarrollo de la IA.

Por ejemplo, el antiguo ingeniero de OpenAI Leopold Aschenbrenner escribió documento 165 páginas, que en 2027 tendremos AGI (inteligencia equivalente a la humana), que se entrenará rápidamente hasta alcanzar el nivel de ASI (inteligencia humana superior). El principal riesgo, según Leopold, es que la IA es ahora como la segunda bomba nuclear, y los militares ya están ansiosos por conseguir (y están consiguiendo) acceso a la IA.

Los comentarios de Disqus están cargando....