
Los servicios de inteligencia artificial, que han crecido como setas después de la lluvia en los últimos años, facilitan la vida de las personas de muchas maneras. Sin embargo, no siempre es así. Un hombre de Noruega se llevó un susto al enterarse de que ChatGPT le había acusado falsamente de matar a sus propios hijos.
En un mal día, Arve Gjalmar Holmen decidió comprobar qué información podía proporcionar ChatGPT sobre su nombre. La AI respondió que supuestamente había sido condenado a 21 años de prisión como un «criminal que había matado a dos de sus hijos e intentado matar a su tercer hijo».
Esta «historia de terror ficticia» no sólo contenía hechos que nunca ocurrieron, sino que combinaba «datos personales claramente identificables» — como el número y sexo reales de los hijos de Holman, el nombre de su ciudad natal — con «información falsa».
La falsa acusación de ChatGPT de «asesinato y encarcelamiento» utilizando «hechos reales» de la vida personal del hombre violó los requisitos del Reglamento General de Protección de Datos (GDPR) para la exactitud de los datos. Holmen no podía simplemente corregir estos errores como exige la ley. Noyb, una organización que protege los derechos digitales en la UE, presentó una denuncia al respecto.
Le preocupaba que su reputación corriera peligro mientras la información falsa siguiera disponible. E incluso con «pequeños» descargos de responsabilidad instando a los usuarios a comprobar los datos de ChatGPT, es imposible saber cuántas personas han visto ya estas afirmaciones falsas y pueden haberlas creído.
¿OpenAI no podrá borrar datos fácilmente?
Por el momento, ChatGPT no ha repetido estas acusaciones contra Holman. Según Noyb, tras la actualización, la IA ahora busca información sobre las personas en línea antes de responder a preguntas sobre ellas. Sin embargo, OpenAI ha declarado previamente que no puede corregir — información, sólo bloquearla. Esto significa que la historia sobre el «asesino de niños» puede seguir en la base de datos de ChatGPT. Si Holman no corrige estos datos, se estará infringiendo el GDPR, insiste Noyb.
«Si los datos personales incorrectos no se difunden, el daño puede ser menor, pero el GDPR se aplica tanto a datos internos como externos», dijo la organización.
Holman no es el único que teme que las ficciones de ChatGPT puedan arruinar vidas. Por ejemplo, en 2022, el alcalde de una ciudad australiana amenazó con presentar una demanda por difamación porque ChatGPT informó falsamente de que había sido encarcelado. Por la misma época, ChatGPT vinculó a un profesor de derecho real con un escándalo ficticio de acoso sexual, y más tarde un presentador de un programa de radio demandó a OpenAI por falsas acusaciones de malversación.
En algunos casos, OpenAI ha añadido filtros para evitar respuestas perjudiciales, pero al parecer no ha eliminado la información falsa de los datos de entrenamiento del modelo. Y eso no es suficiente, según la abogada especializada en protección de datos de Noyb, Cleanthe Sardelli.
«Añadir una advertencia de que no se está cumpliendo la ley no anula la ley,» dijo. «Las empresas no pueden limitarse a ocultar datos falsos a los usuarios si siguen almacenándolos. Las empresas de IA deben dejar de ignorar el GDPR. Si las «alucinaciones» no se controlan, las personas pueden sufrir fácilmente difamaciones.»
Noyb pide a las autoridades que presionen a OpenAI para evitar incidentes similares en el futuro. La organización ha presentado una denuncia ante la Autoridad Noruega de Protección de Datos (Datatilsynet) y exige que se obligue a OpenAI a retirar las declaraciones difamatorias y a cambiar el modelo ChatGPT para evitar resultados falsos.
El año pasado, OpenAIlanzó el motor de búsqueda en octubre del año pasado para los usuarios de pago, yañadido posteriormente para todos. El mes pasadoOpenAI presenta Deep Research — una nueva herramienta ChatGPT para «investigación en profundidad» online.
Fuente: arstechnica
Spelling error report
The following text will be sent to our editors: