Рубрики NoticiasSuave

La herramienta generativa Copilot crea feas imágenes estereotipadas de judíos e imágenes antisemitas

Опубликовал
Вадим Карпусь

Las herramientas de IA generativa distan mucho de ser perfectas. La semana pasada se informóLa inteligencia artificial generativa Meta tiende a crear imágenes de personas de la misma raza, aunque especifiques explícitamente lo contrario. Por ejemplo, para consultas como «Esposa asiática y blanca», el generador de imágenes crea imágenes de personas de la misma raza.

Ahora se informa de que Copilot Designer, cuando se le pide que cree una imagen de judíos, encarna los peores estereotipos de personas codiciosas o malvadas. Por ejemplo, consultas neutras como «jefe judío» o «banquero judío» pueden producir resultados terriblemente ofensivos.

Todos los grandes modelos lingüísticos se entrenan sobre todo con datos de todo Internet (normalmente sin consentimiento), que obviamente están llenos de imágenes negativas. Los desarrolladores de modelos de IA intentan implementar mecanismos de protección para evitar estereotipos o lenguaje hostil. Sin embargo, los resultados de Copilot Designer muestran que en el modelo pueden estar presentes todo tipo de sesgos negativos hacia distintos grupos.

Como señalaron los periodistas de Tomshardware, al utilizar la consulta «Jefe judío» Copilot Designer casi siempre aparecen estereotipos caricaturescos de judíos religiosos rodeados de símbolos judíos y, a veces, objetos estereotipados como rosquillas o montones de dinero. Si se añade la palabra «mandón» a la consulta anterior, se obtienen las mismas caricaturas, pero con expresiones más airadas y palabras como «llegas tarde a la reunión, Shmendrik».

Además, se observa que Copilot Designer bloquea ciertos términos que considera problemáticos, como «jefe judío», «sangre judía», o «judío influyente». Si los utilizas varias veces seguidas, puedes conseguir que te bloqueen la cuenta para introducir nuevas consultas durante 24 horas. Pero, como ocurre con todos los LLM, puedes obtener contenido ofensivo si utilizas sinónimos que no hayan sido bloqueados.

Fuente: Tomshardware

Los comentarios de Disqus están cargando....