Noticias Tecnologías 12-30-2024 a las 13:14 comment views icon

Un nuevo modelo chino de inteligencia artificial se hace llamar ChatGPT. He aquí por qué está sucediendo

author avatar

Kateryna Danshyna

Redactor de noticias

Un nuevo modelo chino de inteligencia artificial se hace llamar ChatGPT. He aquí por qué está sucediendo

La semana pasada, un laboratorio chino de inteligencia artificial lanzó un nuevo modelo de IA «abierto» llamado DeepSeek, que supera a muchos competidores en pruebas populares (incluyendo programación y escritura de ensayos), pero tiene una característica interesante: cree que es ChatGPT.

Varias publicaciones con afirmaciones similares de DeepSeek se han difundido en X y Reddit. El modelo también especifica a qué versión pertenece exactamente: la versión GPT-4, lanzada en 2023.

¿Por qué sucede esto? El medio TechCrunch escribe que ambos modelos, ChatGPT y DeepSeek V3, son sistemas estáticos que aprenden de miles de millones de ejemplos y patrones para hacer predicciones sobre texto (incluso en cosas tan elementales como determinar dónde poner una coma en una oración). Los chinos no han revelado los datos de entrenamiento de su modelo, pero hay suficientes conjuntos de datos públicos de texto generado por GPT-4 a través de ChatGPT, así que es muy posible que DeepSeek los haya usado y simplemente reproduzca los datos de salida literalmente.

«Claramente, en algún momento el modelo recibe respuestas sin procesar de ChatGPT, pero no está claro de dónde exactamente», dijo en comentarios al medio Mike Cook, investigador asociado del King’s College de Londres, especializado en IA. «Podría ser una ‘casualidad’… pero, lamentablemente, ya hemos visto casos en que las personas entrenan sus modelos con datos de otros modelos para intentar aprovechar ese conocimiento».

Cook señaló que la práctica de entrenar modelos en los resultados de sistemas de IA competidores puede ser «muy mala» para la calidad del modelo, ya que podría llevar a alucinaciones y respuestas engañosas, como las mencionadas anteriormente.

«Como una fotocopia, perdemos cada vez más información y conexión con la realidad», añade Cook.

Esto también podría contravenir los términos de servicio de estos sistemas. Las reglas de OpenAI, por ejemplo, prohíben a los usuarios de ChatGPT usar los resultados para desarrollar modelos que compitan con sus propios sistemas.

Ninguna de las compañías ha respondido a la solicitud de los periodistas, sin embargo, el jefe del startup, Sam Altman, en los mismos días en que se difundieron los posts de DeepSeek, escribió:

«Es relativamente fácil copiar lo que ya sabes que funciona. Es extremadamente difícil hacer algo nuevo y arriesgado cuando no sabes cuál será el resultado».

De hecho, DeepSeek V3 no es el primer modelo que se identifica erróneamente. Google Gemini, al responder a una pregunta en chino, dijo que era el chatbot Wenxinyiyan de la compañía china Baidu.

Nuevo modelo ChatGPT o1 «maquinado contra humanos» y evitó apagarse durante las pruebas de control, — Apollo Research



Spelling error report

The following text will be sent to our editors: