
La semana pasada, un laboratorio chino de inteligencia artificial lanzó un nuevo modelo de IA «abierto» llamado DeepSeek, que supera a muchos competidores en pruebas populares (incluyendo programación y escritura de ensayos), pero tiene una característica interesante: cree que es ChatGPT.
Varias publicaciones con afirmaciones similares de DeepSeek se han difundido en X y Reddit. El modelo también especifica a qué versión pertenece exactamente: la versión GPT-4, lanzada en 2023.
This actually reproduces as of today. In 5 out of 8 generations, DeepSeekV3 claims to be ChatGPT (v4), while claiming to be DeepSeekV3 only 3 times.
Te da una idea aproximada de la distribución de sus datos de entrenamiento. https://t.co/Zk1KUppBQM pic.twitter.com/ptIByn0lcv
— Lucas Beyer (bl16) (@giffmana) December 27, 2024
¿Por qué sucede esto? El medio TechCrunch escribe que ambos modelos, ChatGPT y DeepSeek V3, son sistemas estáticos que aprenden de miles de millones de ejemplos y patrones para hacer predicciones sobre texto (incluso en cosas tan elementales como determinar dónde poner una coma en una oración). Los chinos no han revelado los datos de entrenamiento de su modelo, pero hay suficientes conjuntos de datos públicos de texto generado por GPT-4 a través de ChatGPT, así que es muy posible que DeepSeek los haya usado y simplemente reproduzca los datos de salida literalmente.
«Claramente, en algún momento el modelo recibe respuestas sin procesar de ChatGPT, pero no está claro de dónde exactamente», dijo en comentarios al medio Mike Cook, investigador asociado del King’s College de Londres, especializado en IA. «Podría ser una ‘casualidad’… pero, lamentablemente, ya hemos visto casos en que las personas entrenan sus modelos con datos de otros modelos para intentar aprovechar ese conocimiento».
Cook señaló que la práctica de entrenar modelos en los resultados de sistemas de IA competidores puede ser «muy mala» para la calidad del modelo, ya que podría llevar a alucinaciones y respuestas engañosas, como las mencionadas anteriormente.
«Como una fotocopia, perdemos cada vez más información y conexión con la realidad», añade Cook.
Esto también podría contravenir los términos de servicio de estos sistemas. Las reglas de OpenAI, por ejemplo, prohíben a los usuarios de ChatGPT usar los resultados para desarrollar modelos que compitan con sus propios sistemas.
Ninguna de las compañías ha respondido a la solicitud de los periodistas, sin embargo, el jefe del startup, Sam Altman, en los mismos días en que se difundieron los posts de DeepSeek, escribió:
«Es relativamente fácil copiar lo que ya sabes que funciona. Es extremadamente difícil hacer algo nuevo y arriesgado cuando no sabes cuál será el resultado».
De hecho, DeepSeek V3 no es el primer modelo que se identifica erróneamente. Google Gemini, al responder a una pregunta en chino, dijo que era el chatbot Wenxinyiyan de la compañía china Baidu.
Spelling error report
The following text will be sent to our editors: