Рубрики NoticiasTecnologías

La fiesta de otro: en la GTC 2025, Pat Helsinger dice que NVIDIA tiene suerte de vender chips 10.000 veces más caros de lo necesario para la IA

Publicado por Andrii Rusanov

Hace poco Pat Helsinger, CEO de Intel, ha sido despedido no ha repetido por primera vez su «» afirmación de que Jensen Huang, de NVIDIA, ha tenido suerte, pero profundiza más para justificarla.

Las GPU han cobrado protagonismo en las tecnologías de inteligencia artificial, y NVIDIA es ahora una de las empresas más valiosas del mundo, mientras Intel está en crisis. Pero no siempre fue así. Hace 15-20 años, los procesadores Intel dominaban la informática porque podían manejar todas las cargas de trabajo habituales. Durante esta época, Intel perdió una oportunidad con Larrabee, un proyecto que intentaba crear una GPU utilizando x86 NVIDIA apuesta por las GPU — y ganó.

«La CPU era el rey de la montaña [a mediados de la década de 2000], y aplaudo a Jensen por su persistencia en decir simplemente: «No, no estoy intentando construir uno de esos, estoy intentando hacer la carga de trabajo empezando por los gráficos. Ya sabes, se convirtió en una visión más amplia. Y entonces tuvo suerte con la inteligencia artificial, y un día que estaba discutiendo con él, me dijo: «No, realmente he tenido suerte con la carga de trabajo de IA porque requiere este tipo de arquitectura,» dijo Gelsinger.

Una de las razones por las que Larrabee fue cancelada como GPU en 2009 fue su incapacidad para competir con AMD y NVIDIA en aquel momento. En cierta medida, esto se debió al deseo de Intel de que Larrabee fuera lo más programable posible, lo que se tradujo en la ausencia de nodos clave de la GPU con funciones fijas como las unidades de operaciones de trama. Esto afectó al rendimiento y aumentó la complejidad del desarrollo de software.

«Yo tenía un proyecto muy conocido en la industria llamado Larrabee que intentaba combinar la programabilidad de la CPU con una arquitectura [GPU] orientada al ancho de banda, y creo que si Intel hubiera seguido por ese camino, ya sabes, el futuro podría haber sido diferente. Siento un gran respeto por Jensen, [porque] se mantuvo fiel a la informática de rendimiento».

A diferencia de las GPU de AMD y NVIDIA, que utilizan una arquitectura de conjunto de instrucciones (ISA) propia, Larrabee de Intel utilizaba la ISA x86 con extensiones específicas. Esto suponía una ventaja para las cargas de trabajo de computación paralela de propósito general, pero una desventaja para las aplicaciones gráficas.

«Hoy estamos pensando en la carga de entrenamiento, vale, pero tendrás que dar algo mucho más optimizado para la inferencia. Sabes que las GPU son demasiado caras — Digo que es 10.000 más caro de lo que necesitas [en esta fase]».

Como resultado, Intel Larrabee se reintrodujo como el procesador Xeon Phi para superordenadores en 2010. Sin embargo, no ganó popularidad a medida que las arquitecturas de GPU tradicionales adquirían capacidades de computación de propósito general a través del marco CUDAasí como las API OpenCL/Vulkan y DirectCompute. Después de que Xeon Phi no cumpliera las expectativas, Intel abandonó el proyecto. Quién sabe, quizá en algún momento NVIDIA pierda su ventaja por el excesivo precio de sus soluciones, como Intel la perdió por su inadaptación técnica.

Fuentes: Tom`s Hardware, Wccftech