Intel Larrabee: запутавшаяся в терниях

В течение полутора лет мы не уставали спрашивать у представителей ATI и NVIDIA, что они думают об угрозе их бизнесу со стороны Intel. Ответ всегда был примерно одинаков: "На бумаге Larrabee, конечно, впечатляет, но идея — это одно, а ее практическое воплощение — совсем другое. А уж внедрение — и вовсе третье. У нас за плечами десятилетия опыта, в отличие от некоторых". Так и получилось.

Амбициозные планы Intel представить "убийцу" дискретных видеокарт конкурентов провалились, и, вероятнее всего, вовсе не потому, что красиво выглядящая на бумаге архитектура оказалась неработоспособной "в кремнии". Компания лишь недавно показала прототип, выполнявший бенчмарк SGEMM с быстродействием 1 TFLOPs, что является довольно впечатляющим результатом для устройства, которое должно было быть окончательно отлажено и представлено публике лишь через год. Напомню, что ATI RV790 (Radeon HD 4890) теоретически способен обеспечить 1,36 TFLOPs, на практике же производительность заметно ниже. Правда, стоит учитывать, что Larrabee должна была выйти осенью 2010 года, когда балом правили бы Radeon HD 5870 (2,72 TFLOPs) и NVIDIA Fermi (~2.5 TFLOPs), однако кто знает, может, Intel бы нарастила производительность отлаженными драйверами или увеличила число ядер. В конце концов, необязательно было сразу целиться в топовый сегмент: если бы новая архитектура смогла составить конкуренцию массовым продуктам ATI и NVIDIA, это уже бы было достижением.

Вероятнее всего, решение отменить выход Larrabee в том виде, в котором она существует сейчас, и продолжить разработку архитектуры вызвано именно самым важным "отягчающим обстоятельством", на которое указывали абсолютно все, обсуждавшие ее: полным отсутствием программной поддержки архитектуры. Не зря Intel не просто положила нынешнее поколение на полку или отправила в музей, а сделала ее Development Kit-ом. Пройдет пара лет, и мы наверняка станем свидетелями появления ПО, оптимизированного под специфику Larrabee — большое число x86-совместимых ядер. Естественно, без такой оптимизации "софта" архитектуру в следующем году ждал бы провал: какой бы она ни была быстрой, фактически программное исполнение DirectX- и OpenGL-кода на x86-архитектуре "тормозить" должно просто ужасно. Не зря на IDF демонстрировался не настоящий движок Enemy Territory: Quake Wars с "прикрученным" рейтресингом, а полностью перенесенная в самостоятельно написанный Intel рендерер сцена из этой игры, со всеми объектами, источниками освещения и т.п. С уже существующим ПО, использующим GPGPU, также бы напрямую работать не удалось: Larrabee "умнее" традиционных графических архитектур, и программировать под нее пришлось бы отдельно.

В общем, интересная разработка Intel разбилась о суровую реальность: если устройство не в чем использовать, оно никому не нужно, независимо от его "продвинутости" и перспективности. С наскока покорить индустрию графических акселераторов у Intel не получилось, видимо, придется идти длинным путем.