Обзоры
Обзор видеокарты NVIDIA GeForce GTX 690

Обзор видеокарты NVIDIA GeForce GTX 690


Двухчиповые видеокарты – совершенно особый вид графических адаптеров. Разработчики заслуженно гордятся такими продуктами, но всегда скромно умалчивают о доле подобных устройств в общих объемах продаж. Эти модели априори не относятся к числу массовых и не расходятся миллионными тиражами. Однако такие видеокарты наделены особой притягательной магией. Для разработчиков это прекрасная возможность продемонстрировать свой потенциал, а пользователям – обзавестись безудержно производительным решением. Несколько подзадержавшись с анонсом решений с новой графической архитектурой, компания NVIDIA спустя лишь месяц после анонса топовой GeForce GTX 680 представила двухчиповую модель с парой графических процессоров GK104 на борту. Исследуем возможности нового флагмана графической линейки калифорнийцев – GeForce GTX 690.

GeForce GTX 690

Очередной носитель архитектуры NVIDIA, основанный на двух чипах GK 104, в общей сложности имеет 3072 потоковых вычислителя CUDA. Базовая частота GPU – 915 МГц, при этом GPU Boost позволяет ядрам динамически ускоряться более чем на 100 МГц – до 1019 МГц. Отметим, что тактовые частоты графических процессоров, хотя и ниже, чем у такового для GeForce GTX 680, но отличие не столь велико, к тому же модель с двумя GPU использует более агрессивный алгоритм динамического ускорения.

Видеокарта оснащена 4 ГБ памяти GDDR5, которая работает на 6008 МГц. Каждому чипу доступны 2 ГБ, которые связаны с соответствующими процессорами 256-битовой шиной. Для подключения дополнительного питания понадобится два 8-контактных разъема. Заявленный уровень TDP сравнительно невелик, как для двухчипового решения – 300 Вт. При этом требования к мощности блока питания также довольно скромные: системе с GeForce GTX 690 будет достаточно 650-ваттного БП. Как и остальные адаптеры с чипами на Kepler, видеокарта готова к работе с PCI Express 3.0, пропускная способность которой вдвое выше, чем у шины предыдущего стандарта. Напомним, что для функционирования в режиме 3.0, новую версию интерфейса должны поддерживать процессор, в котором собственно содержится сам контроллер, материнская плата, а также видеокарта.

Дизайнеры отлично поработали над экстерьером видеокарты. Для верхней крышки применяется не традиционный для этого элемента пластик, а хромированный алюминий. При этом кожух адаптера не является цельным, через поликарбонатные окна можно увидеть радиаторные кассеты c набором пластин. Видеокарта выглядит очень стильно и эффектно.

Интерфейсная панель содержит три разъема DVI DL (2хDVI-I и DVI-D) и один Mini DisplayPort 1.2, каждый из которых может выводить картинку с разрешением до 2560х1600. Как и одночиповые модели на GK104, GeForce GTX 690 позволяет одновременно использовать четыре монитора. Часть крепежной пластины занимает решетка для выхлопа нагретого воздуха.

С обратной стороны адаптера в защитном кожухе предусмотрена рама, также предназначенная для вывода воздуха. В этот раз он будет уже поступать внутрь системного блока, потому подумать о дополнительной вентиляции системы не помешает.

На верхней кромке нанесена надпись «GEFORCE GTX», которая подсвечивается во время работы видеокарты. В целом визуально видеокарта выглядит очень стильно и эффектно, в этом отношении разработчики отлично справились со своей задачей.

Не меньше внимания уделено и внутреннему убранству. Каркас системы охлаждения выполнен из магниевого сплава. В конструкции СО используется две испарительные камеры с наборами никелированных алюминиевых пластин. Радиатор продувается 90-миллиметровым вентилятором осевого типа, установленным в центральной части видеокарты. Особо отметим, что система охлаждения занимает два слота, не посягая на пространство, предназначенное для других плат расширения.

Печатная плата концептуально отчасти похожа на ту, что использовалась для двухчиповой видеокарты предыдущего поколения – GeForce GTX 590. В данном случае применяется 10-слойная PCB и низкопрофильные качественные компоненты. Силовая подсистема использует 10-фазную схему – по пять фаз для каждого GPU, а также две отдельные фазы для питания памяти. Согласование работы обоих графических ядер производится с помощью скоростного моста PLX PEX8747, имеющего пропускную способность, соответствующую спецификации PCI Express 3.0.

С обратной стороны печатной платы нет никаких защитных пластин. Силовые компоненты здесь отсутствуют, потому с практической точки зрения в подобных элементах нет необходимости.

На верхней кромке PCB, ближе к крепежной пластине, расположен разъем для подсоединения моста позволяющего объединить две подобные видеокарты. Отметим, что коннектор всего один, а не два, как у многих производительных решений с чипами от NVIDIA. По понятным причинам, пары GeForce GTX 690 достаточно, чтобы получить максимально возможную графическую конфигурацию Quad SLI.

ZOTAC GeForce GTX 690 (ZT-60701-10P)

Референсный дизайн GeForce GTX 690 на начальном этапе будет использоваться для всех сдвоенных видеокарт, потому не удивительно, что первая коробочная версия адаптера от ZOTAC является полной копией тестового семпла от NVIDIA. Отличие заключается в имеющейся на нижней грани наклейке, позволяющей определить принадлежность устройства к определенному бренду.

Тактовые частоты графических процессоров и ОЗУ соответствуют рекомендуемым – 915/1019 МГц для GPU и 6008 МГЦ для 4 ГБ (2×2 ГБ) память GDDR5.

Устройство попало к нам на тестирование в ритейловой коробке, потому несколько слов о сопутствующей комплектации.

В поставку включены руководство, диск с драйверами, пара переходников с 6- на 8-контактные разъемы 12В для подключения дополнительного питания, а также переходник с DVI на аналоговый VGA. Кроме того, в коробке имеется набор из трех игр серии Assassin’s Creed, включая последнюю – Revelations, а также купон на трехдневные заезды в TrackMania2 Canyon. То, что есть – уже неплохо. Но, пожалуй, для устройства, которое попадет в розничную продажу по цене $1000+, не помешало бы сдобрить комплект какими-либо дополнительными бонусами (как минимум, переходниками Mini DisplayPort на полноформатный разъем и DVI-HDMI).

Конфигурация тестового стенда

Процессор Intel Core i7-3770K @ 4,5 ГГц Intel, www.intel.ua
Кулер Thermalright Archon Rev.A «1-Инком», www.1-incom.com.ua
Материнская плата MSI Z77A-GD65 (Intel Z77 Express) MSI, ua.msi.com
Оперативная память Team Xtreem TXD38192M2133HC9KDC-L (2×4 ГБ DDR3-2133) DC-Link, www.dclink.com.ua
Накопитель WD WD1001FALS (1 ТБ, 7200 об/мин) WD, www.wdc.com
Блок питания Thermaltake Toughpower Grand TPG-1200M (1200 Вт) Thermaltake, www.thermaltakeusa.com

В работе

Устанавливая топовую двухчиповую видеокарту, подсознательно готовишься к тому, что сейчас все начнет шуметь и греться. На практике с GeForce GTX 690 такого не происходит.


Во время работы на открытом стенде в режиме покоя графические процессоры прогрелись всего до 28 С. Вентилятор на 1150–1200 об/мин работает очень тихо. После хорошей игровой нагрузки в нашем случае температура GPU повысилась всего до 71 градуса, а скорость вращения вентилятора приблизилась к 2000 об/мин. Шум, издаваемый системой охлаждения увеличился, но если сравнивать его с таковым, издаваемым референсным кулером GeForce GTX 680, то эти величины сопоставимы. Пара одночиповых видеокарт определенно будут несколько голосистее одной GTX 690.

Общая эффективность системы охлаждения, конечно, впечатляет. Однако условия окружающей среды на открытом стенде и в корпусе заметно отличаются. Потому еще раз акцентируем внимание на организации принудительного вывода нагретого воздуха за пределы системного блока. Как минимум, один 120-миллиметровый вентилятор на задней стенке корпуса, работающий на выдув, в данном случае точно не будет лишним.

Говоря о нюансах работы видеокарты, следует отметить частотные особенности графического ядра. Алгоритм работы динамического разгона GPU Boost в данном случае весьма агрессивен. Учитывая то, что штатным значением является 915 МГц, даже при плотной нагрузке чип «выстреливал» до 1058 МГц. Заявленные же производителем 1019 МГц скорее являются неким промежуточным значением. В действительности дельта может составлять более 140 МГц, но, опять же, величина эта не постоянная и варьируется в зависимости от нагрузки, нагрева и уровня энергопотребления.

GeForce GTX 690 в режиме Quad SLI

Если не учитывать финансовую сторону вопроса, создать конфигурацию Quad SLI с GeForce GTX 690 проще простого. Для системы с четырьмя графическими процессорами необходима пара таких видеокарт. Имея на руках две GeForce GTX 690, мы не могли упустить возможность ощутить мощь четырех GK104, работающих в одной упряжке.

Помимо видеокарт, для сборки системы понадобится материнская плата с двумя слотами PCI Express x16, позволяющая использовать два графических адаптера в SLI-режиме. В нашем случае использовалась модель на чипсете Intel Z77, вполне удовлетворяющая эти требования. После установки видеокарт и объединения их мостиком-переходником система готова к работе.


С программной настройкой тоже никаких проблем не возникло. NVIDIA Control Panel рапортует об активации режиме Quad SLI.


Создавая подобную систему, особое внимание стоит уделить блоку питания. Для конфигурации с одной GeForce GTX 690 разработчик рекомендует использовать 650-ваттный БП. Используя две такие видеокарты, стоит подумать о хорошей модели мощностью 1000–1200 Вт.

Результаты тестирования

В отсутствии реального конкурента в лице двухчиповой модели от AMD с парой GPU Tahiti XT, превосходство GeForce GTX 690 над любой видеокартой с одним графическим процессором не вызывает сомнений. Мы провели ряд практических тестов, чтобы оценить насколько велико преимущество новинки и оправдывает ли она свою цену. Специально для техногурманов также включены результаты замеров производительности связки Quad SLI.



Неудивительно, что синтетические приложения, предназначенные для оценки производительности платформ, чутко реагируют на изменение возможностей конфигураций. В обоих пакетах от Futuremark двухчиповая новинка имеет серьезное преимущество над GTX 680 – 65–75%. Использование второй GTX 690 приносит дополнительные 45% «попугаев» в 3DMark Vantage. Последняя версия пакета получше оптимизирована, возможности графической подсистемы более весомы в общем результате. Потому Quad SLI приносит 81%-ную прибавку скорости.


В Heaven Benchmark 2.5 двухголовая видеокарта, в зависимости от разрешения, имеет преимущество в 83–91% над GTX 680. Вторая видеокарта в режиме Full HD приносит дополнительные 59%, а при 2560×1440 – порядка 77%.


Если ситуация в синтетике представляет чисто академический интерес, то вот тесты в реальных играх переводят исследование в практическую плоскость. Весьма технологичных шутер Lost Planet 2 как-то без энтузиазма воспринял увеличение количества графических процессоров. И если GTX 690 еще имеет ощутимое преимущество (23–58%) над GTX 680, то использование второй двухчиповой видеокарты приносит очень и очень скромные 9–16%.


Одному из самых ненасытных пожирателей системных ресурсов – игре Metro 2033 – режимы SLI нравятся в любом виде и количестве. 56–63% – таково преимущество GTX 690 над GTX 680. Вторая двухчиповая видеокарта приносит еще 66% в режиме с высоком разрешением. Наконец-то уже можно собрать конфигурацию, которая позволит комфортно поиграть в детище 4A Games с максимальным качеством на мониторах 27–30”. В 1920×1080 количество кадров/c увеличилось на 31%. Очевидно здесь уже сказывается возможности центрального процессора.


Dirt3 заметно оживился после установки двухчиповой GeForce GTX 690 (+46-74% к результатам GTX 680), а вот с Quad SLI достойно совладать не сумел, даже в высоком разрешении (+14%). Здесь скорее сказывается особенность игрового движка, потому как в 1920х1080 полученная разница с результатами для GTX 680 была даже выше – порядка 18%, что в целом не характерно для других приложений.


Aliens vs. Predator оказалась едва ли не эталоном эффективного использования ресурсов графической подсистемы в реальных условиях. В данном случае GTX 690, графические чипы которого работают на меньшей частоте, чем у GTX 680, но их два, вместо одного, смогла на 90–92% опередить последнего. Ну, а когда две GTX 690 работают в паре, скорость отрисовки кадров возрастает еще на 74–82%. Если же сравнивать результаты платформы с Quad SLI и одной GeForce GTX 680, то их производительность отличается в 3,5 раза.


На первый взгляд не слишком притязательная к ресурсам Mafia II также с благосклонностью относится к увеличению числа GPU – GeForce GTX 690 опережает одночипового флагмана NVIDIA на 63–75%. Quad SLI приносит 56%-ную прибавку в 2560х1440, а вот в разрешении Full HD прирост уже не столь убедительный – всего 16%. С другой стороны, нужен ли он при 150 кадрах/c, вопрос риторический.

Говоря о производительности двухчиповой видеокарты, следует помнить о том, что мы имеем дело с SLI-режимом работы GPU. В этом случае скоростные показатели очень сильно зависят от программной оптимизации, как игровых движков, так и драйверов. NVIDIA активно работает с разработчиками и оперативно оптимизирует свое ПО


Энергопотребление системы с GeForce GTX 690 во время хорошей игровой нагрузки оказалось примерно на 130 Вт выше, чем у идентичной платформы c GeForce GTX 680. С одной стороны, разница ощутимая, с другой – такая конфигурация очевидно будет экономичнее ПК с парой GeForce GTX 680, работающих в SLI-режиме. Системе с разогнанным до 4,5 ГГц процессором Core i7-3770K и Quad SLI потребуется порядка 800 Вт, а если платформа собрана с щестиядерным CPU или топовыми чипами AMD, то энергопотребление будет еще выше. Это стоит учитывать при выборе БП.

Итоги

На сегодняшний день GeForce GTX 690 – самая быстрая видеокарта в мире. О целесообразности покупки графического адаптера за $1000 можно дискутировать довольно долго. Конечно, ценник с тремя нулями серьезно ограничивает круг потенциальных владельцев GeForce GTX 690, но в том, что она найдет своего покупателя, нет никаких сомнений. Прежде всего, это достаточно обеспеченные энтузиасты, которым нужна максимально возможная производительность. Вряд ли откажутся от подобной видеокарты и владельцы конфигураций с несколькими крупноформатными мониторами. Сдвоенная модель приносит серьезный прирост производительности, который возрастает с увеличением разрешения и улучшением настроек качества картинки. Никаким разгоном видеокарты с одним GK104 добиться таких же результатов не удастся.

Новинка может стать более практичным решением для тех, кто изначально планировал покупку пары GeForce GTX 680. Единственным весомым недостатком GeForce GTX 690, пожалуй, является ее высокая стоимость. Ждем аналогичное конкурентное решение от AMD, надеясь, что оно будет доступнее, потому как видеокарта по цене неплохой игровой системы скорее привлечет лишь тех, кто за ценой не постоит.

Устройства на тестирование предоставлены компаниями NVIDIA, www.nvidia.com и ZOTAC, www.zotac.com


Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: