Рубрики Обзоры

Обзор NVIDIA GeForce GTX 680

Опубликовал
Олег Касич

В конце марта компания NVIDIA представила графическую архитектуру Kepler и первую видеокарту, основанную на GPU нового поколения – GeForce GTX 680. Данное решение является непосредственным конкурентом для топового Radeon HD 7970 от AMD, который увидел свет на три месяца раньше и все это время заслуженно обладал титулом самой быстрой одночиповой видеокарты в мире. Посмотрим, смогут ли калифорнийцы вернуть себе утраченные позиции в сегменте Hi-End и наглядно продемонстрировать, какой же должна быть игровая видеокарта, чтобы оправдать цену в $500?

Довольно длительное время NVIDIA задавала тон в сегменте наиболее мощных графических решений. По части производительности вряд ли можно было предъявить претензии к решениям калифорнийцев, основанных на архитектуре Fermi. GeForce GTX 480, а затем и GTX 580, длительное время оставались наиболее скоростными устройствами на рынке. Достойное оснащение и производительность, активная работа компании с разработчиками игр и хорошая драйверная поддержка обеспечивали владельцам подобных видеокарт вполне достаточные возможности, чтобы не испытывать дискомфорта в любой современной игре. Наибольшие нарекания вызывала, разве что, сравнительно высокая энергоемкость решений, что шлейфом тянуло за собой вопросы с отводом тепла, шумностью системы охлаждения и повышенными требованиями к мощности блоков питания. К тому же вопрос с энергопотреблением еще более актуален в случае с дискретной графикой для мобильных систем. Там лишние ватты равнозначны уменьшению времени автономной работы, что явно идет в разрез с нынешним направлением развития ноутбуков.

NVIDIA Kepler

Логично, что многое для Kepler взято из предыдущей разработки NVIDIA – архитектуры Fermi. Однако, и принципиальных изменений довольно много, что не позволяет назвать ее лишь модернизированной версией предыдущего поколения.

Онлайн-курс "Маркетингова аналітика" від Laba.
Опануйте інструменти для дослідження ринку й аудиторії та проведення тестувань.Дізнайтесь, як оптимізувати поточні рекламні кампанії та будувати форкасти наступних.
Детальніше про курс

Как и прежде, основными строительными блоками решения, являются вычислительные кластеры Graphics Processing Clusters (GPC). GK104 состоит из четырех таких модулей, каждый из которых включает по два потоковых мультипроцессора (SMX, в версии Fermi – SM (Streaming Multiprocessor)). Последние были основательно переработаны, и это одно из наиболее принципиальных отличий Kepler от предшествующей архитектуры.

Количество вычислительных процессоров (CUDA Cores) в модуле увеличилось в 6 раз – с 32 до 192. Однако, если ранее они работали на удвоенной частоте, то теперь – на базовой.

В случае с 40-нанометровым чипом, нарастить количество вычислителей было проблематично из-за непозволительно увеличивающейся площади кристалла, который у GTX 580 и так достаточно крупный.

В GK104 была основательно обновлена управляющая логика. Быстродействие ключевых модулей увеличено, удвоено количество текстурных блоков. По совокупности, помимо наращивания вычислительной производительности, такой подход позволил получить более энергоэффективное решение, что было приоритетным заданием при разработке Kepler.

 

Мы уже достаточно детально рассказывали о нововведениях, которые получили адаптеры NVIDIA, основанные на чипах с архитектурой Kepler. Еще раз выделим ключевые особенности новинок.

GPU Boost

Чип GK104 использует технологию динамического авторазгона. Алгоритм работы данного механизма нетривиален. Специальный модуль в режиме реального времени оценивает нагрузку, температуру и энергопотребление видеокарты, и если параметры находятся в допустимых рамках, он увеличивает рабочую частоту и напряжение питания GPU, тем самым повышая его быстродействие. Основной принцип – сделать все возможное, чтобы под нагрузкой решение обеспечило максимальную производительность, которую удастся получить без превышения заданного уровня TDP. Во время работы тактовая частота чипа может повышаться на 100 МГц от базовой, однако это значение не постоянное, оно варьируется в зависимости от характера нагрузки.

FXAA

NVIDIA обратила отдельное внимание на те аспекты, которые чаще всего вызывают нарекания со стороны пользователей (конечно, если не говорить о производительности и цене). Одним из таковых является сглаживание изображения. Пресловутая «лесенка» на стыках текстур порой настолько заметна, что отвлекает от игрового процесса. Разработчики графических чипов уже достаточно давно и небезуспешно борются с этим эффектом. Существуют различные алгоритмы обработки изображений и отдельных элементов сцены. Безотказный суперсемплинг (SSAA) очень эффективен, однако расходует непозволительное количество ресурсов видеокарты.

NVIDIA предлагает активнее использовать Fast Approximate Anti-Aliasing (FXAA), который фактически является более прогрессивным MSAA с определенной обработкой сцены на финальной стадии рендеринга. Такой подход позволяет избегать ряда недостатков присущих оригинальной MSAA, кроме того разработчик заявляет о меньшей ресурсоемкости FXAA, и, соответственно, более высокой производительности (+60% в сравнении с х4 MSAA).

С выходом драйверов 300-ой серии, FXAA может быть использована в приложениях, где ранее не задействовался аппаратный антиалиазинг, а также применятся совместно с другими режимами сглаживания для общего улучшения качества изображения.

TXAA

NVIDIA также представила новый формат сглаживания – TXAA. Он основан на аппаратном мультисемплинге MSAA, который дополнен специальным программным фильтром для постобработки. Благодаря высокой текстурной производительности Kepler, такое решение может быть достаточно эффективно.

Разработчик предлагает использовать два режима – TXAA1 и TXAA2. Первый позволяет получить качество изображения сравнимое с тем, что получается при использовании режима сглаживания 8x MSAA, при этом обеспечивается производительность на уровне 2х MSAA, второй дает еще лучший визуальный эффект, но нагружает GPU как 4х MSAA.

Adaptive VSync

Вертикальная синхронизация позволяет добиться хорошей плавности картинки, исключая визуальные разрывы сцены, которые можно наблюдать в том случае, если реальное количество кадров/c превышает частоту вертикальной развертки. Для большинства ЖК-мониторов это 60 Гц. Однако при снижении производительности возможны визуально заметные скачки с 60 на 30 кадров/c

NVIDIA предлагает использовать адаптивную вертикальную синхронизацию Adaptive VSync, которая активируется с учетом текущей производительности. В тот момент, когда система не может обеспечить отрисовку картинки с частотой 60 кадров/c, вертикальная синхронизация автоматически отключается и вновь активируется как только система выдает более 60 кадров/c. Такой режим позволяет получить более плавную «бесшовную» картинку. Для игр, где средняя производительность колеблется на уровне 25–40 кадров, можно использовать «половинчатый» режим (half refresh rate) с ограничителем в 30 кадров/c.

Блок кодирования NVENC

Чип с архитектурой Kepler обзавелся аппаратным блоком кодирования видео в формат H.264 – NVENC. Ранее также можно было использовать ресурсы GPU для обработки видеопотока, однако для этого использовались потоковые процессоры ядра. Специализированный блок позволит выполнять ту же задачу, при этом значительно экономнее расходовать электроэнергию. Что касается производительности, то разработчик обещает ускорить процесс в 4–8 раз по сравнению с режимом реального времени.

Для использования возможностей модуля понадобится соответствующая программная поддержка. В частности задействовать NVENC уже умеет утилита MediaEspresso от Cyberlink.

Мультимониторные конфигурации

GeForce GTX 680 позволяет одновременно использовать четыре экрана, для подключения которых не требуется дополнительное оборудование или переходники. При этом три дисплея могут выводить стереокартинку, работая в режиме 3D Vision Surround. Заявлена поддержка разрешений вплоть до 3840×2160.

GeForce GTX 680

Рассмотрим спецификацию нового флагмана NVIDIA:


Графическое ядро теперь суммарно содержит 1536 потоковых процессоров (у GTX 580 – 512). GPU работает с частотой 1006 МГц. Однако, это некое базовое значение, потому как в процессе работы чип может автоматически ускоряться и функционировать на более высокой частоте (1110 МГц). Потому введен дополнительный параметр Boost Clock, указывающее на некоторое усреднённое значение. Объем памяти составляет 2 ГБ, при этом для доступа к ОЗУ используется 256-битовая шина. Эта особенность GTX 680, пожалуй, является наиболее спорной. Предшественник, равно как и топовое решение конкурента, используют 384-битовую шину. Чтобы получить пропускную способность памяти, аналогичную той, что располагает GTX 580, NVIDIA пришлось увеличить тактовую частоту GDDR5 до 6 ГГц. Да и объем в 2 ГБ, на фоне 3 ГБ у конкурента и предыдущего флагмана NVIDIA, выглядит не очень внушительно. Для конфигураций с одним дисплеем этого будет вполне достаточно, а вот при подключении нескольких дисплеев высокого разрешения могут возникнуть вопросы.

Тепловой пакет на уровне 195 Вт – прекрасный показатель для видеокарты такого уровня. Указанный TDP позволяет обойтись всего двумя шестиконтактными разъемами дополнительного питания. Ранее подобная конфигурация была доступна скорее адаптерам среднего уровня. Отметим также поддержку PCI-Express 3.0 и наличие четырех цифровых видеовыходов – 2хDVI, HDMI и DispayPort.

Для сравнения представим ключевые характеристики предшественника и основного конкурента GeForce GTX 680.

GeForce GTX 680 GeForce GTX 580 Radeon HD 7970
Наименование кристалла GK104 GF110 Tahiti XT
Техпроцесс производства, нм 28 40 28
Площадь кристалла, мм² 294 520 365
Количество транзисторов, млрд 3,54 3 4,31
Тактовая частота GPU, МГц 1006/1058 772 925
Количество потоковых процессоров 1536 512 2048
Количество текстурных блоков 128 64 128
Количество блоков растеризации 32 48 32
Память (тип, объем), МБ GDDR5, 2048 GDDR5, 1536/3072 GDDR5, 3072
Шина памяти, бит 256 384 384
Эффективная тактовая частота памяти, МГц 6008 4008 5500
Пропускная способность памяти, ГБ/c 192 192 264
Энергопотребление, Вт 195 244 250
Рекомендованная цена $500 $400/500 $550

Видеокарты

Возможности GeForce GTX 680 мы изучали на примере двух адаптеров:

ASUS GTX680-2GD5

ZOTAC ZT-60101-10P

Обе модели основаны на референсном дизайне и минимально отличаются лишь внешним оформлением и комплектацией. Последняя стоит отдельного упоминания. Поставка адапетра от ASUS по-спартански проста – помимо диска с драйверами и утилитами, в комплекте лишь один переходник питания с molex на шестиконтактный разъем. ZOTAC включила в комплект со своей GTX 680 пару аналогичных переходников питания, DVI-VGA, и в качестве бонуса предлагает набор из трех игр серии Assassin’s Creed, включая последнюю – Revelations, а также купон на трехдневные заезды в TrackMania2 Canyon.

Рассмотренные нюансы работы характерны для обоих адаптеров, равно как и для других идентичных устройств на основе базовых PCB и системы охлаждения.

Как и предшественник, внешне видеокарта напоминает увесистый брусок, который после установки на материнскую плату займет два слота расширения. Система охлаждения адаптера надежно прикрыта пластиковой крышкой, взору доступен лишь центробежный вентилятор на верхней панели.

На фиксирующей пластине размещены четыре интерфейсных разъема – пара DVI (один из них DVI-D, второй – DVI-I), HDMI версии 1,4а и DisplayPort 1.2. Часть площадки занимает решетка для вывода нагретого воздуха. При этом, чтобы уменьшить сопротивление, вентиляционные прорези есть даже между портами HDMI и DVI.

На верхней грани адаптера красуется логотип «GeForce GTX», причем это не банальная наклейка – надпись получена литьем при изготовлении верхней крышки. У края PCB размещены два шестиконтактных разъема для подключения дополнительного питания, причем расположены они друг над другом с определенным смещением. Ранее такой конструктивный подход не применялся. Что любопытно, при подсоединении коннекторов, фиксирующие защелки оказываются повернуты друг к другу, однако разность уровней не затрудняет подсоединение кабелей.

Традиционно, ближе к крепежной пластине размещены MIO-разъемы для подключения SLI-мостиков, позволяющие создать конфигурацию с несколькими видеокартами. Наличие пары коннекторов говорит о том, что таких адаптеров может быть два, три или четыре.

Печатная плата выполнена на текстолите черного цвета. Длинна PCB – 254 мм. Графический процессор расположен в центральной части. С трех сторон от GPU распаяны 8 микросхем памяти. В отличие от GF110, новый чип не имеет теплораспределительной крышки. От возможного скола при манипуляциях с кулером кристалл убережет защитная рамка. Силовая подсистема и подавляющее большинство элементов поверхностного монтажа сконцентрированы в правой части платы. При этом элементы стабилизатора имеют непривычную горизонтальную ориентацию. В данном случае используется шестифазная схема «4+2». Любопытно что на плате имеются посадочные места для компонентов еще одной фазы. Кроме того, у верхнего торца пустует площадка для третьего шестиконтактного разъема питания.

Общая концепция референсной системы охлаждения типична для адаптеров такого уровня. Кулер включает теплосъемник с кассетой, состоящей из алюминиевых пластин, которая продувается с помощью радиального вентилятора. Габаритная металлическая рама помимо того, что служит общим каркасом СО, через термопрокладки контактирует с чипами памяти и силовыми элементами стабилизатора.

Радиаторный модуль не так прост, как кажется на первый взгляд. Хотя здесь нет испарительной камеры, вместо нее в основании запрессованы три тепловые трубки, которые позволяют ускорить отвод тепла, равномерно распределяя его по всей поверхности теплосъемника.

Эффективность и уровень шума подобных систем охлаждения зависит от конкретной реализации. Неоспоримое же преимущество СО такого типа – вывод основной массы нагретого воздуха за пределы системного блока.

В работе

Последняя версия диагностической утилиты GPU-Z без проблем опознает GeForce GTX 680, подтверждая указанные характеристики.


В режиме покоя графический чип прогревается всего до 34 градусов, при этом скорость вращения вентилятора лишь немногим превышает 1000 об/мин. После достаточно продолжительной игровой сессии температура GPU повысилась до 79 °С, а частота пропеллера увеличилась до 2200–2300 об/мин. Любопытно, что в Furmark также были получены идентичные результаты. Причиной тому стала работа технологии GPU Boost. Во время реальной игры тактовая частота чипа периодически увеличивалась с базовых 1006 МГц до 1110 МГц, при этом напряжение питания также поднималось до 1,150–1,175 В. В прогревочной же утилите адаптер работал в другом режиме – частота GPU не превышала 1045 МГц, а максимальное напряжение питания было 1,087–1,1 В. Такие параметры позволяли видеокарте находится в рамках отведенного TDP и не перегреваться.

Здесь стоит уточнить, что, несмотря на схожую частоту вращения вентиляторов, штатный кулер GeForce GTX 680 работает заметно тише таковых у Radeon HD 7970 и GeForce GTX 580. Конечно, под нагрузкой он далеко не бесшумен, но при прочих равных условиях выглядит предпочтительнее, чем охладители предшественника и конкурента.

Конфигурация тестового стенда

Процессор Intel Core i7-2600K@4,2 ГГц Intel, www.intel.ua
Кулер Thermalright Archon Rev.A «1-Инком», www.1-incom.com.ua
Материнская плата MSI Z68A-GD65 (G3) (Intel Z68 Express) MSI, ua.msi.com
Видеокарты ASUS ENGTX580/2DI/1536MD5 (GeForce GTX 580), ASUS HD7970-3GD5 (Radeon HD 7970) ASUS, www.asus.ua
Оперативная память Team Xtreem TXD38192M2133HC9KDC-L (2×4 ГБ DDR3-2133) DC-Link, www.dclink.com.ua
Накопитель WD WD1001FALS (1 ТБ, 7200 об/мин) WD, www.wdc.com
Блок питания Thermaltake Toughpower Grand TPG-1200M (1200 Вт) Thermaltake, www.thermaltakeusa.com

Результаты тестирования

Теперь, наконец, о самом интересном – результатах теста производительности. Чтобы оценить возможности GeForce GTX 680, экзаменовать новинку будет ее непосредственный конкурент от AMD – Radeon HD 7970, а также предшественник – GeForce GTX 580, полтора года продержавшийся на графическом Олимпе.

Чистая синтетика от Futuremark далеко не всегда показательна, но в качестве «пристрелочных» классические тесты от этого разработчика вполне годятся. 3DMark Vantage регистрирует довольно скромное 3%-ное преимущество GeForce GTX 680 над Radeon HD 7970, тогда как показатели предшественника новинке удалось улучшить на 21%.

В более новой и технологичной 3DMark 11 видеокарта GeForce GTX 680 уверенно обходит графического флагмана AMD, опередив Radeon HD 7970 на весомые 18%. Ну, а 39%-ный прирост производительности в сравнении с таковой для GeForce GTX 580 говорит о том, что калифорнийцы очень неплохо поработали над Kepler.

Дополнительное тому подтверждение – фактически идентичные показатели в Heaven Benchmark 2.5. Казалось бы, только-только AMD удалось перещеголять NVIDIA в случаях с активным использованием тесселяции, как последняя вновь представила более скоростное решение для подобных условий.

Впрочем, отметим, что при увеличении разрешения с 1920×1080 на 2560×1600, разрыв между GTX 680 и HD 7970 в данном бенчмарке значительно сократился – с 18% до 8%, тогда как разница с предшественником практически не изменилась.

Что же, в синтетических тестовых приложениях для GeForce GTX 680 картина вырисовывается довольно безоблачная. Посмотрим, как обстоят дела в реальных играх.

Lost Planet 2, движок которой в режиме DirectX 11 активно использует тесселяцию, наложение карт смещения со сложными геометрическими объектами и другие возможности современного API, явно более благосклонен к решением от NVIDIA. По результатам GeForce GTX 680 опережает Radeon HD 7970 на 20% в разрешении 1920х1080 и 13,5% в 2560×1600. Недавний флагман с архитектурой Fermi, вне зависимости от разрешения, отстает от нынешнего лидера примерно на 35%.

Особенности и нюансы графических движков могут серьезно влиять на производительность решений с чипами, имеющими принципиально различную архитектуру. Metro 2033 тому наглядный пример. Здесь GeForce GTX 680 хотя и улучшил достижения своего предшественника, но до показателей Radeon HD 7970 добраться ему не удалось – их разделяет 8%-ная разница в режиме Full HD, которая с увеличением разрешения лишь увеличилась до 18%.

Недавняя победа Radeon HD 7970 над GeForce GTX 580 в DiRT 3 для AMD являлась знаковым событием. Это была одна из первых игр, которая изначально разрабатывалась под DirectX 11, и во время анонса адаптеров с поддержкой этого API, данный проект использовался в качестве показательного примера. Но, с выходом GeForce GTX 680, DiRT 3 становится не самой удачной демонстрацией возможностей решений на чипах AMD. Архитектура Kepler позволила новичку на 39–44% улучшить результаты GTX 580, чего оказалось достаточно, чтобы опередить Radeon HD 7970 на 23–25%.

В игре Mafia II новинка на 10% обходит своего принципиального конкурента в режиме Full HD, но, опять же, при увеличении разрешения разрыв между соперниками практически растворяется. GeForce GTX 580 в данном случае на многое уже не претендует, на 25% уступая новоявленному флагману.

Aliens vs. Predator c движком Asura от Rebellion, также стоявшей у истоков игр с поддержкой DirectX 11, отдает предпочтение разработке AMD. Radeon HD 7970 достаточно уверенно обходит GTX 680 – 13–17%, и имеет еще более значительный отрыв от GTX 580 (33%).

В достаточно технологичном шутере Hard Reset вновь в лидерах носитель архитектуры Kepler. Причем, здесь стоит отметить нехарактерную для предыдущих случаев ситуацию – с увеличением разрешения преимущество GeForce GTX 680 над Radeon HD 7970 также растет ( с 10 до 16%).

Последняя часть культовой серии стратегий Total War: Shogun 2 разрабатывалась при поддержке AMD, но даже несмотря на это, решению от NVIDIA, хоть и с минимальным перевесом, но все же удалось обойти Radeon HD 7970.

Энергопотребление

Улучшение показателей энергоэффективности была одной из приоритетных задач компании при разработке GPU с новой архитектурой. Данные, представленные на диаграмме, красноречиво говорят о том, что разработчику удалось значительно улучшить экономичность своего решения.

В режиме покоя система с GeForce GTX 680 потребляет практически столько же энергии, что и ПК с Radeon HD 7970, а также на 15Вт меньше, чем платформа с GTX 580. Во время серьезной игровой нагрузки топовое решение NVIDIA расходовало на 17 Вт меньше флагмана AMD, тогда как разница с предшественником составила целых 43 ватта. При этом следует учесть, что представленные данные – это общее энергопотребление целиком и вклад видеокарты здесь лишь частичный. Потому относительная разница будет еще более весомой. Если же учесть полученный прирост производительности, вполне очевидно, что NVIDIA удалось очень серьезно улучшить соотношение производительности на ватт. По этому показателю GTX 680 смог превзойти Radeon HD 7970, который до выхода флагмана на Kepler считался образцовым устройством по части энергоэффективности. NVIDIA также умело воспользовалась преимуществом, которое приносит более тонкий техпроцесс. Наряду с внутренними оптимизациями архитектуры, 28 нм пошли на пользу GK104.

Разгон

Дополнительная производительность не помешает даже топовым видеокартам, потому было весьма любопытно определить частотный потенциал новинки. Для исследований мы использовали утилиту EVGA Precision X 3.0.1. Чтобы добиться значимых результатов, первым делом нужно увеличить допустимый уровень энергопотребления адаптера. Программным способом получилось отодвинуть границу на 32%. После чего, зафиксировав напряжение питания чипа на уровне 1,175 В, для видеокарты от ZOTAC нам удалось увеличить тактовую частоту чипа на 177 МГц (17,6%), а памяти – до 6894 МГц (14,8%).

Экземпляр видеокарты от ASUS чуть хуже разогнался по ядру (+161 МГц), а вот память стабильно работала на 7220 МГц. Последний режим был даже чуть предпочтительнее, хотя разница не очень велика. После повышения частот прирост производительности составил 8–18%, в среднем – 12–14%. Результат весьма неплохой, учитывая вес каждого процента в высшей графической лиге.

После форсирования видеокарты, ожидаемо увеличился нагрев GPU и шум системы охлаждения. Чип прогревается до 84–85 C, при этом, чтобы удерживать температуру на таком уровне, скорость вращения вентилятора повышалась до 2650–2700 об/мин. Энергопотребление в реальных приложениях также возросло – при работе видеокарты с указанными параметрами, система расходовала на 50–60 Вт больше, чем в штатном режиме.

Во время экспериментов необходимо учитывать, что даже после самостоятельного повышения частоты ядра, GPU Boost продолжает работать, устанавливая новые частотные рамки в соответствии с увеличенным TDP. Так, во время игровых тестов частота чипа периодически увеличивалась до 1293 МГц, с редкими колебаниями к отметке в 1304 МГц. Так как частота изменяется динамически, на выходе имеем определенный разброс результатов. К сожалению, управлять работой GPU Boost, равно как и отключить ее даже в академических целях, нельзя, что несколько осложняет жизнь энтузиастам. Однако, для большинства пользователей, GPU Boost является благом – это хорошая возможность получить дополнительную производительность, не заморачиваясь с разгоном.

Итоги

GeForce GTX 680 получился весьма сбалансированным решением. Возможно, производительность нового адаптера не вызывает огромного восторга, но NVIDIA сделала ровно столько, сколько ей было необходимо, чтобы вновь вернуться на графический престол, в большинстве случаев имея преимущество над основным конкурентом – Radeon HD 7970. Даже если такие результаты были достигнуты не в последнюю очередь благодаря высоким частотам чипа/памяти, это ничуть не умаляет заслуг разработчика. В конечном счете, устройство получилось быстрее, тише, экономичнее и дешевле основного соперника. Достаточно убедительные аргументы для того, чтобы GeForce GTX 680 получил нашу награду «Выбор редакции».

Что касается конкурента, то, на наш взгляд, после анонса GeForce GTX 680 ему предстоит подкорректировать цену на свой топовый адаптер. В сложившейся ситуации у AMD есть два варианта – сыграть на упреждение, в скором времени снизив стоимость флагмана до ~$450–480, либо же дождаться массового появления на прилавках GeForce GTX 680 и уже по факту регулировать цену Radeon HD 7970. Такой подход вполне имеет право на существование, особенно с учетом определенного дефицита 28-нанометровых кристаллов. К тому же, наверняка на старте продаж розничная стоимость GeForce GTX 680 будет выше рекомендуемой, тогда как ажиотаж вокруг выхода Radeon HD 7970 уже поутих, и такие адаптеры в референсном дизайне без проблем можно приобрести по цене близкой к заявленной – $550. Как бы то ни было, возобновление реальной конкуренции в топовом сегменте рано или поздно приведет к снижению стоимости продуктов обоих производителей. Вместе с тем, также ожидаем расширения ассортимента устройств на Kepler и появления интересных решений в более доступных ценовых сегментах.

Устройства предоставлены: ASUS GTX680-2GD5 –  ASUS, www.asus.ua, ZOTAC ZT-60101-10P – MTI, www.distri.mti.ua

Disqus Comments Loading...