560 ti год выпуска. Конфигурация тестовых платформ и методология тестирования. Отзывы об ASUS

Сегментация - ключевой момент в любой отрасли современного производства, будь то автомобиль, пиво или комплектующие ПК. Маркетологи работают не покладая рук, чтобы грамотно и выгодно подать тот или иной продукт. Очень важно вначале преподнести главное Hi-End решение, а затем уже представлять продукты для дальнейшего сегментирования. Для наглядного примера возьмем автоконцерны: BMW в первую очередь анонсируют и представляет публике свой топовый седан представительского класса 7 серии, несколько позже мы видим бизнес седан 5 серии, затем уже «тройку» и т.д. С точки зрения маркетинга - это идеальный сценарий сегментирования и презентации продуктов, которому следует большинство вендоров, включая производителей чипов.

Компания NVIDIA в конце января представила публике свой очередной продукт для среднеценового, так называемого «массового» рынка - GeForce GTX 560 Ti, о котором мы уже писали ранее.

17 мая компания представила публике очередное решение - NVIDIA GeForce GTX 560, так же как и его собрат с приставкой Ti, ориентирован на среднеценовой рынок. Стремление вендора дополнить именно этот сегмент очевиден - массовый рынок наиболее привлекателен для производителя как с точки зрения маржинальности, так и с точки зрения объема рынка.

Особенности NVIDIA GeForce GTX 560

Из названия продукта очевидно, что в основе лежит уже хорошо знакомый нам GPU GF114. Принципиальных отличий от старшего собрата GeForce GTX 560 Ti у GTX 560 нет. Здесь та же архитектура, конфигурация потоковых мультипроцессоров (SM) остальных блоков осталась такой же, как и у GF104. Однако в случае с удешевленным GeForce GTX 560 один SM попросту отключен, что несомненно говорит о сокращении количества текстурных блоков и CUDA-ядер, коих у новинки 56 и 336 соответственно. Напомним, что GeForce GTX 560 Ti располагает 384 CUDA-ядрами и 64-мя текстурными блоками. Такое же количество вычислительных блоков мы уже видели у GeForce GTX 460.

В январе 2011 года nVidia порадовала всех своих почитателей выходом видеокарты пятого поколения GeForce GTX 560, пришедшей на замену старшему собрату GTX 460, позаимствовав у него графическое ядро GF104, которое немного оптимизировали и назвали GF114, в связи с чем и получили прирост производительности. Видеокарта идеально подойдет для игр даже 2015 года на средних и минимальных настройках. Однако так ли высока оказалась мощность GTX 560 относительно 460 модели, чтобы переплачивать за нее? Об этом и не только речь пойдет ниже.

Основные характеристики

  • Техпроцесс: 40 нм
  • Ядро видеокарты: GF114
  • Количество исполнительных процессоров (SPU): 336
  • Частота SPU: 1620 МГц
  • Частота ядра видеопамяти: 810 МГц
  • Частота видеопамяти: 2004 МГц
  • Тип памяти: GDDR5
  • Объем видеопамяти: 1 Гбайт
  • Ширина шины: 256 бит
  • Количество текстурных процессоров: 56
  • Количество блоков растеризации: 32
  • Потребление энергии: 170 Ватт

Производитель видеокарты и различные конфигурации от других компаний

Главный производитель видеокарты — конечно же компания nVidia. Стоит сказать, что компанией было выпущено три модификации видеокарты, оригинальная поступила в продажу в 3 видах: обычная, разогнанная GTX 560 с постфиксом «TI» и урезанная версия 560 SE, также вышла видеокарта для мобильных ноутбуков GTX 560M. Многие зададутся вопросом, а для чего, собственно, надо было урезать видеокарту. Ответ явный: дело в том, что номинальная производительность GTX 560 была на порядок выше, чем у GTX 460, а цена особо не выросла. И, чтобы не понести убытков от производства данного видеоадаптера, было решено заблокировать часть шейдерных блоков, в итоге место заявленных 336 унифицированных процессоров на прилавок в основном количестве поступила видеокарта с 288 универсальными конвейерами со сниженной частотой SPU, частотой ядра, с меньшим количеством текстурных и пиксельных блоков и, самое главное, меньшей шиной памяти. А улучшенная версия видеокарты была представлена в виде модификации GTX 560 TI, стоимость которой примерно на 40% или где-то на 4000 рублей выше, чем у GTX 560 SE. Таким образом, показатели урезанной версии видеокарты оказались ровно такими же, что и у GTX 460. Из этого можно сделать вывод, что переплачивать за свежее название не стоит и если уж брать GTX 560, то только в версии «TI», которая значительно производительней GTX 560 SE и уж тем более GTX 460.

Существуют и другие конфигурации GTX 560, к примеру, от известных компаний Manli и Gigabyte:

Manli GeForce GTX 560 TI не отличается от оригинала в принципе ничем, если не учитывать более высокую частоту SPU на целых 4 мегагерца. Ирония, но по-другому тут реагировать не приходится.

А вот компания GigaByte более ответственно подошла к производству своей модификации данного видеоадаптера, улучшив Gigabyte GeForce GTX 560 частоту видеопроцессора с 810 до 830 МГц, что, к слову, даже выше, чем у GTX 560 TI с ее 822 МГц. Также повышена частота унифицированных вычислительных процессоров с 1620 до 1660 МГц. Все это существенно улучшило производительность видеоадаптера по сравнению с оригинальной GTX 560 от NVIDIA, при этом цена за видеокарту выросла лишь немного, что позволяет при покупке данного видеоадаптера отдать предпочтение компании GigaByte.

nVidia GeForce GTX 560 vs AMD Radeon HD 6950 1 GB – битва машин

Как только nVidia выпустила видеокарту 5-го поколения с улучшенной производительностью, AMD тут же дала свой ответ – Radeon HD 6950 1 GB. Если сравнивать энергопотребление и температуру видеокарт, то ответ, думаю, будет очевиден: GeForce GTX 560 существенно выигрывает у противника. Несмотря на то, что энергопотребление у видеоапаптера nVidia выше на 15 ватт в нагрузке, температура его в простое составляет 29 градусов при 42 у радеона, а при нагрузке 68 градусов против 79 у Radeon HD 6950, следовательно, риск перегрева GTX 560 гораздо ниже, чем у конкурентной радеоновской видеокарты. При этом уровень шума вентиляторов, издаваемых в нагрузке у GTX 560 на 5 децибел меньше, чем у оппонента из AMD, такая разница заметно сглаживает дискомфорт, испытываемый пользователем из-за шума кулеров ПК.

Пришло время сравнить их производительность в независимом тестировании данных видеокарт и наконец выяснить, что мощнее – бесшумная и безопасная NVIDIA GeForce GTX 560 или менее прожорливая, но более «пыхтящая» AMD Radeon HD 6950.

В ходе тестирования была использована следующая конфигурация оборудования:

  • МП — eVGA X58 Classified
  • Процессор – Intel Core I7 965, 3.7 ГГц
  • Видеоадаптеры – GeForce GTX 560 TI и Radeon HD 6950 1 ГБ
  • ОЗУ — Corsair 6144 МБ (3x 2048 МБ) DDR3 1500 МГц
  • Блок питания – 1.2 Киловатт
  • ОС: Windows 7, 64 бит с поддержкой DX9 — DX11

Игры и бенчмарки, в которых проводилось тестирование:

  1. Call of Duty — Modern Warfare 2 – настройки max, разрешение 1920 x 1200
  2. Far Cry 2 — настройки высокие, разрешение 1920 x 1200
  3. Anno 1404 – настройки max, разрешение 1920 x 1200
  4. Crysis WARHEAD – настройки высокие, разрешение 1920 x 1200
  5. Metro 2033 – настройки max, разрешение 1920 x 1200
  6. Battlefield Bad Company 2 – настройки max, разрешение 1920 x 1200
  7. Colin MC Rae Dirt 2 – настройки max, разрешение 1920 x 1200
  8. 3DMark Vantage
  9. 3DMark 11
Radeon HD 6950 1 GB
Call of Duty — Modern Warfare 2 123 fps 129 fps
Far Cry 2 81 fps 76 fps
Anno 1404 68 fps 78 fps
Crysis WARHEAD 47 fps 51 fps
Metro 2033 23 fps 25 fps
Battlefield Bad Company 2 47 fps 50 fps
Colin MC Rae Dirt 2 66 fps 72 fps
3DMark Vantage 19925 17912
3DMark 11 4311 4973

Какой вывод можно сделать из представленной выше таблицы? Видеокарта Radeon HD 6950 существенно опережает GTX 560 TI по вычислительной мощности и скорости обработки кадров. Достигается это, прежде всего, за счет большего числа текстурных блоков у радеоновской карты (88 против 64 у GTX 560 TI), стоит отметить и большее количество унифицированных исполнительных процессоров (1408 у Radeon HD 6950 против 384 у GTX 560 TI), однако это не сильно влияет на быстродействие, так как ядро Cayman Pro, на базе которого создана Radeon HD 6950 будет немногим опережать по производительности GF114.

Несмотря на разницу в бенчмарках, в играх радеоновская карта мало чем лучше джифорса. Это проясняется в результате сравнения fps в играх при работе двух видеоадаптеров, потому, учитывая их температуры при нагрузках, я бы рекомендовал все же nVidia GeForce GTX 560 TI, ведь риск перегрева у джифорса гораздо ниже, чем у оппонента из AMD.

Разгон nVidia GeForce GTX 560

Для разгона было использовано то же тестовое оборудование, что и при сравнении GTX 560 с Radeon HD 6950. У GTX 560 TI была повышена частота ядра с 822 до 950 МГц, увеличено количество шейдерных процессоров с 1644 до 1900, а также частота видеопамяти с 4008 до 4800 МГц.

Разгон проводился утилитой Afterburner, при этом напряжение не изменялось, как и работа кулеров.

Настройки в играх ставились высокие, разрешение 1920 x 1200

Результаты оверклокинга:

GeForce GTX560 – разгон
Call of Duty: Modern Warfare 2 123 fps 141 fps
Battlefield Bad Company 2 54 fps 47 fps
3DMark 11 4749 4311

Как видно из результатов разгона, он будет вполне оправдан, так как fps заметно повышается, как и вычислительная мощность при работе в профессиональных программах, например, Sony Vegas. Но не забывайте следить за температурным режимам, так как несмотря на все меры повышения надежности своих видеокарт, предпринимаемых NVIDIA, риск перегреть ее при разгоне остается несмотря ни на что.

На десерт:

Результаты работы NVIDIA GeForce GTX 560 в некоторых играх 2015-2016 года:

Ведьмак 3: Дикая охота (2015) – средние настройки. Одна из самых прожорливых современных игр. Внимание! 35 fps! Восхитительный результат для видеокарты 2011 года, не правда ли?

CS : GO – максимальные настройки. 200 fps!

GTA 5 (2015) – высокие настройки, разрешение 1360 x 768, вертикальная синхронизация 50%. 30 fps!

Таким образом, данная видеокарта идеально подойдет как для прикладных, так и для игровых решений и потянет подавляющее большинство прожорливых игр на средних настройках. И это с учетом ее стоимости в 4000-5000 рублей на сегодняшний день! А модификации, к примеру, от Gigabyte еще круче. Моя оценка видеокарте: 8 из 10, минус за урезанные модификации GeForce GTX 560 SE, хотя nVidia в этом плане можно понять – компания заботится не только о пользователях, но и о прибыльности дела, это вполне закономерно.

GeForce GTX 560 Ti | Введение

Ещё в июле прошлого года редакторы THG предположили, что nVidia выключил один из потоковых процессоров (Streaming Multiprocessor) на GeForce GTX 460 с графическим процессором GF104, чтобы избежать вытеснения видеокарты GeForce GTX 465 с рынка. Разве не интересно было бы увидеть версию этого чипа со всеми восемью включёнными потоковыми процессорами? Мы имели в виду, что GeForce GTX 460 уже заняла достойное место среди видеокарт с 336 ядрами CUDA и 56 текстурными блоками. И, конечно же, полнофункциональная версия этого видеочипа может бросить вызов более дорогим (и менее привлекательным) видеокартам GeForce. Также это может быть угрозой для видеокарт Radeon серии HD 6800, rоторые вышли на три месяца позже.

Логично, что nVidia поступила именно так. У GeForce GTX 465 и без GF104 хватает конкурентов. Впрочем, эти видеокарты уже не производятся. Так же стоит напомнить, что nVidia хочет полностью прекратить выпуск видеокарт, основанных на процессоре GF100.

GeForce GTX 470 - единственная видеокарта, оставшаяся у компании, которая использует оригинальную архитектуру Fermi. Она заполнила пробел в линейке видеокарт nVidia со стоимостью в $259 как раз между GTX 460 за $200 и GTX 570 за $349. Это учитывая стартовую цену в 350 долларов. Удивительно, как здоровая конкуренция положительно сказывается на нас, любителей поиграть, не так ли?

nVidia прекращает выпуск GF100 менее чем через год после первого анонса. На смену ему приходит видеокарта GeForce GTX 560 Ti. Вместо того, чтобы использовать графическое ядро версии GF104, в GTX 560 применён более продвинутый чип с улучшениями на уровне базовых элементов, впервые применённый в GeForce GTX 580.

В результате графический процессор, содержащий чуть менее чем два миллиарда транзисторов (1.95 миллиарда, по данным nVidia) соответствует или даже превосходит производительность GF100 с тремя миллиардами транзисторов, реализованных в видеокарте GeForce GTX 470.

GeForce GTX 560 Ti | Как создать более быстрый игровой графический процессор

Как мы все знаем, GeForce 500-й серии почти не отличается по архитектуре от 400-й серии.

Видеокарты GeForce GTX 580 и GTX 570 построены на GF110 – переработанной GF100 с улучшенной фильтрацией текстур, эффективным Z-отсечением, оптимизацией на уровне транзисторов, которая способствует увеличению показателей при равном энергопотреблении.

Таким же образом видеокарта Geforce GTX 560 Ti основана на процессоре GF114 – переделанной версии GF104. Вспомните, что в GF104 уже включены улучшения фильтрации текстур, которые не попали в GF100. То есть пропускная способность 64-битных текселей FP16 удвоена с двух за такт до четырех за такт в каждом текстурном блоке. У GF104 и GF110 есть эти возможности, у GF100 их нет. Более того nVidia решила не переносить улучшения по Z-отсечению в GF114, а вместо этого оставить растровый движок без изменений.

В конечном счёте, GF114 функционально идентичен GF104. По факту nVidia даже указывает такое же количество транзисторов (1.95 миллиарда) и графический процессор производится по такому же 40 нм технологическому процессу TSMC.

Модифицированный процессор работает на более высоких тактовых частотах с меньшим энергопотреблением, что даёт более высокую производительность, но это всё равно улучшенная версия GF104. Конечно, главное отличие в том, что для создания видеокарты GTX 460 nVidia отключает у GF104 один из потоковых процессоров, а в GeForce GTX 560 Ti использует не "обрезанный" GF114. В сравнении с GTX 460 это означает больше тактов, больше ядер CUDA, и, теоретически, лучшую производительность в геометрии, благодаря восьми полиморфным движкам и восьми дополнительным текстурным блокам. Все эти факторы в совокупности создают видеокарту не только полностью заменяющую GeForce GTX 460, но и достаточно быструю, для того, чтобы затмить GeForce GTX 470.

GeForce GTX 560 Ti | Эти характеристики выглядят знакомыми

Если вы уже знакомы с GF104, то эта глава для вас будет чем-то вроде прошлогоднего учебника по GPU101. GF114 состоит из двух GPC (Graphics Processing Clusters), каждый с четырьмя потоковыми процессорами. Как вы уже знаете, все восемь потоковых процессоров полностью включены в GeForce GTX 560 Ti.


GF100/GF110 SM

GF104/GF114 SM

Ниже мы приведём небольшой отрывок из обзора GeForce GTX 460, немного изменив его:

"В GF114 используется 48 ядер CUDA на SM, вместо 32 ядер на SM, как в GF100. Обеспечение этих более сложных SM информацией требует более высокой пропускной способности инструкций, поэтому мы видим ещё одно улучшение: увеличение блоков диспетчеризации на каждый SM с двух в GF100 до четырех в GF114. Кроме того, каждый SM теперь имеет восемь текстурных блоков (вместо четырех).

Проще говоря – это более "широкий" GPU, чем GF100 и GF110. Результат – улучшенная производительность по сравнению с GF100 в наиболее популярных игровых приложениях.


GF114, реализованный в GeForce GTX 560 Ti

Внутри чип также немного отличается. Полный GF100 предлагает шесть независимых от GPC разделов растровых операций ROP, каждый из которых способен выводить восемь 32-х битных пикселей за такт (всего 48). Все шесть разделов связаны с 64-битной шиной памяти, что в сумме даёт шину в 384 бита. GF114 получает максимум из четырёх разделов, что даёт до 32 пикселей за такт и 256-битную шину".

GeForce GTX 560 Ti | Старые суффиксы, новые карты

Поскольку nVidia полностью включила GPU GF114, спецификации GeForce GTX 560 Ti полностью соответствуют графическому процессору. Благодаря 384 ядрам CUDA, получился GPU с большой производительностью шейдеров. Появляется 64 текстурных блока, благодаря 8 более широким SM. Их столько же, сколько и в GF110, однако, для поддержания такой же функциональности на флагманском GeForce GTX 580 требуется 16 SM. nVidia в состоянии обеспечить частоту GPU в 822 МГц, в то время как ядра CUDA работают на частоте 1644 МГц (соотношение 1:2 очевидно). Также как и GeForce GTX 460 1 Гбайт, видеокарта GeForce GTX 560 обладает четырьмя включенными разделами ROP, выдающими до 32 пикселей за такт. Четыре 64-битные шины составляют в сумме 256 бит. На видеокарте установлена видеопамять GDDR 5 объёмом 1 Гбайт с частотой 1002 МГц, что дает пропускную способность в 128.3 Гбайт/с.

Технические характеристики видеокарт GeForce GTX
GeForce GTX 560 Ti GeForce GTX 570 GeForce GTX 460 1 Гбайт GeForce GTX 470
Graphics Processing Clusters (GPCs) 2 4 2 4
Streaming Multiprocessors (SMs) 8 15 7 14
Ядра CUDA 384 480 336 448
Количество текстурных модулей 64 60 56 56
ROP блоки 32 40 32 40
Частота графического процессора, МГц 822 732 675 607
Частота шейдерных блоков, МГц 1644 1464 1350 1215
Частота памяти (скорость передачи данных) 1002 МГц (4008 MT/s) 950 МГц (3800 MT/s) 900 МГц (3600 MT/s) 837 МГц (3348 MT/s)
Объём видеопамяти GDDR 5, Гбайт 1 1.25 1 1.25
Шина видеопамяти, бит 256 320 256 320
Пропускная способность памяти, Гбайт/с 128.3 152 115.2 133.9
Скорость наложения текстур, млрд./сек. 52.6 43.9 37.8 34.0
Технологический процесс (TSMC), нм 40 40 40 40
Форм-фактор Двойной слот Двойной слот Двойной слот Двойной слот
Внешние интерфейсы 2 x DL-DVI,
1 x mini-HDMI
2 x DL-DVI,
1 x mini-HDMI
2 x DL-DVI,
1 x mini-HDMI
2 x DL-DVI,
1 x mini-HDMI
Потребляемая мощность, Вт 170 219 160 215

Внешне GeForce GTX 560 Ti выглядит также, как и GeForce GTX 460. Обе карты используют осевые вентиляторы, направляющие поток воздуха на массивные алюминиевые радиаторы с медным основанием. Обе карты двухслотовые с одинаковым количеством выходов, включающих два двухканальных DVI-разъёма и один мини-HDMI порт. Кроме того, обе карты требуют внешнее питание и оснащены парой вспомогательных шестиканальных входов.


Однако есть несколько различий. Длина GeForce GTX 560 Ti – 23см, а GTX 460 – 21см. Под пластмассовым кожухом GTX 560 можно увидеть на одну тепловую трубку больше, что позволить рассеять большее количество тепла. Есть также металлическая пластина, закрывающая чипы памяти и схему питания видеокарты. Раньше эти компоненты просто оставались открытыми.

Конечно, сейчас мы говорим об эталонном дизайне. В лаборатории уже появилось несколько видеокарт GTX 560 от сторонних производителей, не соответствующих референсной версии от nVidia. Например, видеокарта Gigabyte имеет длину 24 см, два вентилятора, 6+1 фаз стабилизатора питания (против 3+1 в референсной версии) и совершенно другую печатную плату.

nVidia оснащает свою эталонную модель той же схемой контроля питания, что и на видеокарте GeForce GTX 580. Эта схема предотвращает перегрузки схемы регулирования напряжения. Компания говорит, что включать их в GeForce GTX 560 Ti или нет – это дело производителей видеокарты.

GeForce GTX 560 Ti | Ах да, об этом Ti…

В зависимости от вашего возраста, суффикс Ti от NVidia GeForce GTX 560 Ti может иметь, а может и не иметь смысл. История заключается в том, что ещё в 2002 году nVidia ограничила "ориентированные на производительность" видеокарты суффиксом Ti, а "бюджетные" видеокарты суффиксом MX. В линейке GeForce Ti было несколько различных моделей, большинство было основано на GPU NV25, но мы отчетливо помним, что GeForce 4 Ti 4200 являлся лидером. Если у вас всё в порядке с поиском в интернете, то вы даже сможете найти несколько наших обзоров этой карты 2002 года.

Как бы там ни было, nVidia возвращает суффикс Ti. Когда компания спросила нас, что мы думаем о названии этой карты, мы сначала немного опешили. "Мило, парни". Но если посмотреть внимательнее, то название имеет смысл. GF114 – это микросхема, которая сможет управлять любой видеокартой. И вместо того, чтобы начинать морочить потребителю голову цифровыми индексами (GTX 555, GTX 550, и так далее) мы предполагаем, что в скором времени сможем увидеть GeForce GTX SE, если nVidia представит менее производительную копию GF114.

Дифференциация по суффиксу не настолько выразительна, как уже принятая система исчисления. Если вспомнить времена GeForce 4, тогда менее дорогие видеокарты серии MX были сняты с производства из-за того, что плелись за самыми медленными видеокартами GeForce 3 по производительности. В наши дни производительность ещё не всё, есть много базовых функций, которые стоит принять во внимание. Но даже сейчас, есть возможность запутать неподкованного человека, который уделяет больше внимания играм, чем "железу", которое он покупает.

К счастью, мы не думаем, что nVidia пойдёт на эти хитрости, но GeForce GTX 460 и GF104 ещё свежи в памяти. Возможно, также как и в июле, видеокарты партнеров начнут просачиваться на рынок с всё более и более агрессивными частотами (и более высокими ценами). К тому времени, когда AMD запустил свой GPU на основе Barts, NVidia пришлось нелегко, уговаривая кого-нибудь протестировать разогнанные видеокарты от партнёров, чтобы сравнивать их с эталонными видеокартами от AMD. Возможно, более тщательное сегментирование линейки GeForce GTX 560 не вызовет повторение этой ситуации, которая внутри nVidia вызвала много негатива.

GeForce GTX 560 Ti | Производительность тесселяции



Учитывая особое внимание, которое AMD первоначально уделяло тесселяции в DirectX 11, а также внимание, которое nVidia уделяет тесселяции в DirectX 11 сейчас, нам захотелось пропустить видеокарты обоих производителей через самый тяжёлый тест, чтобы оценить влияние архитектуры на производительность в геометрии. Этим тестом должен был стать Unigine Heaven Demo, но теперь, когда стал доступен игровой тест HAWX 2, мы решили переключиться с искусственного теста на него.

Тестируя видеокарты nVidia было интересно наблюдать, как менялась частота кадров в зависимости от количества полиморфных движков в образцах. Мы обнаружили, что возможности архитектуры Fermi не обязательно масштабируется линейно, как могла бы предположить nVidia. Это проявляется в том, что GTX 570 с процессором GF110 использует пятнадцать полиморфных движков, GTX 560 – восемь движков, а разница при включении/выключении тесселяции в HAWX 2 всего один процент. Очевидно, что геометрия - не критический параметр.

Ситуация с AMD не намного яснее. Cayman получил второй блок тесселяции, в то время как Barts обходится только одним, но всё равно масштабируется лучше. Единственное, что можно утверждать, это то, что архитектура Cypress предлагает больше при включённой тесселяции. Отличный вариант на сегодня – это Radeon HD 5870, особенно если его удастся найти с большой скидкой. Но если всё больше разработчиков будут следовать примеру Ubisoft с игрой HAWX 2, широко использующей геометрию, то понадобиться больше производительности, чем на оптимизированных под геометрическую нагрузку видеокартах Radeon HD 6000 серии.

GeForce GTX 560 Ti | Аппаратное обеспечение и тесты

Конфигурация тестового стенда
Процессор Intel Core i7-2600K (Sandy Bridge) 3.4 ГГц, разогнанный до 4 ГГц (40х100 МГц), LGA 1155, 8 Мбайт кэш L3, Hyper-Threading enabled, Power-savings enabled
Материнская плата ASUS Maximus IV Extreme (LGA 1155) Intel P67, BIOS 0504
Оперативная память 8 Гбайт (4 x 2 Гбайт) Kingston DDR3-1333, KHX2000C8D3T1K3/6GX @ 8-8-8-24, 1.65 В
Жёсткий диск 160 Гбайт SATA 3 Гбит/с, Intel SSDSA2M160G2GC
Видеокарта GeForce GTX 560 Ti 1 Гбайт
GeForce GTX 570 1.25 Гбайт
GeForce GTX 460 1 Гбайт
GeForce GTX 470 1.25 Гбайт
Radeon HD 6950 2 Гбайт
Radeon HD 6870 1 Гбайт
Radeon HD 5870 1 Гбайт
Radeon HD 4870 X2 2 Гбайт
Блок питания Cooler Master UCP-1000 W

Программное обеспечение и драйверы
Операционная система Windows 7 Ultimate 64-бит
DirectX DirectX 11
Драйвер видеокарты AMD 8.82.2
GeForce Release 266.56 (для GTX 560 Ti)
GeForce Release 263.09 (для GTX 570)
GeForce Release 260.99 (для GTX 460 и 470)

Игры
Lost Planet 2 Highest Quality Settings, No AA / No AF, 4x MSAA / 16x AF, vsync off, 1680x1050 / 1900x1080 / 2560x1600, DirectX 11, Steam version
Just Cause 2 Highest Quality Settings, No AA / 2x AF, 8x AA / 16x AF, vsync off, 1680x1050 / 1920x1080 / 2560x1600, Bokeh filter and GPU water disabled (для видеокарт nVidia), Concrete Jungle Benchmark
Metro 2033 High Quality Settings, AAA / 4x AF, 4x MSAA / 16x AF, 1680x1050 / 1920x1080 / 2560x1600, Built-in Benchmark, Steam version
F1 2010 Ultra High Settings, No AA / No AF, 8x AA / No AF, 1680x1050 / 1920x1080 / 2560x1600, Steam version, Custom benchmark script, DX11 Rendering
Aliens Vs. Predator Benchmark High Quality Settings, SSAO, No AA / 16xAF, Ultra Quality Settings, 4x MSAA / No AF, vsync off, 1680x1050 / 1920x1080 / 2560x1600
Battlefield: Bad Company 2 Custom (Highest) Quality Settings, No AA / No AF, 8x MSAA / 16xAF, 1680x1050 / 1920x1080 / 2560x1600, opening cinematic, 145 second sequence, FRAPS
3DMark11 Performance Default
HAWX 2 Highest Quality Settings, 8x AA, 1920x1200, Retail Version, Built-in Benchmark, Tessellation on/off
World of Warcraft: Cataclysm Ultra Quality Settings, No AA / 16x AF, 8x AA / 16x AF, From Crushblow to The Krazzworks, 1680x1050 / 1920x1080 / 2560x1600, FRAPS, DirectX 9 Rendering

GeForce GTX 560 Ti | Результаты тестирования

Не так давно мы обсуждали тест 3DMark11 с nVidia по телефону. Кажется, компании не нравится этот тест, потому что он не отражает будущее развитие игр, а именно, более широкое использование геометрии для улучшения реализма.

Несомненно, в 3DMark11 акцент делается на освещение, в частности на одном из шейдеров DirectX 10. Однако у нас состоялся откровенный разговор с Futuremark, которые сказали, что они спроектировали свой тест с правильной оптимизаций тесселяции. Излишняя геометрия сцены сильно сказывается на качестве визуального отображения, но потенциально может значительно снизить производительность видеокарт начального уровня и средних видеокарт. В то время, как первый графический тест в 3DMark вообще не затрагивает геометрию, то второй, третий и четвертый тесты включают то, что мы считаем разумным количеством тесселяции – то есть, нет ни одной сцены с настолько большими треугольниками, где мы могли бы подумать: "О! Здесь можно было бы добавить немого геометрии".

Конечно, nVidia утверждает, что подобный синтетический тест, ориентируется на будущие игры, а не на те, которые вышли сегодня. Однако, Futuremark утверждает, что разработчики игр не будут увеличивать сложность сцен ради их сложности.



Согласно Futuremark, 3DMark11 содержит достаточно геометрии для увеличения реализма

В конце концов, более важно, насколько 3DMark11 правильно отражает большинство реальных игр. Когда вы просмотрите на результаты тестов, основанных на играх с DirectX 11 (все, что мы тестировали сегодня, за исключением World of Warcraft, основано на DirectX11), то заметите, что на самом деле 3DMark11, по какой-то причине, не всегда хорошо справляется. Наиболее заметна разница между GeForce GTX 560 Ti и Radeon HD 6870. В этом тесте видеокарта от AMD обгоняет nVidia, но во всех случае с реальными играми (за исключением F1 2010 – об этом чуть позже) nVidia вырывается вперед. GTX 470 также даёт непропорционально низкий результат, по сравнению с Radeon HD 6870. Интересно заметить, что даже в собственной линейке AMD Radeon HD 5870 побеждает Radeon HD 6950 во многих тестах, хотя 3DMark11 наоборот показывает существенный отрыв.

Возможно, 3DMark11 больше представляет будущее, чем думает nVidia, если двойной тесселяционный движок помог HD 6950 так далеко уйти вперёд от HD 5870. Или, может быть, уверенность AMD в шейдерах освещения DirectX 10 только подчеркивает высокую производительность DX10, в то время как nVidia, возможно, предлагает более дальновидную архитектуру, ориентированную на будущее. В любом случае не основывайте своё решение о покупке только на результатах синтетического теста. Люди в Futurmark приложили много усилий, чтобы исключить влияние политики, которую проводят AMD/nVidia, участвуя в разработках игр, но это приводит, в свою очередь, к разным результатам в синтетических тестах и в реальных играх.




Metro 2033 (DX11)



В разрешениях 1680x1050 и 1920x1080 выделяются GeForce GTX 570 и Radeon HD 6950 2 Гбайт, особенно с включенным сглаживанием. На менее производительных видеокартах вряд ли необходимо включать сглаживание, так как Metro 2033 одна из наиболее требовательных игр, которые мы использовали в нашем тестировании.

Как это не удивительно, Radeon HD 5870 уверенно занимает третье место во всех трёх тестах, доказав, что предыдущее поколение карт AMD по-прежнему конкурентоспособно, более чем через год после выхода.

GeForce GTX 560 Ti от nVidia находится в середине, побив Radeon HD 6870 без сглаживания, потеряв немного в двух разрешениях со сглаживанием, а затем обходит видеокарту AMD при разрешении 2560x1600 (хотя и не на играбельной частоте кадров). Наверное, ещё более примечательным является тот факт, что 560 Ti обошёл карту GeForce GTX 470, которая основана на более сложном GPU, рассеивает больше тепла и потребляет больше энергии.

LostPlanet 2 (DX11)



На самом деле не удивительно, что карты GeForce доминируют в Lost Planet 2, ведь она с логотипом TWIMTBP (The WayIt’s Meant To Be Played). Удивительно то, что Radeon HD 6950 занял второе место при разрешении 2560x1600.

GeForce GTX 560 Ti ставят сегодня в один ряд с GeForce GTX 470, показывая нам, что ядра CUDA, сами по себе, не приводят к увеличению производительности - текстурная пропускная способность также важна, и архитектура GF114 лучше подходит для массовых игр, чем некоторые более мощные графические процессоры от NVidia.

Интересно, что AMD Radeon HD 5870 плетётся на последнем месте, однако при разрешении 2560x1600 он поднялся на один пункт.

Aliens Vs. Predator (DX11)



Radeon HD 5870 возвращает себе лидерство среди видеокарт AMD среднего уровня, побил даже Radeon HD 6950 2 Гбайт во всех трёх разрешениях.

Тем временем, nVidia GeForce GTX 560 Ti попадает в середину, обогнав Radeon HD 6870 и GeForce GTX 470. На самом деле довольно трудно получить хорошую частоту кадров с включенным 4xAA, поэтому мы рекомендуем обратить больше внимания на тесты с выключенным сглаживанием.

Battlefield: Bad Company 2 (DX11)



Многие игры, первыми начавшие поддерживать DirectX 11 были помечены как "проверенные DX11 игры". Они, конечно, поддерживали некоторые функции DirectX 11, но этого недостаточно, чтобы показать все способности API. Battlefield: Bad Company 2 была одной из первых игр DX11-класса и она тоже получила отметку "проверенной" игры, также как AvP и DIRT2.

GeForce GTX 560 Ti от NVidia довольно хорошо показала себя в разрешении 1680x1050, немного опередив GTX 470 и даже более дорогой Radeon HD 6950 на 2 Гбайт. Далее, в разрешении 1920x1080 GTX 560 Ti проиграла HD 6950, а при 2560x1600 оказалась даже ниже, чем Radeon HD 6870. В этом разрешении мы наблюдаем три видеокарты, такие как HD 6870, GTX 560 и GTX 470, у которых практически одинаковое количество кадров в секунду.

Настоящая новость состоит в том, что Radeon HD 5870 от AMD обогнал почти все карты (кроме GeForce GTX 570) на всех трёх разрешениях.

GeForce GTX 560 Ti | Результаты тестирования. Продолжение

F1 2010 (DX11)



Мы слышали, что F1 2010 тоже отмечен как "проверенная" игра DX11-класса, но фактически она уступает DiRT 2 из-за удаления поддержки тесселяции и ограничивая поддержку API только шейдерной маской и эффектом размытия. Тем не менее, игра выглядит довольно хорошо.

На разрешениях 1680x1050 и 1920x1080 GeForce GTX 570 занимает первое место, однако Radeon HD серии 5000 и 6000 идут следом. На разрешении 2560x1600 Radeon HD 5870 от AMD даже занял первое место.

Между тем, GeForce GTX 560 Ti немного отстаёт. Он смог поравняться с GeForce GTX 470, которую должен заменить, но всё же проигрывает более дешёвым картам от AMD.

Just Cause 2



Хотя Just Cause 2 тоже имеет логотип TWIMTBP, Radeon HD 5870 наглядно показывает нам, что видеокартам от nVidia этот логотип не сильно помогает, но похоже это не относится к картам серии HD 6000.

Radeon HD 6950 2 Гбайт смог обойти GeForce GTX 560 Ti только при разрешении 2560x1600. Если бы Radeon HD 5870 не показал лучшие цифры за меньшие деньги, можно было бы подозревать, что это из-за спонсорского логотипа nVidia.

World Of Warcraft: Cataclysm



С недавнего времени, мы стали получать множество просьб о включении World of Warcraft в наши постоянные обзоры видеокарт, что мы и сделали. Кроме того мы хотели провести дополнительные тесты по масштабированию производительности конфигураций с несколькими видеокартами, так как в игре изначально отсутствовала поддержка таких конфигураций. Более подробно об этом расскажем ниже.

Поскольку уровень производительности одиночных видеокарт продолжает расти, результаты здесь довольно близки к тем, что мы видели перед этой частью. Разница в том, что мы запускаем игру в том виде, как она поставляется - с режимом DirectX 9 (а не с экспериментальным кодом для запуска DX11, который улучшает производительность). Как и раньше, видеокарты от nVidia показали себя очень хорошо, GeForce GTX 570 и 560 Ti заняли два первых места во всех разрешениях.

Radeon HD 6950 борется с GeForce GTX 470 за третье место. Остальные видеокарты расположились ниже. Стоит отметить, что Radeon HD 5870 занимает четвертое место при разрешении 2560x1600 и идёт сразу после Radeon HD 6950. Опять же, архитектура Cypress демонстрирует своё превосходство.

Мы забежали немного вперед и добавили результаты Radeon HD 4870 X2 для тех, кто использует старые видеокарты класса DirectX 10. Как видно, старый флагман всё ещё способен потягаться с современными моделями, даже на высоких настройках при разрешении 2560x1600. Однако, у HD4870 X2 есть небольшая проблема с высоким качеством при использовании последней бета-версией драйвера от AMD.



это должна была быть вода…

Масштабирование в SLI и CrossFire

В Lost Planet 2 GeForce GTX 560 Ti в одиночном режиме доминирует над Radeon HD 5870 и 6870, поэтому тот факт, что пара этих карт делает то же самое в SLI, на самом деле не удивляет.

Возможно, более интересным будет то, что Radeon HD 5870 и 6870 показали почти одинаковую производительность. Мы видели, как Radeon HD 6870 выдавал больше кадров на разрешении 1680x1050 и 1920x1080, пропустив HD 5870 вперед только при 2560x1600. Однако в CrossFire, два HD 6870 показали небольшой отрыв в разрешении 2560x1600, тем самым демонстрируя лучшее масштабирование карт на основе Barts.

С Aliens Vs. Predator абсолютно другая история. В режиме одиночной карты Radeon HD 5870 занял второе место в разрешении 2560x1600, и он использует это преимущество, чтобы занять первое место в тесте двух видеокарт. GeForce GTX 560 Ti и Radeon HD 6870 прежде показывавшие почти одинаковые результаты и сейчас оказались очень близки в SLI и CrossFire.

В F1, в сдвоенном режиме, GeForce GTX 560 Ti, как и в одиночном, показал себя плохо, и две видеокарты от AMD опять вырвались вперед. Более дешёвый Radeon HD 6870 даже показал более высокую частоту кадров с включенным 8x MSAA, чем GTX 560 Ti с выключенным.

Лучшее масштабирование Radeon HD 6870 позволяет ему выигрывать у двух GeForce GTX 560 Ti в режиме SLI, несмотря на то, что видеокарта от nVidia была быстрее при 2560x1600 в режиме одиночной карты. Более примечательно то, что Radeon HD 5870 в CrossFire превосходит другие пары видеокарт и финиширует на первом месте.

Мы буквально бились головой о стену в течение нескольких дней, пытаясь выяснить проблему запуска World of Warcraft: Cataclysm от Blizzard на SLI/CrossFire. По словам AMD, она выпустила обновление профиля CrossFire вскоре после того, как мы закончили тестирование. У nVidia всё ещё есть отчеты об ошибках, указывающих, что масштабирование не такое целостное, каким оно должно быть. Однако, после ряда мелких исправлений и обновлений драйверов устройств, мы рады сообщить, что теперь можно увидеть масштабирование в том же Crushblow при пролёте The Krazzworks. nVidia утверждает, что не видит идеального масштабирования, но производительности двух GeForce GTX 560 Тi (с 8-кратным сглаживанием) достаточно, чтобы соответствовать двум Radeon HD 5870 (без сглаживания). Radeon HD 6870 отстаёт так же, как и в результатах тестов одиночных видеокарт.

GeForce GTX 560 Ti | Разгон


Gigabyte прислал нам свою видеокарту GV-N560SO-1GI, специально разогнанную до 1 ГГц (по сравнению со штатной частотой 822 МГц) для графического процессора и до 1145 МГц (по сравнению с частотой 1 ГГц) для видеопамяти. Представители Gigabyte говорят, что эта карта будет продаваться по цене $269 – это на $20 больше, по сравнению с ранее заявленной ценой в $249.



Как вы можете видеть, GeForce GTX 560 Ti, работающая на частоте 1 ГГц существенно быстрее, чем референсные видеокарты от nVidia, присланные ранее. Это не так быстро, как GeForce GTX 570, как обещает Gigabyte, но факт в том, что результаты довольно похожи, а цена на $80 меньше. Теперь, Gigabyte использует свой собственный процесс отбора GF114, способных устойчиво работать на частоте 1 ГГц. Не каждый графический процессор способен работать на таком уровне. Однако справедливо предположить, что большинство GeForce GTX 560 будут уверенно работать со среднюю скорость. nVidia подтверждает, что частотf около 900 МГц довольно типична для видеочипов, протестированных ранее.

GeForce GTX 560 Ti | Шум и энергопотребление

Мощность

Изменив недавно способ измерения мощности, мы хотели убедиться, что получаем правильные результаты. Запустив несколько игр на DirectX 9, 10 и 11, мы не смогли получить уровень энергопотребления выше, чем в игре Metro 2033 (хотя, по-видимому, старые игры могут выдать и более высокое энергопотребление). Однако мы заметили, что низкие разрешения более требовательны к питанию, чем высокие. Это имеет некоторый смысл - если вы не создаете искусственно высокие нагрузки на GPU, центральный процессор вынужден работать более интенсивно. Поэтому наш тест энергопотребления проходит при разрешении 1680x1050 с использованием AAA и 4x AF.

Очевидно, что Radeon HD 4870 X2 был в своё время настоящим "зверем". Видеокарты с двумя GPU и сейчас могут предоставить приличную производительность в современных играх, но они буквально высасывают энергию во время работы. Абсолютная скорость может быть и не такой высокой, но соотношение производительности на ватт оставляет желать лучшего.

Следующим по потреблению энергии идёт GeForce GTX 570, а сразу же за ним GeForce GTX 470. Отличие заключается в том, что GTX 570 намного более производительная, а разница в 4 Вт всё-таки небольшая по сравнению со скоростью, которую вы получите.

Видеокарта Средняя мощность системы, Вт
GeForce GTX 560 Ti 263.3
GeForce GTX 570 292.6
GeForce GTX 460 241.0
GeForce GTX 470 288.9
Radeon HD 6950 253.1
Radeon HD 6870 234.1
Radeon HD 5870 249.6
Radeon HD 4870 X2 402.0

GeForce GTX 560 Ti потребляет меньше этих двух видеокарт, в среднем на 25 Вт, но всё же больше, чем Radeon HD 6950 2 Гбайт от AMD, который, быстрее при высоких разрешениях. Общая разница в 10 Вт по энергопотреблению всей системы делает соотношение производительность на ватт в пользу AMD.

Radeon HD 5870, GeForce GTX 460 и Radeon HD 6870 оказались близко друг к другу и замыкают список. Однако, как вы могли видеть из анализа тестирования, Radeon HD 5870, безусловно, фаворит по производительность, и это более чем через год после появления.

Шум

Мы не смогли включить Radeon HD 4870 X2 в наши тесты DirectX 11, потому что, он поддерживает только DirectX 10. Но мы смогли протестировать его на шум, энергопотребление и производительность в World Of Warcraft. Эта карта служит хорошей отправной точкой в нашем акустическом тесте. Под нагрузкой, карта довольно сильно шумит.

Однако, на холостом ходу Radeon HD 4870 X2 шумит не больше других видеокарт, рассмотренных здесь. Наиболее шумные карты, как правило, являются флагманами, а не картами среднего класса и цены. Надо сказать, что nVidia действительно решает проблему шума видеокарт на базе GF100. GeForce GTX 560 Ti является самой тихой картой из всех протестированных. После 10-го запуска Metro 2033 она производит столько шума, сколько производит GeForce GTX 460 на холостом ходу.

GeForce GTX 560 Ti | Заключение

Мы не были впечатлены высочайшей графикой до запуска Radeon HD 6990 от AMD на базе Antilles. Radeon HD 5970 стоит около $ 600 и более. Но эта видеокарта, выпущена более года назад. GeForce GTX 580 стоит $500. Если вы покупаете несколько флагманских карт для того, чтобы соединить их в SLI или Crossfire, это обойдётся вам в непомерную сумму около $1000 и более. Сейчас появились варианты в среднем классе.

GeForce GTX 460, Radeon HD 6870, GeForce GTX 570, Radeon HD 6950 – любые из этих видеокарт в SLI или Crossfire смогут вас порадовать.

Теперь появляется GeForce GTX 560 Ti, занимающий место как раз в центре этой четверки видеокарт. С точки зрения производительности, эта видеокарта практически в точности заменяет GeForce GTX 470. С точки зрения цены, она сохранит вам $10. С точки зрения шума, 560 Ti определённо является победителем, хотя и GTX 470 тоже несильно шумит, как например GeForce GTX 480. GTX 560 Ti также выигрывает по энергопотреблению, требуя в среднем на 25 Вт меньше, чем GTX 470.

Все эти вещи, взятые по отдельности, являются дополнительными усовершенствованиями, которые nVidia всё равно должна была сделать. Благодаря мощному и горячему графическому процессору GF100, GeForce GTX 470 стоит в продуктовой линейке компании наряду с более изящными картами, такими как GTX 570 и 460. Таким образом, GeForce GTX 560 Ti не впечатляет даже при всех этих маленьких дополнениях, собранных вместе. Но в этой видеокарте нет ничего плохого, это просто улучшенная версия GTX 470, но на $10 дешевле.

Мы без энтузиазма смотрим на видеокарты партнёров nVidia, построенных на GF114. Видеокарта GV-N560SO-1GI от Gigabyte не побила GeForce GTX 570 ни в одном из наших тестов, но она была очень близко в некоторых из них. Gigabyte утверждает, что видеокарта будет продаваться по цене $269. Это довольно низкая цена для карты с тактовой частотой работы графического процессора в 1 ГГц. Однако сможет ли компания поддерживать эту цену, когда GeForce GTX 570 продаётся за $349?

А как же конкуренты? Хотя GeForce GTX 560 Ti почти во всём быстрее, чем Radeon HD 6870 и всего на $20-$40 дороже было бы несправедливо не отметить, что некоторые HD 6870 продаются за менее чем $200 с учётом скидок. Даже сейчас на конфигурацию Crossfire можно потратить на $100 меньше, чем на SLI с GeForce 560 Ti. Radeon HD 5870 также выглядит довольно хорошо, но только если вы сможете найти его дешевле, чем GeForce.

Несомненно, сейчас лучшее время для обновления устаревшей на одно-два поколения видеокарты. Если вы уже приобрели приличную карту в прошлом году, то GeForce 560 Ti вряд ли даёт повод потратить лишние $250. 560 Ti немного быстрее, немного эффективнее, немного тише и немного дешевле, чем GeForce GTX 470, с которой можно попрощаться.

Постскриптум: AMD появляется с двадцатью Radeon HD 6950 1 Гбайт

Мы любим хорошую конкуренцию, но плохой маркетинг может всё испортить.

AMD обратилась к нам с заявлением, что будет поставлять версию Radeon HD 6950 на 1 Гбайт в середине февраля по цене между $269 и $279. "Ну и хорошо", подумали мы тогда. "Беспокоиться будет тогда, когда она выйдет... через три недели. До тех пор, это всего лишь пустые слова на бумаге".

Через некоторое время видеокарты появились и, конечно, мы пропустили их через наш полный набор тестов.

Почти в каждом случае, меньший буфер кадров (и более жёсткая синхронизация памяти) выдаёт на один или два кадра в секунду больше, чем в модели на 2 Гбайт. Это недостойно отдельной диаграммы. В игре Metro 2033 с включенным 4х MSAA и 16x AF, видеокарте на 1 Гбайт не хватило объёма буфера, чтобы поддерживать производительность и FPS упал до 10 кадров в секунду против 30 на 2 Гбайт версии.

Если честно, то возможно AMD должны была представить Radeon HD 6950 первой, а не видеокарту на 2 Гбайт за $300. Однако они не делают этого, возможно, чтобы избежать конкуренции с Radeon HD 6870 по цене $240-$260. Очевидно, что AMD выпустил их вместе до старта продаж видеокарты от nVidia, а опцию как бы придержали в резерве, пока не увидели, что GTX 560 Ti может. Потеря продаж HD 6870 в пользу более дешёвого Radeon HD 6950 звучит лучше для AMD, чем потеря продаж в пользу nVidia.

Теперь, перед лицом GeForce GTX 560 Ti, AMD говорит, что Radeon HD 6950 на 1 Гбайт будет оценен в $259, а Radeon HD 6870 понизится до $219. Останутся ли эти цены или нет, ещё предстоит выяснить. В любом случае, наше заключение относительно GTX 560 Ti не меняется. Он по-прежнему не даёт нам повод к апгрейду. Если сравнивать видеокарты по производительности, то решения от AMD выглядят лучше.

Грязные сплетни создают…

История бы закончилась, если бы Radeon HD 6950 1 Гбайт не появился. Накануне запуска nVidia, один из партнёров говорил нам о том, что AMD выставила на продажу HD 6950 1Гбайт на складе в Newegg за $259. На момент написания статьи в доступности было 20 видеокарт. Мы разговаривали с Newegg и они подтвердили это. Когда вы это прочтёте, их уже не будет в продаже.

Очевидно, что 20 человек будут очень рады получить видеокарту, которая быстрее, чем GeForce GTX 560 Ti за точно такую же цену. Всем остальным придётся подождать. В любом случае, это один из самых слабых маркетинговых ходов, который мы видели. Видеокарта от AMD достаточно сильна, чтобы выстоять самостоятельно, даже при изначально-прогнозируемой цене $269 - $279.

Маловероятно, что вы купите HD 6950 1 Гбайт, если играете на трёх мониторной конфигурации Eyefinity в CrossFire. Для этого вам понадобится видеокарта с памятью в 2 Гбайт, чтобы поддерживать разрешение 5760x1080 с активным AA и AF. Однако Radeon HD 6950 1 Гбайт более привлекателен на разрешении 1920x1080 с максимальной детализацией или на 2560x1600, но с чуть меньшей детализацией.

В сущности, благодаря памяти, Radeon HD 6950 создает достойную конкуренцию GeForce GTX 560 Ti от nVidia.

Nvidia Geforce GTX 560 Ti:

описание видеокарт и результаты синтетических тестов

Есть смысл еще раз напомнить, что карты класса 460/560 требуют дополнительного питания, причем двумя 6-контактными разъемами.

О системе охлаждения.

Мы провели исследование температурного режима с помощью утилиты MSI Afterburner (автор А. Николайчук AKA Unwinder) и получили следующие результаты:

Nvidia Geforce GTX 560 Ti 1024 МБ 256-битной GDDR5, PCI-E

Nvidia Geforce GTX 560 Ti o/c 922/1844/4400 MHz 1024 МБ 256-битной GDDR5, PCI-E

Думаем, что нет смысла объяснять, почему два графика мониторинга. Да, мы разогнали частоты работы карты с 822/1644 МГц по ядру до 922/1844 МГц. При этом карта стабильно работает, проблем нет. Да и максимальный нагрев ядра в обоих случаях явно не велик для такого рода карт.

Кстати, в наших диаграммах с результатами тестов мы приведем показатели работы карты не только на номинальных, но и именно на таких вот повышенных частотах.

Комплектация. Учитывая, что референс-образцы никогда не имеют комплектации, мы этот вопрос опустим.

Установка и драйверы

Конфигурация тестового стенда:

  • Компьютер на базе CPU Intel Core i7-975 (Socket 1366)
    • процессор Intel Core i7-975 (3340 МГц);
    • системная плата Asus P6T Deluxe на чипсете Intel X58;
    • оперативная память 6 ГБ DDR3 SDRAM Corsair 1600 МГц;
    • жесткий диск WD Caviar SE WD1600JD 160 ГБ SATA;
    • блок питания Tagan TG900-BZ 900 Вт.
  • операционная система Windows 7 64-битная; DirectX 11;
  • монитор Dell 3007WFP (30″);
  • драйверы ATI версии Catalyst 10.12; Nvidia версии 266.56 / 266.35.

VSync отключен.

Синтетические тесты

Используемые нами пакеты синтетических тестов можно скачать здесь:

  • D3D RightMark Beta 4 (1050) с описанием на сайте http://3d.rightmark.org .
  • D3D RightMark Pixel Shading 2 и D3D RightMark Pixel Shading 3 — тесты пиксельных шейдеров версий 2.0 и 3.0 ссылка .
  • RightMark3D 2.0 с кратким описанием: , .

Синтетические тесты проводились на следующих видеокартах:

  • Geforce GTX 560 Ti GTX 560 )
  • Geforce GTX 460 со стандартными параметрами, модель с 1 ГБ видеопамяти (далее GTX 460 )
  • Geforce GTX 570 со стандартными параметрами (далее GTX 570 )
  • Radeon HD 6950 со стандартными параметрами (далее HD 6950 )
  • Radeon HD 6870 со стандартными параметрами (далее HD 6870 )

Для сравнения результатов новой модели Geforce GTX 560 Ti мы выбрали именно эти видеокарты по следующим причинам: Radeon HD 6950 и Radeon HD 6870 являются наиболее близкими по цене решениями от конкурента, Geforce GTX 460 — видеокарта на схожем графическом процессоре предыдущего поколения, а GTX 570 — это наиболее близкое по характеристикам решение текущего поколения, основанное на более мощном чипе GF110.

Direct3D 9: тесты Pixel Filling

В тесте определяется пиковая производительность выборки текстур (texel rate) в режиме FFP для разного числа текстур, накладываемых на один пиксель:

В данном тесте все видеокарты традиционно показывают цифры, далёкие от теоретически возможных значений (мы их перепроверим далее, в тесте 3DMark Vantage). Результаты данной синтетики для GTX 560 Ti сильно не дотягивают до пиковых значений, по ней получается, что новая видеокарта выбирает до 34 текселей за один такт из 32-битных текстур при билинейной фильтрации в этом тесте, что значительно ниже теоретической цифры в 64 отфильтрованных текселя.

Так получается, скорее всего, из-за ограничения производительности полосой пропускания видеопамяти, так как тот же GTX 570 оказался впереди, несмотря на то, что по теоретическим цифрам старшее решение должно проигрывать анонсированному сегодня. Впрочем, GTX 460 всё же остался позади, хотя и не слишком заметно.

А вот обе видеокарты компании AMD на голову опережают новое решение Nvidia в режимах с большим количеством накладываемых на пиксель текстур. А в случаях с небольшим количеством текстур, ограничение по ПСП сказывается ещё больше и вплоть до трех текстур все видеокарты показывают близкие результаты. В этом тесте явно не достигаются реально возможные показатели нового GPU, но посмотрим их же в тесте филлрейта:

Во втором синтетическом тесте, который показывает скорость заполнения, видно всё то же самое, но уже с учетом количества записанных в буфер кадра пикселей. И по диаграмме отлично видно, что скорость рендеринга у многих решений в простых условиях серьёзно ограничена ПСП.

Максимальный результат остаётся за решениями AMD, имеющими значительно большее количество TMU и более эффективными по достижению высокого КПД в нашем синтетическом тесте. HD 6950 показывает максимальный результат, почти вдвое превышающий цифры GTX 560 Ti. Интересно, что даже в случаях с 0—4 накладываемыми текстурами, рассматриваемое сегодня решение уступает остальным, кроме GTX 460, хотя ПСП у неё почти как у HD 6870.

Direct3D 9: тесты Pixel Shaders

Первая группа пиксельных шейдеров, которую мы рассматриваем, очень проста для современных видеочипов, она включает в себя различные версии пиксельных программ сравнительно низкой сложности: 1.1, 1.4 и 2.0, встречающихся в старых играх.

Тесты пиксельных шейдеров младших версий весьма и весьма просты для современных GPU даже среднего уровня и не могут показать все возможности современных видеочипов. В этих тестах производительность ограничена по большей части скоростью текстурных модулей, с учётом эффективности блоков и кэширования текстурных данных в реальных задачах, также есть влияние и ПСП видеопамяти.

Видно, что GF114 полностью повторяет результаты GF104, только с учётом большего количества ALU и TMU и работы их на повышенных частотах в случае GTX 560 Ti. В самых простых шейдерах разница между GTX 560 Ti и GTX 460 составила 23—28%, что ниже теоретических цифр усиления мощности ALU и TMU. Похоже, что производительность GTX 560 Ti в этом тесте ограничена пропускной способностью видеопамяти и филлрейтом, так как по этим показателям разница между решениями значительно ниже.

Более интересно то, что в трёх простых тестах GTX 560 Ti смогла составить конкуренцию даже GTX 570. Впрочем, в наиболее сложных тестах решение на GF114 всё-таки отстало от топового GF110. Что касается сравнения с видеокартами AMD, то обе они обогнали GTX 560 Ti, она смогла конкурировать только с HD 6870, да и то только в самых простых тестах. Посмотрим на результаты более сложных пиксельных программ промежуточных версий:

А вот эти тесты получились гораздо более любопытными. Нас интересует разница в результатах GTX 560 Ti (да и GTX 460) и GTX 570 в этих двух тестах. В сильно зависящем от скорости текстурирования тесте процедурной визуализации воды «Water» используется зависимая выборка из текстур больших уровней вложенности, и поэтому карты в нём обычно располагаются по скорости текстурирования. И вот в этом тесте GTX 560 Ti показывает теоретически обоснованный результат, обгоняя даже GTX 570. Лучшую среди видеокарт AMD достать не удалось, но вот HD 6870 показала схожий результат, что вполне соответствует теории (пиковая скорость текстурирования у этих решений близкая).

Результаты второго теста довольно сильно отличаются, в нём GTX 560 Ti уже проигрывает всем, кроме младшей сестры GTX 460. Этот тест более интенсивен вычислительно, и в нём сказывается влияние математической производительности. Поэтому тест лучше подходит для видеокарт AMD, обладающих большим количеством блоков ALU. Разница между GTX 560 Ti и GTX 460 в этих двух тестах составила 32—37%, что примерно соответствует теоретическим показателям.

Direct3D 9: тесты пиксельных шейдеров Pixel Shaders 2.0

Эти тесты пиксельных шейдеров DirectX 9 сложнее предыдущих, они близки к тому, что мы сейчас видим в мультиплатформенных играх, и делятся на две категории. Начнем с более простых шейдеров версии 2.0:

  • Parallax Mapping — знакомый по большинству современных игр метод наложения текстур, подробно описанный в статье .
  • Frozen Glass — сложная процедурная текстура замороженного стекла с управляемыми параметрами.

Существует два варианта этих шейдеров: с ориентацией на математические вычисления, и с предпочтением выборки значений из текстур. Рассмотрим математически интенсивные варианты, более перспективные с точки зрения будущих приложений:

Это универсальные тесты, зависящие и от скорости блоков ALU и от скорости текстурирования, в них важен общий баланс чипа. Производительность видеокарт в тесте «Frozen Glass» схожа с той, что мы видели выше в «Cook-Torrance», и новая GTX 560 Ti снова заметно уступает GTX 570, имеющей топовый графический процессор GF110. Оба решения компании AMD также оказались далеко впереди.

Во втором тесте «Parallax Mapping» результаты тоже чем-то похожи на предыдущие, но в этот раз оба Radeon уже не так сильно оторвались от видеокарт Nvidia. Решения на основе чипов GF114 и GF104 остаются снова позади всех, и GTX 560 Ti опережает GTX 460 в этих тестах на 24—28%, что снова говорит о недостаточном раскрытии потенциала нового GPU, вызванного не слишком большим увеличением частоты видеопамяти и филлрейта, по сравнению с GTX 460 1 ГБ.

Рассмотрим эти же тесты в модификации с предпочтением выборок из текстур математическим вычислениям, там новое решение должно показать результат сильнее:

Как и в случае с GTX 460, положение нового решения относительно GTX 570 из топовой серии несколько улучшилось. Правда, видеокарты Nvidia стали ещё больше уступать и HD 6870 и HD 6950, имеющими много текстурных модулей. Но теперь новая GTX 560 Ti даже обошла GTX 570 в тесте Frozen Glass, больше зависящем от производительности TMU. Да и во втором тесте результаты GTX 560 и GTX 570 оказались близки. Разница между видеокартами на GF104 и GF114 получилась 30—32%, что уже ближе к 38% теоретической разницы в скорости текстурирования.

Всё это были устаревшие задачи, в основном с упором в текстурирование или филлрейт, не особенно сложные. Далее мы рассмотрим результаты ещё двух тестов пиксельных шейдеров — версии 3.0, самых сложных из наших тестов пиксельных шейдеров для Direct3D 9 API, которые намного показательнее с точки зрения современных игр на ПК. Эти тесты отличаются тем, что сильнее нагружают и ALU, и текстурные модули, обе шейдерные программы сложные и длинные, включают большое количество ветвлений:

  • Steep Parallax Mapping — значительно более «тяжелая» разновидность техники parallax mapping, также описанная в статье .
  • Fur — процедурный шейдер, визуализирующий мех.

Похоже, что с тестами пиксельных шейдеров версии 3.0 у нового решения Nvidia всё прекрасно. Оба PS 3.0 теста довольно сложные, они почти не зависят от ПСП и текстурирования и являются чисто математическими, но с большим количеством переходов и ветвлений, с которыми отлично справляется новая архитектура Nvidia.

В наиболее сложных Direct3D 9 тестах представленная сегодня GTX 560 Ti показывает результат заметно выше HD 6870, а в одном из тестов опережает и HD 6950. Если сравнивать с GTX 570, то в тесте Fur видеокарты близки, а вот в тесте продвинутого параллакс маппинга новое решение Nvidia уступает своему старшему собрату GTX 570, причём весьма сильно. Похоже, на результаты теста сильно влияет и нехватка ПСП, и меньшая эффективность GF114/GF104 по сравнению с GF110/GF100 в данном тесте (сказывается увеличенное количество блоков ALU в каждом мультипроцессоре). Хотя результат для GTX 560 Ti всё равно отличный — она близка к более дорогому HD 6950 от конкурента.

Direct3D 10: тесты пиксельных шейдеров PS 4.0 (текстурирование, циклы)

Во вторую версию RightMark3D вошли два знакомых PS 3.0 теста под Direct3D 9, которые были переписаны под DirectX 10, а также ещё два новых теста. В первую пару добавились возможности включения самозатенения и шейдерного суперсемплинга, что дополнительно увеличивает нагрузку на видеочипы.

Данные тесты измеряют производительность выполнения пиксельных шейдеров с циклами, при большом количестве текстурных выборок (в самом тяжелом режиме до нескольких сотен выборок на пиксель) и сравнительно небольшой загрузке ALU. Иными словами, в них измеряется скорость текстурных выборок и эффективность ветвлений в пиксельном шейдере.

Первым тестом пиксельных шейдеров будет Fur. При самых низких настройках в нём используется от 15 до 30 текстурных выборок из карты высот и две выборки из основной текстуры. Режим Effect detail — «High» увеличивает количество выборок до 40—80, включение «шейдерного» суперсемплинга — до 60—120 выборок, а режим «High» совместно с SSAA отличается максимальной «тяжестью» — от 160 до 320 выборок из карты высот.

Проверим сначала режимы без включенного суперсемплинга, они относительно просты, и соотношение результатов в режимах «Low» и «High» должно быть примерно одинаковым.

Производительность в этом тесте зависит не только от количества и эффективности блоков TMU, но и от филлрейта, что отлично видно по близким цифрам HD 6870 и HD 6950. Результаты в «High» получаются примерно в полтора раза ниже, чем в «Low», как и должно быть по теории. В Direct3D 10 тестах процедурной визуализации меха с большим количеством текстурных выборок решения Nvidia всегда были сильнее, но последняя архитектура AMD также показывает неплохие результаты.

Насколько неплохие, что новая видеокарта Nvidia даже немного отстаёт от обоих Radeon, хоть и не очень сильно. А лидером теста является GTX 570. Это снова говорит о некотором влиянии филлрейта, а возможно также и ПСП. Хотя в случае GTX 560 Ti и GTX 460 разница в скорости точно соответствует теоретической разнице в скорости ALU и TMU — порядка 38%.

Посмотрим на результат этого же теста, но с включенным «шейдерным» суперсемплингом, увеличивающим работу в четыре раза, возможно в такой ситуации что-то изменится, и ПСП с филлрейтом будут влиять меньше:

Включение суперсемплинга теоретически увеличивает нагрузку в четыре раза, и в таком случае абсолютно все решения Nvidia сдают позиции, и обе видеокарты AMD в таких условиях выглядят ещё сильнее. Теперь оба Radeon выигрывают даже у GTX 570. Но что странно — HD 6870 опережает HD 6950. Другими словами, в случае видеокарт AMD производительность ограничивается производительностью ROP, которая у HD 6870 выше. GTX 560 Ti всё так же отстаёт от GTX 570, но обгоняет GTX 460 на те же 39—40%, соответствующие теоретическим показателям.

Второй тест, измеряющий производительность выполнения сложных пиксельных шейдеров с циклами при большом количестве текстурных выборок, называется Steep Parallax Mapping. При низких настройках он использует от 10 до 50 текстурных выборок из карты высот и три выборки из основных текстур. При включении тяжелого режима с самозатенением, число выборок возрастает в два раза, а суперсемплинг увеличивает это число в четыре раза. Наиболее сложный тестовый режим с суперсемплингом и самозатенением выбирает от 80 до 400 текстурных значений, то есть в восемь раз больше, по сравнению с простым режимом. Проверяем сначала простые варианты без суперсемплинга:

Этот тест интереснее с практической точки зрения, так как разновидности parallax mapping давно применяются в играх, а тяжелые варианты, вроде нашего steep parallax mapping используются во многих проектах, например, в играх Crysis и Lost Planet. Кроме того, в нашем тесте, помимо суперсемплинга, можно включить самозатенение, увеличивающее нагрузку на видеочип примерно в два раза, такой режим называется «High».

Диаграмма очень похожа на предыдущую без SSAA, и результаты близки даже по абсолютным цифрам. В обновленном D3D10-варианте теста без суперсемплинга, новая модель GTX 560 Ti справляется с данной задачей на 36—37% быстрее, чем родственная GTX 460 на чипе GF104. А вот от обеих видеокарт AMD они всё так же отстают, хотя лидером является GTX 570, основанная на GF110. Хотя топовая карта имеет явное преимущество по теоретическим характеристикам, но такого большого отрыва мы не ожидали.

Посмотрим, что изменит включение суперсемплинга, он снова должен вызвать большее падение скорости на картах Nvidia.

При включении суперсемплинга и самозатенения задача получается заметно более тяжёлой, совместное включение сразу двух опций увеличивает нагрузку на карты почти в восемь раз, вызывая большое падение производительности. Разница между скоростными показателями нескольких видеокарт изменилась, включение суперсемплинга сказывается как и в предыдущем случае — карты производства AMD явно улучшили свои показатели относительно решения Nvidia.

И теперь HD 6950 при низкой детализации чуть-чуть выигрывает у GTX 570, столь же незначительно отставая от неё в более сложных условиях. Да и HD 6870 не слишком сильно отстаёт. Чего не скажешь про GTX 560 Ti и GTX 460. Новое решение Nvidia проигрывает обоим конкурентам и опережает лишь младшую GTX 460. Причём, ровно на всё те же теоретически обоснованные 38—40%.

Direct3D 10: тесты пиксельных шейдеров PS 4.0 (вычисления)

Следующая пара тестов пиксельных шейдеров содержит минимальное количество текстурных выборок для снижения влияния производительности блоков TMU. В них используется большое количество арифметических операций, и измеряют они именно математическую производительность видеочипов, скорость выполнения арифметических инструкций в пиксельном шейдере.

Первый математический тест — Mineral. Это тест сложного процедурного текстурирования, в котором используются лишь две выборки из текстурных данных и 65 инструкций типа sin и cos.

Чисто математические тесты подтверждают, что графический процессор GF114 архитектурно не отличается от своего предшественника GF104, разница между GTX 560 Ti и GTX 460 соответствует теоретическим 38% в сравнительной производительности блоков ALU. Да и все остальные решения расположились примерно соответственно теоретическим показателям.

Видеокарты AMD в этом синтетическом тесте явно быстрее, так как в вычислительно сложных задачах современная архитектура AMD имеет большое преимущество перед конкурирующими видеокартами Nvidia. В этот раз разрыв между картами Nvidia и AMD остаётся огромным, HD 6870 и HD 6950 показывают одинаковый результат, опережая даже GTX 570 из топовой линейки. Ну а разница с GTX 560 Ti получилась полуторакратная, что также близко к теории, с учётом меньшего КПД у видеочипов AMD.

В наших прошлых исследованиях мы отметили, что данный тест не полностью зависит от скорости ALU, а самые производительные решения ограничиваются скоростью видеопамяти. Так что рассмотрим второй тест шейдерных вычислений, который носит название Fire. Он ещё тяжелее для ALU, и текстурная выборка в нём только одна, а количество инструкций типа sin и cos увеличено вдвое, до 130. Посмотрим, что изменилось при увеличении нагрузки:

Изменений очень мало, только HD 6950 вырвался ещё дальше вперёд, как и должно быть по теории. Во втором тесте скорость рендеринга уже ограничена исключительно производительностью шейдерных блоков, и разница между GTX 560 Ti и GTX 460 стала даже чуть больше теоретической — 40%, и новая модель почти догнала даже GTX 570. Но этого всё же слишком мало, чтобы новая видеокарта среднего уровня догнала конкурентов в лице Radeon HD 6870 и уж тем более HD 6950 в математических тестах.

Итог по математическим вычислениям неизменным уже несколько лет — у решений компании AMD есть явное преимущество, объясняемое большим количеством блоков ALU, скорость которых не сильно портит даже сравнительно низкий КПД. Переходим к результатам тестирования геометрических шейдеров, они будут интересны потому, что основным ограничителем производительности в них является скорость обработки геометрии, и будет интересно сравнить GTX 560 Ti с HD 6870 и HD 6950.

Direct3D 10: тесты геометрических шейдеров

В пакете RightMark3D 2.0 есть два теста скорости геометрических шейдеров, первый вариант носит название «Galaxy», техника аналогична «point sprites» из предыдущих версий Direct3D. В нем анимируется система частиц на GPU, геометрический шейдер из каждой точки создает четыре вершины, образующих частицу. Аналогичные алгоритмы должны получить широкое использование в будущих играх DirectX 10.

Изменение балансировки в тестах геометрических шейдеров не влияет на конечный результат рендеринга, итоговая картинка всегда абсолютно одинакова, изменяются лишь способы обработки сцены. Параметр «GS load» определяет, в каком из шейдеров производятся вычисления — в вершинном или геометрическом. Количество вычислений всегда одинаково.

Рассмотрим первый вариант теста «Galaxy», с вычислениями в вершинном шейдере, для трёх уровней геометрической сложности:

Соотношение скоростей при разной геометрической сложности сцен примерно одинаково для всех решений, производительность соответствует количеству точек, с каждым шагом падение FPS составляет около двух раз. Задача для современных видеокарт не особенно сложная, производительность в целом ограничена не только скоростью обработки геометрии, но и пропускной способностью памяти.

Разница между Geforce GTX 560 Ti и GTX 460 оказалась даже выше теоретической — 46%. Новая видеокарта показала результат примерно на уровне обоих конкурентов от AMD, а лидером стала видеокарта Nvidia, основанная на топовом графическом процессоре GF110. Geforce GTX 570 во всех режимах заметно обогнала все остальные видеокарты, в том числе и GTX 560 Ti. Это связано с тем, что GTX 570 имеет большее количество блоков обработки геометрии.

В этот раз видеокарты AMD показали неплохой результат — явно сказались оптимизации геометрических блоков, которые сделали инженеры AMD. Их скорость выполнения геометрических шейдеров оказалась близкой к производительности GF114, что уже неплохо. Посмотрим, изменится ли ситуация при переносе части вычислений в геометрический шейдер:

При изменении нагрузки в этом тесте, цифры для решений Nvidia почти не изменились, а старшая видеокарта Radeon немного подтянула результаты, и теперь они обе совсем чуть-чуть быстрее GTX 560 Ti. Платы Nvidia в этом тесте вовсе не замечают изменения параметра GS load, отвечающего за перенос части вычислений в геометрический шейдер, и показывают аналогичные предыдущей диаграмме результаты. Посмотрим, что изменится в следующем тесте, который предполагает большую нагрузку именно на геометрические шейдеры.

«Hyperlight» — это второй тест геометрических шейдеров, демонстрирующий использование сразу нескольких техник: instancing, stream output, buffer load. В нем используется динамическое создание геометрии при помощи отрисовки в два буфера, а также новая возможность Direct3D 10 — stream output. Первый шейдер генерирует направление лучей, скорость и направление их роста, эти данные помещаются в буфер, который используется вторым шейдером для отрисовки. По каждой точке луча строятся 14 вершин по кругу, всего до миллиона выходных точек.

Новый тип шейдерных программ используется для генерации «лучей», а с параметром «GS load», выставленном в «Heavy», — ещё и для их отрисовки. Иными словами, в режиме «Balanced» геометрические шейдеры используются только для создания и «роста» лучей, вывод осуществляется при помощи «instancing», а в режиме «Heavy» выводом также занимается геометрический шейдер. Сначала рассматриваем лёгкий режим:

Относительные результаты в разных режимах снова соответствуют нагрузке: во всех случаях производительность неплохо масштабируется и близка к теоретическим параметрам, по которым каждый следующий уровень «Polygon count» должен быть менее чем в два раза медленней.

Именно в этом тесте при сбалансированной загрузке скорость рендеринга для всех решений уже менее явно ограничена именно геометрической производительностью. Новый Geforce GTX 560 Ti в этот раз уже меньше отстаёт от GTX 570, и с ростом сложности геометрии отставание всё меньше. А по сравнению с картами Radeon новый GPU показывает весьма близкие результаты. Разница с GTX 460 составляет в этот раз всего около 30%, в отличие от 46% на двух предыдущих диаграммах, что явно говорит об упоре в ПСП.

Цифры должны измениться на следующей диаграмме, в тесте с более активным использованием геометрических шейдеров. Также будет интересно сравнить друг с другом результаты, полученные в режимах «Balanced» и «Heavy».

Вот в этом тесте разница между GF114 и GF104 снова вернулась к теоретически обоснованным 40%. А GF110 по скорости исполнения геометрических шейдеров далеко впереди всех остальных — явно сказывается наличие четырёх растеризаторов, в отличие от двух у GF114 и GF104. Наглядно видно, что возможности GTX 570 по обработке геометрии и скорости исполнения геометрических шейдеров почти вдвое выше, чем у GTX 560 Ti.

Но самое главное тут — сравнение с видеокартами AMD. Новое решение компании Nvidia в этом тесте всё же осталось быстрее, чем Radeon HD 6870 и HD 6950, но лишь совсем немного. Количество блоков растеризации у GF114 не столь велико, как у GF110, поэтому та же GTX 570, обладая большим количеством растеризаторов, показывает результат на 70—75% выше.

Итак, по сравнению с GF110 скорость растеризации может быть потенциально слабым показателем для общей производительности. Хотя для решения среднего уровня важно уже то, что его результаты немного выше, чем у топового конкурирующего. В тестах тесселяции скорость ограничена уже не растеризаторами, а тесселяторами, и в таких случаях новый GPU должен показать ещё более сильный результат, по сравнению с конкурентами.

Direct3D 10: скорость выборки текстур из вершинных шейдеров

В тестах «Vertex Texture Fetch» измеряется скорость большого количества текстурных выборок из вершинного шейдера. Тесты схожи по сути и соотношение между результатами карт в тестах «Earth» и «Waves» должно быть примерно одинаковым. В обоих тестах используется на основании данных текстурных выборок, единственное существенное отличие состоит в том, что в тесте «Waves» используются условные переходы, а в «Earth» — нет.

Рассмотрим первый тест «Earth», сначала в режиме «Effect detail Low»:

Предыдущие исследования показали, что на результаты этого теста влияет и скорость текстурирования, и пропускная способность памяти. Разница между всеми решениями не очень большая, только GTX 460 показывает немного странные результаты, являясь самой медленной. Свежеанонсированная GTX 560 Ti опережает старое решение в простых режимах на 30—40%, а в сложном — лишь на 10%. Вероятно, для этих видеокарт был сделан разный баланс в разных версиях драйверов.

GTX 560 Ti немного обгоняет обоих конкурентов от AMD в среднем и сложном режиме, упираясь во что-то (снова ПСП?) в лёгком. Похоже, что картам Nvidia эти задачи даются несколько легче. Посмотрим на производительность в этом же тесте с увеличенным количеством текстурных выборок:

Взаимное расположение карт на диаграмме изменилось не слишком сильно. Теперь во что-то неведомое в самом лёгком режиме упираются вообще все видеокарты на чипах Nvidia, и лидером в нём становится HD 6950. Зато в тяжёлом режиме GTX 560 Ti почти догнал GTX 570 и заметно обходит конкурентов HD 6870 и HD 6950. Разница между GTX 560 Ti и GTX 460 составила от 10% (в тяжёлом режиме) до 50% (в лёгком режиме)! Тут явно что-то не так с драйвером для старой модели…

Рассмотрим результаты второго теста текстурных выборок из вершинных шейдеров. Тест «Waves» отличается меньшим количеством выборок, зато в нём используются условные переходы. Количество билинейных текстурных выборок в данном случае до 14 («Effect detail Low») или до 24 («Effect detail High») на каждую вершину. Сложность геометрии изменяется аналогично предыдущему тесту.

Результаты в тесте «Waves» не похожи на те, что мы видели на предыдущих диаграммах. В нём в разных условиях мы видим уже небольшое преимущество продукции компании AMD, хотя в целом все решения, кроме GTX 460, идут ровненько. Наш сегодняшний герой GTX 560 Ti в этом тесте показывает производительность лишь чуть, чем HD 6870 и HD 6950, да и от GTX 570 в лёгком режиме отстаёт. Зато новая карта быстрее, чем GTX 460 до 37%. Рассмотрим второй вариант этого же теста:

Изменений с ростом сложности условий снова очень немного, они почти отсутствуют. Относительные результаты графического процессора GF114 во втором тесте вершинных выборок при высокой детализации стали несколько лучше, и теперь новая видеокарта GTX 560 Ti опережает оба Radeon в тяжёлом режиме, продолжая немного отставать в простых условиях. Разница между видеокартами на основе GF114 и GF104 составила 36—39%, что соответствует теоретической разнице в скорости текстурирования.

3DMark Vantage: Feature тесты

Синтетические тесты из пакета 3DMark Vantage хоть уже и не новые, но они обладают поддержкой D3D10 и интересны уже тем, что отличаются от наших. При анализе результатов нового решения Nvidia в этом пакете мы сможем сделать какие-то новые и полезные выводы, ускользнувшие от нас в тестах семейства RightMark. Особенно это касается теста скорости TMU, ведь наш аналог показывает странные результаты.

Feature Test 1: Texture Fill

Первый тест — тест скорости текстурных выборок. Используется заполнение прямоугольника значениями, считываемыми из маленькой текстуры с использованием многочисленных текстурных координат, которые изменяются каждый кадр.

В тесте текстурной производительности из пакета Vantage, результаты получаются совершенно иные, чем в нашем RightMark. Эти цифры больше похожи на истинное положение дел, и ближе к теории. В текстурной синтетике 3DMark карты Nvidia более эффективно используют имеющиеся текстурные блоки, и GTX 560 Ti показывает результат на уровне Radeon HD 6870, что близко к теоретической разнице. Естественно, HD 6950 остаётся далеко впереди, так как обладает большим количеством блоков TMU.

Что касается сравнения с видеокартами Nvidia, то и тут мы видим корректный результат — GTX 560 Ti обгоняет GTX 570, в полном соответствии с теорией. Да и разница между GTX 560 Ti и GTX 460 составила 39%, что также равно теоретической разнице в производительности текстурных выборок. Вообще, новая видеокарта на базе чипа GF114 показывает весьма неплохой результат, и среди всех представленных видеокарт Nvidia именно она становится лидером по текстурированию.

Feature Test 2: Color Fill

Тест скорости заполнения. Используется очень простой пиксельный шейдер, не ограничивающий производительность. Интерполированное значение цвета записывается во внеэкранный буфер (render target) с использованием альфа-блендинга. Используется 16-битный внеэкранный буфер формата FP16, наиболее часто используемый в играх, применяющих HDR-рендеринг, поэтому такой тест является вполне своевременным.

Показатели производительности в этом тесте соответствуют теоретическим цифрам филлрейта (производительности блоков ROP), без учёта влияния ПСП видеопамяти. Они не похожи на наши потому, что у нас используется целочисленный буфер с 8-бит на компоненту, а в тесте Vantage — 16-бит с плавающей точкой. И цифры 3DMark Vantage показывают именно производительность блоков ROP, а не величину пропускной способности памяти.

Результаты теста примерно соответствуют теоретическим цифрам, и больше всего зависят от количества блоков ROP и их частоты. Влияние ПСП есть, но небольшое. Новая модель GTX 560 Ti показывает неплохой результат, почти догоняя младшего конкурента от компании AMD, имеющего примерно такую же теоретическую скорость заполнения. А вот HD 6950 новая плата Nvidia догнать не в состоянии. От GTX 570 новое решение среднего уровня отстаёт по той же причине — даже у неполноценного GF110 в теории производительность блоков ROP выше. Зато по сравнению с GTX 460 новая модель оказалась заметно быстрее.

Feature Test 3: Parallax Occlusion Mapping

Один из самых интересных feature-тестов, так как подобная техника уже используется в играх. В нём рисуется один четырехугольник (точнее, два треугольника), с применением специальной техники Parallax Occlusion Mapping, имитирующей сложную геометрию. Используются довольно ресурсоёмкие операции по трассировке лучей и карта глубины большого разрешения. Также эта поверхность затеняется при помощи тяжёлого алгоритма Strauss. Это тест очень сложного и тяжелого для видеочипа пиксельного шейдера, содержащего многочисленные текстурные выборки при трассировке лучей, динамические ветвления и сложные расчёты освещения по Strauss.

Тест отличается от других подобных тем, что результаты в нём зависят не исключительно от скорости математических вычислений или эффективности исполнения ветвлений или скорости текстурных выборок, а от всего понемногу. И для достижения высокой скорости важен удачный баланс блоков GPU и ПСП видеопамяти. Заметно влияет на скорость и эффективность выполнения ветвлений в шейдерах.

К сожалению, GF104 и GF114 в этом тесте показывают не очень хорошие результаты, GTX 460 так и вообще стала самой медленной картой и отстала от быстрейшей HD 6950 более чем в два раза! Ну а представленная сегодня видеоплата, предназначенная для среднего ценового диапазона, не дотягивается до младшей из представленных плат AMD и старшей сестры GTX 570. Впрочем, слабым утешением может служить то, что модель предыдущего поколения она опережает аж на 41%.

Мы уже ранее писали о том, что сложно сказать, какие параметры больше всего влияют на результаты этого теста. Вероятно, виновата сниженная эффективность выполнения шейдерных программ с ветвлениями у GF104 и GF114, по сравнению с GF110 и GF100. В прошлых исследованиях GF104 реабилитировала себя в тестах физических симуляций, и мы надеемся, что и GF114 там не подведёт.

Feature Test 4: GPU Cloth

Тест интересен тем, что рассчитывает физические взаимодействия (имитация ткани) при помощи видеочипа. Используется вершинная симуляция, при помощи комбинированной работы вершинного и геометрического шейдеров, с несколькими проходами. Используется stream out для переноса вершин из одного прохода симуляции к другому. Таким образом, тестируется производительность исполнения вершинных и геометрических шейдеров и скорость stream out.

Похоже, что на скорость рендеринга в этом тесте также влияет сразу несколько различных параметров. Вероятнее всего, общая скорость зависит от производительности обработки геометрии и эффективности исполнения геометрических шейдеров. В этом тесте даже GTX 460 работает неплохо, лишь немного отставая от HD 6950 — быстрейшей карты AMD в нашем обзоре. Хорошо видно, что в данном тесте все карты Nvidia показывают гораздо более высокие результаты при выполнении сложных шейдеров.

GTX 560 Ti в этом тесте явно имеет преимущество над обоими конкурирующими решениями в виде Radeon HD 6870 и HD 6950. С выполнением геометрических шейдеров, скоростью обработки геометрии и эффективности исполнения сложных программ у GF114 явно всё в порядке, как и у всех остальных чипов компании. От топовой GTX 570 новая модель отстаёт, что вполне соответствует теоретическим характеристикам.

Feature Test 5: GPU Particles

Тест физической симуляции эффектов на базе систем частиц, рассчитываемых при помощи видеочипа. Также используется вершинная симуляция, каждая вершина представляет одиночную частицу. Stream out используется с той же целью, что и в предыдущем тесте. Рассчитывается несколько сотен тысяч частиц, все анимируются отдельно, также рассчитываются их столкновения с картой высот.

Аналогично одному из тестов нашего RightMark3D 2.0, частицы отрисовываются при помощи геометрического шейдера, который из каждой точки создает четыре вершины, образующих частицу. Но тест больше всего загружает шейдерные блоки вершинными расчётами, также тестируется stream out.

Результаты этого теста очень похожи на те, что мы видели на прошлой диаграмме, но GTX 460 теперь показывает даже ещё более высокий результат, чем обе платы Radeon. Не говоря уже об остальных видеокартах Nvidia. Разница между GTX 560 Ti и GTX 460 в этот раз составила чуть больше 30%.

В синтетических тестах имитации тканей и частиц этого тестового пакета, в которых используются геометрические шейдеры, новый графический процессор показал отличный результат, заметно опередив конкурирующие графические процессоры компании AMD. А младшее топовое решение на основе чипа GF110 просто имеет заметно большее количество блоков обработки геометрии, поэтому и стало лидером сравнения в этих задачах.

Feature Test 6: Perlin Noise

Последний feature-тест пакета Vantage является математически-интенсивным тестом видеочипа, он рассчитывает несколько октав алгоритма Perlin noise в пиксельном шейдере. Каждый цветовой канал использует собственную функцию шума для большей нагрузки на видеочип. Perlin noise — это стандартный алгоритм, часто используемый в процедурном текстурировании, он использует очень много математических расчётов.

Этот тест из пакета 3DMark Vantage измеряет пиковую математическую производительность видеочипов в предельных задачах. Показанная в нём скорость всех решений примерно соответствует тому, что должно получаться по теории, и очень близка к той картине, что мы видели ранее в наших математических тестах из пакета RightMark 2.0 (по крайней мере во втором).

Конечно же, видеокарты AMD выигрывают у конкурентов от компании Nvidia и в этот раз. Простая, но интенсивная математика выполняется на видеокартах Radeon значительно быстрее, в чём мы уже не раз убеждались. Хотя в других вычислительных тестах с более сложными программами, такими как физические расчёты, решения Nvidia выглядят вполне неплохо, в том числе и GTX 560 Ti.

В этом же математическом тесте, Geforce GTX 560 Ti, основанный на новом чипе GF114, показывает скорость несколько ниже, чем у GTX 570, как и должно быть по теории (хотя разница должна быть чуть меньше, чем получилось). Зато новая модель быстрее, чем GTX 460 на 44%, что даже больше теоретической разницы. А вот от обеих видеокарт Radeon наблюдается большое отставание, и лидером сравнения является модель HD 6950, как и в остальных предельных математических тестах.

Выводы по синтетическим тестам

По результатам проведённых нами синтетических тестов новой модели Nvidia Geforce GTX 560 Ti, основанной на графическом процессоре GF114, а также результатам других моделей видеокарт обоих производителей видеочипов, можно сделать вывод о том, что у Nvidia получилась отличная смена для GTX 470. Во многих синтетических тестах новый чип Nvidia показал себя очень неплохо, иногда догоняя Radeon HD 6950 и приближаясь к уровню GTX 570 в некоторых случаях.

Новый GPU отличается от GF104 увеличенным количеством исполнительных блоков и повышенной тактовой частотой, что привело к значительно увеличенной производительности (около 30—40% в большинстве случаев), и представленная сегодня видеокарта на его основе выглядит весьма привлекательно. Особенно отметим скорость текстурных выборок — по этому параметру GTX 560 Ti значительно опережает даже GTX 570, основанную на GF110! Также отметим, что в GF114 увеличилось количество активных тесселяторов, что позволило ещё больше увеличить производительность геометрической обработки.

Среди недостатков выделим то, что архитектурные изменения в GF114 и GF104 привели к небольшому снижению эффективности выполнения некоторых шейдерных программ. А вторым потенциальным недостатком может быть сравнительно низкая пропускная способность памяти, по сравнению с решениями более высокого уровня. Именно недостаточная ПСП зачастую ограничивает производительность GTX 560 Ti, и это может ещё сильнее сказаться в случае разогнанных вариантов карт, так как этот GPU способен работать на значительно повышенных частотах, а применяемая GDDR5-память — нет.

Можно предположить, что весьма неплохие в целом результаты Geforce GTX 560 Ti в синтетических тестах подтвердятся позитивными результатами и в следующей части нашего материла, посвящённой тестированию в игровых приложениях. Новое решение Nvidia должно показать очень хорошие результаты на уровне предыдущих решений вроде Geforce GTX 470, и окажется несколько медленнее Geforce GTX 570, своего старшего собрата на основе чипа GF110, что вполне логично.

А вот что получится в играх по сравнению с конкурентами — сказать сложно сразу по нескольким причинам. Конкурирующие по цене Radeon HD 6870 и HD 6950 от компании AMD слишком отличаются даже друг от друга, имея разные сильные и слабые стороны. Чаще всего GTX 560 Ti должен опережать HD 6870, но всё же должен быть медленнее, чем HD 6950. Хотя в каких-то тестах он будет быстрее обоих конкурентов, а в других может уступить им.

В играх ситуация всегда сложнее, чем в синтетике, скорость рендеринга там часто зависит сразу от нескольких характеристик. И очень часто она зависит от филлрейта и текстурирования, чем сильны решения AMD. Кроме того, нужно учесть и слегка завышенную цену (для российского рынка) на новую GTX 560 Ti. Очень похоже, что ей придётся бороться с подешевевшей Radeon HD 6950 1 ГБ и это сравнение может оказаться для новой видеокарты Nvidia уже менее радужным.

ВведениеКак известно всем, кто хоть в какой-то мере интересуется новинками рынка дискретной компьютерной графики, "роды" GeForce GTX 480 были трудными, и первенец новой архитектуры NVIDIA Fermi появился на свет не в полной конфигурации. Лишь ближе к концу 2010 года компания завершила работу над ошибками, явив на суд публики улучшенную версию ядра GF100 - GF110. Доработанный и усовершенствованный наследник, наконец, смог стать тем, чем должен был стать GF100 с самого начала, и решения на его основе, GeForce GTX 580 и GeForce GTX 570, завоевали наши симпатии, великолепно проявив себя в игровых тестах.

Но с самого начала было понятно, что этим NVIDIA не ограничится, и процесс замены семейства GeForce 400 семейством GeForce 500 будет продолжаться и дальше. Следующим кандидатом в этой цепочке закономерно стал GeForce GTX 460. Надо сказать, что решения на базе GF104 изначально вышли более удачными, нежели старшие модели GeForce 400, использовавшие GF100. Во-первых, сам чип был более простым и более дешёвым в производстве, а, во-вторых, он умел выполнять фильтрацию текстур FP16 на полной скорости.

Всё это позволило ему на долгое время стать "основным боевым танком" NVIDIA, способным успешно сражаться с врагом и побеждать его. В ценовой категории "199-229" долларов GeForce GTX 460 768MB и GeForce GTX 460 1GB долгое время не имели себе равных, а присутствие на рынке большого количества моделей с серьёзным заводским разгоном свидетельствовало о высоком потенциале GF104. Однако, и у этого ядра был свой "тёмный секрет" - из восьми имеющихся в его составе мультипроцессоров активно было только семь, что давало 336 ALU и 56 текстурных блоков, в то время, как физических их было 384 и 64, соответственно.

Вряд ли GF104 страдал теми же "детскими болезнями", что и GF100, просто NVIDIA, по всей видимости, пыталась выпустить на рынок новое массовое графическое ядро как можно быстрее, обеспечив при этом максимальный выход годных кристаллов. Многие обозревательские ресурсы предполагали, что вслед за усечённой версией GF104 может увидеть свет полная, однако, при жизни семейства GeForce 400 этого так и не произошло.

Это случилось только сегодня, 25 января, когда NVIDIA представила миру наследника GF104 - ядро GF114, а также новую графическую карту класса "performance-mainstream" на его основе. В терминологии NVIDIA класс доступных, но высокопроизводительных игровых видеокарт называется "Hunter", но мы предпочитаем сравнение с современными боевыми танками. В этой перспективе флагманские модели стоимостью более 250 долларов представляются мощными, тяжёлыми и отлично вооружёнными моделями танков, которые, однако, в силу своей относительной малочисленности не могут создать перевеса по всему фронту. Эта тяжёлая и неблагодарная работа ложится на плечи более массовых боевых машин, сочетающих в себе простоту с приемлемыми тактико-техническими характеристиками.

Новой боевой машиной NVIDIA такого класса и стал GeForce GTX 560 Ti, анонсированный сегодня. Признаться, возврат к использованию приставок в названиях графических нас удивил. "Ti", очевидно, означает "Titanium", что должно намекать на великолепные потребительские качества новинки, однако, использование всевозможных приставок и суффиксов разрушает стройную систему наименований и возвращает нас в далёкий 2001 год, когда вышеупомянутая приставка была впервые использована в названии одной из моделей GeForce 2. На наш взгляд, можно было бы ограничиться названием GeForce GTX 560 и не создавать потенциальной путаницы в умах покупателей.

Так или иначе, новый GeForce GTX 560 Ti здесь, и мы собираемся познакомиться с ним поближе, дабы выяснить, на что способен новый массовый "танк" NVIDIA на поле боя.

NVIDIA GeForce GTX 560 Ti: архитектура

Как и в случае с GeForce GTX 580/570, организация нового ядра не изменилась. По сути, GF114 представляет собой полностью активный GF104, оптимизированный для достижения более высоких тактовых частот при сохранении уровня энергопотребления в разумных пределах.


Два кластера GPC включают в себя по четыре мультипроцессора, каждый из которых, в свою очередь, несёт в своём составе по 48 универсальных поточных ядер, и, соответственно, общее количество этих ядер равно 384. Каждый мультипроцессор обслуживается восемью блоками текстурных операций, так что общее количество активных TMU в новом чипе составляет 64. Архитектура текстурных процессоров не изменилась со времён GF104. Они способны выполнять полноскоростную фильтрацию текстур формата FP16, наряду с традиционным форматом INT8. А вот фильтрация текстур в формате FP32 осуществляется в четыре раза медленнее. Объём кэша второго уровня, как и в GF104, составляет 512 КБ.

Кроме того, каждый мультипроцессор включает в себя и блок PolyMorph Engine, что ставит GF114 на голову выше любого решения AMD в области обработки геометрических данных и тесселяции. Даже два блока тесселяции третьего поколения в составе Cayman вряд ли смогут поспорить на равных с восемью блоками GF114. Конфигурация растровой подсистемы GF114 осталась прежней и включает в себя 32 блока RBE. Поскольку эта подсистема напрямую связана с подсистемой памяти, последняя по-прежнему состоит из четырёх 64-битных контроллеров, так что общая ширина шины, связывающей GPU с банком локальной памяти составляет 256 бит.

Что касается мультимедийных возможностей, то здесь заметных нововведений не замечено, но они, в сущности, и не нужны: уже GF104 умел всё, необходимое по современным меркам, включая полное аппаратное декодирование и масштабирование видео высокого разрешения в форматах H.264 и VC-1, а также защищённый вывод многоканального звука в форматах Dolby TrueHD и DTS-HD Master Audio посредством Protected Audio Path. Единственное весомое преимущество, которым в этой сфере может похвастаться AMD, это поддержка аппаратного декодирования DivX.

В целом, GF114 прекрасно соответствует принципу "разумной достаточности" - он поддерживает все современные графические и мультимедийные технологии, но не содержит в себе каких-то редко востребованных излишеств, вроде возможности одновременного подключения шести мониторов. По сути, новый массовый графический процессор NVIDIA являет собой не более чем закономерное эволюционное развитие идей, нашедших воплощение в GF104. Рассмотрим, как решение на его основе выглядит на фоне соперников, предшественников, и старших собратьев.

NVIDIA GeForce GTX 560 Ti: место в строю

Как GF110 является "правильной" версией GF100, так и новый GF114 стал тем, чем с самого начала должен был стать GF104. В результате проделанной работы над ошибками команде разработчиков NVIDIA удалось добиться стабильной работы нового ядра в полной конфигурации с восемью активными мультипроцессорами, дающими в сумме 384 универсальных ALU, причём, на более высоких тактовых частотах, нежели в случае с GF104. Впрочем, гораздо лучше такие вещи познаются в сравнении:



* начиная с Catalyst 10.12


Итак, очевидно, что новый GeForce GTX 560 Ti по отношению к GeForce GTX 460 1GB является тем же, чем GeForce GTX 580 и 570 стали по отношению к GeForce GTX 480 и GeForce GTX 470, соответственно. Иными словами, это очередная "старая сказка на новый лад", однако, ничего плохого в этом нет, поскольку сама по себе архитектура Fermi очень удачна, за исключением, пожалуй, не слишком производительной в сравнении с решениями конкурента текстурной подсистемы.

В первую очередь, бросаются в глаза существенно возросшие тактовые частоты ядра - свыше 800 МГц для основного домена и более 1.6 ГГц для вычислительного. Для решений NVIDIA, с учётом их архитектурных особенностей, это очень серьёзное достижение. Ранее такие частоты покорялись разве что отдельным моделям GeForce с заводским разгоном, но отныне AMD следует начать беспокоиться всерьёз, поскольку даже основной домен GF114 работает быстрее, нежели всё ядро Radeon HD 6950. К тому же, последнее имеет всего 352 универсальных процессора VLIW4 против 384 скалярных ALU у GF114.

При этом известно, что графическая архитектура ATI/AMD достигает максимальной производительности отнюдь не всегда, а новая её инкарнация в лице Cayman, к тому же, потеряла выделенный ALU для комплексных операций, и в случае необходимости их выполнения вынуждена задействовать четыре простых ALU, тем самым теряя в "тяговооружённости". Отсюда следует, что в наиболее неудобном для архитектуры AMD Cayman случае, Radeon HD 6950 будет серьёзно уступать GeForce GTX 560 Ti с её 384 поточными процессорами, работающими на частоте свыше 1600 МГц. Как будут обстоять дела в реальных приложениях, покажут тесты. Про Radeon HD 6870 не приходится и говорить - он уступает GeForce GTX 560 Ti по всем показателям, включая производительность текстурной подсистемы.

Характеристики подсистемы памяти GeForce GTX 560 Ti несколько улучшились, однако, 128 ГБ/сек на фоне показателей AMD Cayman и даже Barts отнюдь не выглядят откровением. Не вполне понятно, что помешало разработчикам NVIDIA довести частоту видеопамяти новинки хотя бы до 1125 (4500) МГц. У решений на базе GF110 есть оправдание: добиться стабильной работы памяти на таких частотах при 320-битной или даже 384-битной шине доступа - настоящее искусство, однако, GF114, имеющий, как и его предшественник, 256-битную шину памяти, этого ограничения лишён, и ничто не мешало бы использовать в конструкции GeForce GTX 560 Ti более производительные микросхемы GDDR5, по крайней мере, в теории. Тем не менее, пиковая пропускная способность подсистемы видеопамяти не является сильной стороной GeForce GTX 560 Ti, и по этому параметру новинку оставляет позади даже Radeon HD 6870, не говоря уж о Radeon HD 6950.

Что касается производительности текстурной подсистемы, то с разблокировкой восьмого мультипроцессора и поднятием тактовой частоты ядра до 820 МГц, это часто критикуемое ранее узкое место архитектуры Fermi стало во многом надуманным. С 64 активными TMU пиковая скорость обработки текстур достигает 52.6 гигатекселей в секунду, что даже больше аналогичных показателей старших моделей семейства GeForce 500. AMD Cayman с его 96 текстурными процессорами (88 в случае с Radeon HD 6950) способен и на большее, но во многом это стрельба из пушки по воробьям: как показывают результаты тестов, GeForce GTX 580 и GeForce GTX 570 отнюдь не страдают от нехватки производительности TMU, а новый GeForce GTX 560 Ti, как уже было сказано, опережает их в этой области.

Показатели подсистемы растровых операций также находятся на высоте за счёт повышенной частоты ядра. Пиковая скорость заполнения сцены у нового GeForce GTX 560 чуть ниже аналогичного показателя Radeon HD 6870, чьё ядро работает на частоте 900 МГц, но выше показателя более совершенного архитектурно Radeon HD 6950. Нехватки производительности не должно наблюдаться даже в высоких разрешениях при использовании сглаживания.

Остальные возможности GeForce GTX 560 Ti остались прежними; стоит лишь отметить, что в результате проделанных разработчиками GF114 оптимизаций, TDP вырос всего на 10 Ватт по сравнению с предшественником. Повторимся, в том, что новинка представляет собой улучшенный вариант GeForce GTX 460 1GB с восемью активными поточными мультипроцессорами и более высокими тактовыми частотами GPU и памяти, нет ничего плохого. Предшественник GeForce GTX 560 Ti был и продолжает оставаться весьма удачным решением и отличным выбором для игрока, не желающего тратить более 250 долларов на приобретение графической карты. Наследник перенял у него всё лучшее и довел до логического совершенства, подорожав всего на 20 долларов.

При официальной рекомендуемой цене на уровне 249 долларов, новый GeForce GTX 560 Ti автоматически попадает в промежуток между Radeon HD 6870 и Radeon HD 6950, будучи при этом в состоянии состязаться с ними обоими, и что-то подсказывает нам, что у него есть все шансы на победу. Рассмотрим новое решение NVIDIA в деталях. На этот раз первой в нашу тестовую лабораторию попал образец с эталонным дизайном NVIDIA.

NVIDIA GeForce GTX 560 Ti: конструкция и технические характеристики

Новый GeForce GTX 560 Ti примерно на 2 сантиметра длиннее своего предшественника, GeForce GTX 460 1GB, по крайней мере, в эталонном исполнении. Длина новинки составляет 23 сантиметра, что позволит без проблем установить её в большинство мало-мальски просторных корпусов.


Некоторые проблемы могут возникнуть в корпусах с укороченной базой, поскольку разъёмы питания у GeForce GTX 560 Ti расположены с торцевой стороны платы. Если с эталонным дизайном GeForce GTX 460 это не представляло особой проблемы, то здесь лишняя пара сантиметров может стать решающей. Перед покупкой GeForce GTX 560 Ti не помешает убедиться, что в корпусе есть для неё достаточно места.



Демонтаж системы охлаждения не явил нашему глазу каких-то особенных откровений, разве что порадовал крепёж с помощью обычных крестовых винтов, а не вызывающих закономерное раздражение Torx T2, как в конструкции GeForce GTX 570. Надеемся, что он будет использоваться и дальше.

Нельзя сказать, что компоновка печатной платы GeForce GTX 560 Ti претерпела существенные изменения. Один из чипов памяти по-прежнему гордо занимает место по левую сторону от графического процессора, в то время, как остальные семь расположены традиционной буквой "L" сверху и справа. По всей видимости, при разводке новой платы были использованы существенные части эталонного дизайна PCB от GeForce GTX 460. Наибольшие изменения затронули подсистему питания, которая теперь построена по схеме "4+1". С учётом повышенных частот GF114, усиление стабилизатора питания GPU является закономерным шагом со стороны разработчиков.


Сердцем стабилизатора питания графического ядра по-прежнему является контроллер NCP5388 производства ON Semiconductor. За управление питанием памяти отвечает скромный чип Richtek RT8101 , расположенный над дросселями основной силовой системы. Как и его предшественник, GeForce GTX 560 Ti использует для подключения к блоку питания два шестиконтактных разъёма PCIe 1.0 с максимальной рекомендуемой нагрузочной способностью 75 Ватт. Места для установки восьмиконтактного разъёма питания PCIe 2.0 в эталонном дизайне не предусмотрено.


В конструкции NVIDIA GeForce GTX 560 Ti использованы широко распространённые чипы производства Samsung Semiconductor серии K4G10325FE. Их можно встретить хотя бы на борту GeForce GTX 580, а также множества других графических карт. Эти микросхемы GDDR5 имеют ёмкость 1 Гбит (32Мх32), а суффикс HC04 указывает на номинальную частоту 1250 (5000) МГц. В энергосберегающих режимах частота памяти может понижаться сперва до 324 (1296) МГц, а затем, в режиме простоя, до 135 (540) МГц. Память связана с графическим процессором 256 битной шиной и работает на частоте 1002 (4008) МГц, что обеспечивает неплохую пиковую пропускную способность всей подсистемы - 128.3 ГБ/сек.


Внешне новый чип ничем не отличается от GF104 и имеет такие же габариты. По официальным данным NVIDIA, площадь самого кристалла осталась прежней, и составляет 360 квадратных миллиметров, но возможности взглянуть на него нет, поскольку кристалл традиционно для мощных решений этого разработчика прикрыт защитной крышкой-теплораспределителем. Маркировка сообщает, что данный экземпляр, имеющий ревизию А1, был выпущен ещё на 46 неделе прошлого года, в середине ноября, то есть, уже тогда ядро GF114 было поставлено на поток. Средняя цифра 400 свидетельствует о том, что чип прошёл наиболее жёсткий частотный контроль, что естественно, ввиду того, что ядро GeForce GTX 560 Ti должно работать на частотах свыше 800/1600 МГц.


Последняя на момент написания данного обзора версия популярной утилиты GPU-Z пока не очень дружит с GeForce GTX 560 Ti. По понятным причинам она не может отобразить такие параметры, как техпроцесс, площадь кристалла, число транзисторов и дату официального анонса, но пустыми остаются также и поля "DirectX Support" и "Texture Fillrate", а самая нижняя строка ошибочно рапортует об отсутствии поддержки PhysX. Но наиболее важные параметры, такие, как число ALU и тактовые частоты, определяются верно; 1 МГц разницы с официальным значением не следует принимать во внимание.

Дополним сведения тем, что в составе GF114 имеется 64 текстурных процессора, способных на полной скорости осуществлять фильтрацию текстур в формате FP16, поскольку в каждом TMU на один блок адресации текстур приходится четыре блока фильтрации. Правда, такими же возможностями в области работы с текстурами обладал ещё предшественник новинки, чип GF104. Как и у других решений NVIDIA, в режиме декодирования видео высокого разрешения частоты ядра падают до 405/810 МГц, а в режиме простоя опускаются до 51/101 МГц, поэтому в таких режимах от GeForce GTX 560 Ti следует ожидать экономичности на уровне GeForce GTX 460.



Эталонный дизайн GeForce GTX 560 Ti не предусматривает наличия разъёма DisplayPort, хотя сам по себе этот интерфейс чипом поддерживается. Конфигурация разъёмов такая же, как и у старших собратьев по семейству: два порта DVI-I и порт HDMI 1.4a. Весь второй этаж крепёжной планки отдан под прорези для выброса нагретого воздуха за пределы корпуса системы. Количество разъёмов интерфейса MIO ограничено одним, так что собрать конфигурацию SLI более чем с двумя GeForce GTX 560 Ti не получится - это прерогатива старших моделей семейства GeForce 500.

В сравнении с Radeon HD 6000 такой набор коммутационных возможностей смотрится бледно, но, положа руку на сердце, спросим - а многим ли пользователям нужна поддержка одновременно 6 мониторов или возможность подключения дисплеев "цепочкой" по DisplayPort? Основная масса игроков использует один, редко два монитора с интерфейсом DVI, а панели с большой диагональю подключаются по HDMI. С этой точки зрения GeForce GTX 560 Ti действительно можно назвать соответствующим принципу "разумной достаточности". Сам по себе чип поддерживает DisplayPort 1.1, и в будущем, ряд моделей GeForce GTX 560 с нестандартным дизайном наверняка будет оснащён соответствующим разъёмом.



К сожалению, в конструкции эталонной системы охлаждения GeForce GTX 560 Ti команда разработчиков NVIDIA решила не повторять удачную находку с испарительной камерой, столь хорошо зарекомендовавшей себя в системах охлаждения GeForce GTX 580 и 570. В данном же случае используется более консервативная конструкция с круглым центральным радиатором, напоминающим радиаторы боксовых кулеров Intel. С помощью трёх тепловых трубок центральная секция соединяется с двумя дополнительными дугообразными радиаторами. Обдув последних осуществляется за счёт того, что обычный осевой вентилятор дует не только вниз, но и в стороны. Отметим, что часть нагретого воздуха при такой компоновке будет выбрасываться вправо, во внутреннее пространство корпуса.



Основание системы охлаждения выглядит вполне обычно. Алюминиевая рама служит теплоотводом для микросхем памяти и силовых элементов подсистемы питания, для чего в соответствующих местах предусмотрены выступы, снабжённые эластичными термопрокладками. В месте контакта медного основания главного радиатора с крышкой GPU нанесён слой густой серой термопасты.

На наш взгляд, такая конструкция системы охлаждения выглядит странно, особенно с учётом чрезвычайно удачных кулеров, которым оснащаются старшие модели семейство GeForce 500. Мы не представляем, что могло помешать инженерам NVIDIA применить испарительную камеру и в кулере GeForce GTX 560 Ti, возможно, более высокая себестоимость такой системы. Тем не менее, следует воздержаться от необоснованной критики и проверить, как описанная конструкция поведёт себя на практике.

Уровень энергопотребления, тепловой режим, шумность и разгон

Несмотря на существенно возросшие тактовые частоты GF114, NVIDIA заявляет лишь о незначительном повышении TDP - со 160 до 170 Ватт. Исходя из того, что уровень тепловыделения напрямую зависит от уровня энергопотребления, логично было бы предположить, что и уровень энергопотребления GeForce GTX 560 Ti если и повысился, то столь же незначительно. Мы не преминули проверить это предположение на практике, проведя стандартный цикл электрических испытаний новинки на хорошо знакомом нашим читателям стенде, имеющем следующую конфигурацию.

Процессор Intel Core 2 Quad Q6600 (3 ГГц, 1333 МГц FSB x 9, LGA775)
Системная плата DFI LANParty UT ICFX3200-T2R/G (ATI CrossFire Xpress 3200)
Память PC2-1066 (2x2 ГБ, 1066 МГц)
Блок питания Enermax Liberty ELT620AWT (Номинальная мощность 620 Ватт)
Microsoft Windows 7 Ultimate 64-bit
CyberLink PowerDVD 9 Ultra/"Serenity" BD (1080p VC-1, 20 Мбит)
Crysis Warhead
OCCT Perestroika 3.1.0

Данная платформа оснащена специальным измерительным модулем, описанным в обзоре "Энергопотребление компьютеров: так сколько нужно ватт? ". Его использование позволяет получить наиболее полные данные об электрических характеристиках современных графических карт в различных режимах. Как обычно, для создания нагрузки на видеоадаптер в различных режимах были использованы следующие тесты:

CyberLink PowerDVD 9: FullScreen, аппаратное ускорение включено
Crysis Warhead: 1600x1200, FSAA 4x, DirectX 10/Enthusiast, карта "frost"
OCCT Perestroika GPU: 1600x1200, FullScreen, Shader Complexity 8

Для каждого режима, за исключением симуляции предельной нагрузки в OCCT, замеры проводились в течение 60 секунд; во избежание выхода карты из строя вследствие перегрузки цепей питания, для теста OCCT: GPU время тестирования было ограничено 10 секундами. В результате проделанных измерений были получены следующие результаты:















Разумеется, даром увеличение количества активных функциональных блоков и существенный прирост тактовых частот не прошли, и в режиме 3D пиковый уровень энергопотребления GeForce GTX 560 Ti вырос до 160 Ватт, в то время, как аналогичный показатель GeForce GTX 460 1GB составлял около 140 Ватт. Однако, это приемлемая плата за столь серьёзное улучшение технических характеристик. А в режиме "рабочего стола" экономичность новинки даже выросла. Как обычно, в случае, когда задействован видеопроцессор, карта снижает тактовые частоты не сразу, но тестовая установка фиксирует пиковый результат, в то время, как средний составляет примерно 18-25 Ватт. Отдельно надо отметить, что при одновременном подключении двух мониторов с разными разрешениями, GeForce GTX 560 Ti не переходит во второй экономичный режим с частотами ядра 51/101 МГц, а ограничивается первым, в котором они составляют 405/810 МГц.

Интересно, что в экономичных режимах основная нагрузка приходится на нижний разъём, обозначенный на диаграммах, как "12V 6-pin", а вот при использовании всех мощностей графического процессора нагрузка выравнивается, и через каждый разъём протекает ток порядка 5.5-5.9 Ампер. Иными словами, при напряжении 12 Вольт нагрузка на разъёмы питания не превышает 70 Ватт, так что необходимости использования в конструкции GeForce GTX 560 Ti восьмиконтактных разъёмов питания PCIe 2.0 с повышенной нагрузочной способностью действительно нет.

Как и старшие модели семейства, эталонная версия GeForce GTX 560 Ti умеет отслеживать протекающий по 12-вольтовым линиям питания ток, и в случае обнаружения аномально высоких показателей, характерных для таких тестов, как OCCT: GPU или FurMark, защищает сама себя от выхода из строя путём перевода графического процессора в режим пониженной производительности. Эта система опциональна, и в версиях GeForce GTX 560 Ti, использующих отличный от эталонного дизайн печатной платы, может не использоваться. Работа защитного механизма хорошо видна на вышеприведённой диаграмме потребления в тесте OCCT:GPU - график демонстрирует характерную "гребёнку", хотя и менее глубокую, нежели в случае с GeForce GTX 580 или GeForce GTX 570.

Мы считаем использование таких защитных механизмов оправданным шагом со стороны производителей, поскольку нереалистичные сценарии нагрузки, создаваемые тестами типа FurMark, действительно могут вывести графическую карту из строя, и такие случаи нам известны. Любителям стресс-тестов можно лишь порекомендовать на свой страх и риск воспользоваться специальными опциями, как, например, в GPU-Z ; наверняка, разработчики этой утилиты реализуют аналогичную возможность и для GeForce GTX 560 Ti.



В целом, новый GeForce GTX 560 Ti в плане энергопотребления в различных режимах смотрится вполне конкурентоспособно на фоне соперников. Конечно, он не столь экономичен, как Radeon HD 6870, однако, он обещает быть и существенно быстрее в играх. Более того, новинка весьма достойно выглядит даже в сравнении с Radeon HD 6950, так что разработчиков GF114 остаётся лишь похвалить за проделанную работу. С точки зрения экономичности GeForce GTX 560 Ti продолжает добрую традицию, заложенную с выпуском GeForce GTX 580, заключающуюся в значительном увеличении производительности при несущественном повышении уровня энергопотребления.



Для проверки температурного режима мы использовали второй эталонный экземпляр GeForce GTX 560 Ti, не подвергавшийся разборке, и, следовательно, сохранивший оригинальный термоинтерфейс. При температуре воздуха в помещении тестовой лаборатории, составлявшей 25-27 градусов Цельсия, новинка продемонстрировала такие же тепловые показатели, как и GeForce GTX 570. Под нагрузкой температура графического процессора не превысила 78 градусов Цельсия. С учётом тактовых частот GeForce GTX 560 Ti, это является весьма впечатляющим показателем, доказывающим, что использованная разработчиками конструкция системы охлаждения хорошо справляется со своей работой.


К счастью, первоначальные опасения насчёт повышенного уровня шума не подтвердились. В режимах 2D и 3D карта шумит практически одинаково, поскольку в первом случае вентилятор работает на 40 % от максимальной скорости, а во втором скорость не растет выше 45 %, несмотря на использование в качестве нагрузки Crysis Warhead. Шумомер едва фиксирует изменения в уровне шума, да и то, лишь на расстоянии 5 сантиметров от работающей системы. На расстоянии 1 метра уровень шума лишь на 1 дБА превышает эталонный показатель, в наших условиях составляющий 38 дБА. При таких шумовых характеристиках неудивительно, что карту не слышно на фоне шума, издаваемого другими компонентами работающей тестовой системы. Надо сказать, что наша тестовая платформа не относится к числу самых тихих, так что в иных условиях GeForce GTX 560 Ti может вести себя и не столь бесшумно. Но, в любом случае, новинка обладает тихим нравом, что особенно оценят игроки, любящие, когда на звуковое сопровождение игры не накладываются посторонние шумы.

Как и его старшие собратья по семейству, GeForce GTX 560 Ti продемонстрировал великолепную сбалансированность электрических, акустических и тепловых характеристик. Теперь перед ним стоит самая сложная задача: достойно показать себя в боевых условиях.

Конфигурация тестовых платформ и методология тестирования

Тестирование GeForce GTX 560 Ti в современных играх было проведено на универсальной тестовой платформе, имеющей следующую конфигурацию:

Процессор Intel Core i7-975 Extreme Edition (3.33 ГГц, 6.4 GT/s QPI)
Кулер Scythe SCKTN-3000 "Katana 3"
Системная плата Gigabyte GA-EX58-Extreme (Intel X58)
Память Corsair XMS3-12800C9 (3x2 ГБ, 1333 МГц, 9-9-9-24, 2Т)
Жесткий диск Samsung Spinpoint F3 (1 ТБ/32 МБ, SATA II)
Блок питания Ultra X4 850W Modular (Номинальная мощность 850 Ватт)
Монитор Dell 3007WFP (30”, максимальное разрешение 2560x1600@60 Гц)
Microsoft Windows 7 Ultimate 64-bit

Использовались следующие версии драйверов ATI Catalyst и NVIDIA GeForce:

ATI Catalyst 11.1a hotfix для ATI Radeon HD
NVIDIA GeForce 266.56 для NVIDIA GeForce GTX 560 Ti

Сами драйверы были настроены следующим образом:

ATI Catalyst:

Anti-Aliasing: Use application settings/4x/Standard Filter
Morphological filtering: Off
Tesselation: Use application settings
Texture Filtering Quality: High Quality
Enable Surface Format Optimization: Off
Wait for vertical refresh: Always Off
Anti-Aliasing Mode: Adaptive Multi-sample AA

NVIDIA GeForce:

Texture filtering – Quality: High quality
Vertical sync: Force off
Antialiasing - Transparency: Multisampling
CUDA - GPUs: All
Set PhysX configuration: Auto-select
Ambient Occlusion: Off
Остальные настройки: по умолчанию

В состав тестового пакета вошли следующие игры и приложения:

Трехмерные шутеры с видом от первого лица:

Aliens vs. Predator (1.0.0.0, Benchmark)
Battlefield: Bad Company 2 (1.0.1.0, Fraps)
Call of Duty: Black Ops (1.04, Fraps)
Crysis Warhead (1.1.1.711, Benchmark)
Metro 2033 (Ranger Pack, 1.02, Benchmark)
S.T.A.L.K.E.R.: Call of Pripyat (1.6.02, Fraps)


Трехмерные шутеры с видом от третьего лица:

Just Cause 2 (1.0.0.1, Benchmark/Fraps)
Lost Planet 2 (1.1, Benchmark)


RPG:

Fallout: New Vegas (1.20, Fraps)
Mass Effect 2 (1.01, Fraps)


Симуляторы:

F1 2010 (1.01, Fraps)


Стратегические игры:

BattleForge (1.2, Benchmark)
StarCraft II: Wings of Liberty (1.0.2, Fraps)


Полусинтетические и синтетические тесты:

Futuremark 3DMark Vantage (1.0.2.1)
Futuremark 3DMark 11 (1.0.0)
Final Fantasy XIV Official Benchmark (1.0.0.0, Fraps)
Unigine Heaven Benchmark (2.1)
Tom Clancy"s H.A.W.X. 2 Benchmark (1.01, Benchmark/Fraps)

Каждая из входящих в набор тестового программного обеспечения игр была настроена таким образом, чтобы обеспечивать максимально возможный уровень детализации. В приложениях, поддерживающих тесселяцию, эта возможность была задействована.

Принципиальный отказ от ручной модификации каких-либо конфигурационных файлов означает, что для настройки использовались исключительно средства, доступные в самой игре любому непосвящённому пользователю. Тестирование проводилось в разрешениях 1600х900, 1920х1080 и 2560х1600. За исключением отдельно оговоренных случаев, стандартную анизотропную фильтрацию 16х дополняло сглаживание MSAA 4x. Активация сглаживания осуществлялась либо средствами самой игры, либо, при их отсутствии, форсировалась с помощью соответствующих настроек драйверов ATI Catalyst и NVIDIA GeForce.

Помимо NVIDIA GeForce GTX 560 Ti, в тестировании приняли участие следующие графические карты:

NVIDIA GeForce GTX 460 1GB
NVIDIA GeForce GTX 570
ATI Radeon HD 6950
ATI Radeon HD 6870

Для получения данных о производительности использовались встроенные в игру средства тестирования с обязательным применением оригинальных тестовых роликов, а также, по возможности, фиксацией данных о минимальной производительности. В отдельных случаях для получения информации о минимальной производительности дополнительно применялась тестовая утилита Fraps 3.2.7. В случае отсутствия вышеупомянутых средств применялась эта же утилита в ручном режиме с трёхкратным тестовым проходом, фиксацией минимальных значений и последующим усреднением финального результата.

Игровые тесты: Aliens vs. Predator


Новинка начинает с того, что оставляет позади Radeon HD 6870 в низких разрешениях, и там же уступает Radeon HD 6950 лишь около 5 %. В разрешении 1920х1080 отставание от Radeon HD 6950 возрастает до 14 %, а средняя производительность становится практически такой же, как у Radeon HD 6870. Однако, тут обнаруживается приятный для поклонников продукции NVIDIA нюанс - минимальная производительность у GeForce GTX 560 Ti не опускается ниже 24 кадров в секунду, поэтому играть в режиме Full HD можно ничуть не хуже, нежели используя более дорогой Radeon HD 6950, причём, при заметно меньших затратах на покупку видеокарты.

Игровые тесты: Battlefield: Bad Company 2


Уже во втором тесте GeForce GTX 560 Ti на равных сражается с Radeon HD 6950, причём, весьма успешно. Новинка добивается паритета в разрешении 2560х1600, а в более низких разрешениях даже опережает своего соперника из более тяжёлой "весовой категории". Что немаловажно, ей удаётся поддерживать комфортный уровень производительности во всех режимах.

Игровые тесты: Call of Duty: Black Ops


Интересно, что с использованной в тестировании версией драйверов AMD Catalyst, показали Radeon HD 6950 ненамного выше, нежели у Radeon HD 6870, что отчасти может быть обусловлено и меньшей эффективностью шейдерных процессоров Cayman, имеющих архитектуру VLIW4. Так или иначе, GeForce GTX 560 Ti легко может составить конкуренцию обоим соперникам из стана AMD, уступая им, разве что, в минимальной производительности, да и то не фатально - 66 кадров в секунду хватит даже самому требовательному игроку.

Игровые тесты: Crysis Warhead


А вот и первое разочарование. Поражением это назвать нельзя, особенно, учитывая разницу в цене с Radeon HD 6950, однако, факт остаётся фактом: в разрешении 1920х1080 новый GeForce GTX 560 Ti уже не может обеспечить приемлемого уровня минимальной производительности, хотя и опережает по этому показателю Radeon HD 6870. Зато, в отличие от последнего, новинка отлично выглядит в разрешении 1600х900. Здесь с ней действительно может поспорить лишь более дорогой Radeon HD 6950.

Игровые тесты: Metro 2033



Наличие восьми блоков тесселяции не спасает GeForce GTX 560 Ti от поражения при сравнении минимальной производительности, однако, средние показатели новинки лишь немногим хуже, нежели демонстрируемые Radeon HD 6950, и заметно лучше результатов, показанных в этом тесте Radeon HD 6870. Наиболее сильный отрыв от соперника наблюдается в разрешении 1600х900, но в более ресурсоёмких режимах решению AMD удаётся сократить отставание до минимума. Возможно, это заслуга более производительной подсистемы памяти.

Игровые тесты: S.T.A.L.K.E.R.: Call of Pripyat

Игра тестируется с включенной тесселяцией.


Теоретически, у GeForce GTX 560 Ti есть преимущество при выполнении тесселяции, но, по крайней мере, в данном тесте, два блока тесселяции третьего поколения на борту Radeon HD 6950 показывают себя не хуже. Но не стоит забывать о цене: будучи почти на 50 долларов дешевле, новое решение NVIDIA легко спорит на равных с Radeon HD 6950 в разрешении 1600х900 и обеспечивает сопоставимый уровень субъективного комфорта в разрешении 1920х1080. Свою цену GeForce GTX 560 Ti отрабатывает сполна.

Игровые тесты: Just Cause 2


Разница в производительности между двумя поколениями Radeon HD 6000 вновь минимальна, и GeForce GTX 560 Ti успешно конкурирует с обоими, обеспечивая комфортную производительность в разрешениях вплоть до 1920х1080 или 1920х1200 включительно. А вот для игры в 2560х1600 понадобится уже решение уровня GeForce GTX 580, имеющее совсем другую цену.

Игровые тесты: Lost Planet 2


Radeon HD 6950 разгромлен более дешёвым GeForce GTX 560 Ti наголову. Если в разрешении 2560х1600 решение AMD ещё пытается сопротивляться за счёт резервов в производительности текстурной подсистемы и подсистемы памяти, то в менее критичных к этим параметрам режимах преимущество новинки NVIDIA может достигать 30-36%! Что более важно, производительность GeForce GTX 560 Ti достаточно высока для использования разрешения 1920х1080, несмотря на требовательность данной игры.

Игровые тесты: Fallout: New Vegas


Сказать что-либо о производительности GeForce GTX 560 Ti в Fallout: New Vegas сложно. Игра слишком проста для любой достаточно мощной современной графической карты. Можно лишь отметить несущественное отставание от Radeon HD 6950 и столь же несущественное превосходство над Radeon HD 6870 в разрешении 2560х1600.

Игровые тесты: Mass Effect 2

В этом тесте полноэкранное сглаживание форсируется с использованием методики, описанной в обзоре Игра Mass Effect 2 и современные видеокарты .


Победа новинки не столь убедительна, как в Lost Planet 2, но в разрешении 1600х900 GeForce GTX 560 Ti доминирует над обоими моделями Radeon HD 6000, участвующими в сегодняшнем тестировании. В более высоких разрешениях герой данного обзора, как минимум, не уступает более дорогому Radeon HD 6950, так что AMD остаётся только обеспокоиться и всерьёз задуматься о снижении цен на решения на базе ядра Cayman.

Игровые тесты: F1 2010


Нельзя быть победителем во всём, и GeForce GTX 560 Ti подтверждает этот тезис. В данном тесте новинка конкурирует только с Radeon HD 6870. Но, во-первых, именно на конкуренцию с Radeon HD 6870 это решение NVIDIA и нацелено изначально, во-вторых, заметное отставание наблюдается только в разрешении 2560х1600, и, наконец, в третьих, даже в этом разрешении производительность остаётся достаточно комфортной, хотя требовательным любителям жанра гоночных автосимуляторов 30 кадров в секунду может оказаться недостаточно.

Игровые тесты: BattleForge


Пополнение семейства GeForce 500 поддерживает традицию обеспечения высокой минимальной производительности. Правда, с разрешением 2560х1600 GeForce GTX 560 Ti справляется уже не так хорошо, как GeForce GTX 570, однако, на фоне показателей Radeon HD 6870 или Radeon HD 6950 и 18 кадров в секунду выглядят настоящим откровением, тем более, что по субъективным ощущениям, в эту игру можно играть даже при низкой минимальной производительности.

Игровые тесты: StarCraft II: Wings of Liberty


В StarCraft II новинке NVIDIA не хватило сил достойно справиться с разрешением 2560х1600, но в средней производительности она всё же опередила своего прямого соперника в лице Radeon HD 6870. Надо сказать, что и Radeon HD 6950 в этом режиме не хватает с неба звёзд, но всё же, уровень субъективного комфорта, обеспечиваемый им, существенно выше. Правда, за большую цену. В более низких разрешениях GeForce GTX 560 Ti проявил себя очень хорошо. Если ваш монитор поддерживает разрешение до 1920х1200 включительно и вы любите StarCraft II, переплачивать за Radeon HD 6950 нет никакого смысла.

Полусинтетические и синтетические тесты: Futuremark 3DMark Vantage

Чтобы минимизировать влияние центрального процессора, при тестировании в 3DMark Vantage применяется профиль “Extreme”, использующий разрешение 1920х1200, FSAA 4x и анизотропную фильтрацию. Для полноты картины производительности, результаты отдельных тестов снимаются во всем диапазоне разрешений.



Как и ожидалось, GeForce GTX 560 Ti опередил Radeon HD 6870, но ему не хватило 1045 очков до уровня Radeon HD 6950. Для ценовой категории, к которой относится новинка, 9519 очков - очень хороший показатель.




В отдельных тестах видно, что в разрешении 1600х900 новый GeForce GTX 560 Ti если и уступает Radeon HD 6950, то совсем незначительно, но с ростом разрешения последний берёт реванш за счет более производительных подсистем текстурных процессоров и видеопамяти. Radeon HD 6870 новинка не проиграла ни разу.

Полусинтетические и синтетические тесты: Futuremark 3DMark 11

В новом тестовом пакете Futuremark мы также применяем профиль "Extreme", однако, в отличие от 3DMark Vantage, в 3DMark 11 он использует разрешение 1920х1080.



Примерно такая же картина, как в 3DMark Vantage, наблюдается и в 3DMark 11, за исключением того, что сам порядок величин в новой версии 3DMark другой. Своему прямому сопернику GeForce GTX 560 Ti не уступил, а состязаться на равных в синтетических тестах с более дорогим Radeon HD 6950 он и не обязан.

Полусинтетические и синтетические тесты: Final Fantasy XIV Official Benchmark

Тест поддерживает только разрешения 1280х720 и 1920х1080.



Результат Radeon HD 6950 в разрешении 1280х720 неожиданно низок. В этом можно винить как новую архитектуру шейдерных процессоров, так и недоработки в драйверах. GeForce GTX 560 Ti выступает достойно в обоих разрешениях, демонстрируя показатели на уровне Radeon HD 6950.

Полусинтетические и синтетические тесты: Tom Clancy"s H.A.W.X. 2 Preview Benchmark

Данный тест активно использует тесселляцию для отрисовки поверхности земли. Количество полигонов в кадре может достигать полутора миллионов.


Ещё один тест, где архитектура Fermi чувствует себя, как дома. Состязаться с GeForce GTX 560 Ti могут лишь старшие собратья по семейству, но не Radeon HD 6950 или даже Radeon HD 6970. Вероятно, ситуацию сможет переломить лишь Radeon HD 6990, но если это и случится, то победа будет поистине пирровой, ибо о разнице в ценах между ним и GeForce GTX 560 Ti страшно даже подумать.

Полусинтетические и синтетические тесты: Unigine Heaven benchmark

В тесте используется режим тесселяции "normal".


Производительность на уровне Radeon HD 6950 - отличный результат для GeForce GTX 560 Ti, особенно с учётом ценовой категории, к которой последний относится, но всё же, в этом тесте, активно использующем тесселяцию, от GF114, вооружённого восемью движками PolyMorph, мы ожидали большего.

Заключение

Новый NVIDIA GeForce GTX 560 Ti не разочаровал: его вполне можно назвать достойным пополнением семейства GeForce 500. Более того, титул "оружие массового поражения", на наш взгляд, неплохо характеризует новинку. И неудивительно - при том, что рекомендуемая цена GeForce GTX 560 Ti cоставляет всего 249 долларов, он способен бороться на равных не только с Radeon HD 6870, против которого изначально и был нацелен, но и с более мощным и дорогим Radeon HD 6950!

По сути, новый GeForce GTX 560 Ti сделал то же самое с GeForce GTX 470, что ранее GeForce GTX 570 сделал с GeForce GTX 480. Что при этом произойдёт с GeForce GTX 460 1GB, пока точно сказать невозможно. Не исключено, что он будет заменён новым решением на базе GF114 с усечённой конфигурацией и без приставки "Ti" в названии, а на смену GeForce GTX 460 768MB придёт GeForce GTS 550 на базе ядра GF116.

Рассматривая вопрос о производительности новинки детально, нельзя однозначно сказать, что GeForce GTX 560 Ti опережает Radeon HD 6950 во всех тестах: всё же, ядро Cayman изначально предназначено для решений более высокого класса. Однако, полученные результаты весьма и весьма впечатляют:

В частности, в разрешении 1600х900 новинке удалось выиграть у соперника из более тяжёлой весовой категории в десяти тестах из восемнадцати, а среднее преимущество над Radeon HD 6870 составило почти 20 %. И хотя карты такого класса, как правило, покупают для использования в более высоких разрешения, это очень хорошее начало.

Разрешение 1920х1080 является на сегодня самым популярным из-за повсеместного торжества формата Full HD. Здесь GeForce GTX 560 Ti тяжелее сражаться с Radeon HD 6950, поскольку последний оснащён более быстрой памятью и располагает 88 текстурными процессорами. Однако, без боя новинка не сдаётся, и ей удаётся сравнять счёт или выйти в лидеры в восьми игровых тестах, а серьёзно проиграть лишь в четырёх: в Alien vs. Predator, S.T.A.L.K.E.R.: Call of Pripyat, Mass Effect 2 и F1 2010 . Итоговый список поединков с Radeon HD 6870 и вовсе состоял бы из одних побед и ничьих, если бы не F1 2010 . В среднем, своего прямого соперника GeForce GTX 560 Ti опережает на 15 %, а максимальное превосходство может достигать и весьма внушительных 60 %!

В разрешении 2560х1600 карты уровня GeForce GTX 560 Ti или Radeon HD 6870, стоимость которых не превышает 250 долларов, как правило, не используются. Это уже вотчина решений, чья стоимость начинается от 300 долларов. Вполне закономерно, что здесь GeForce GTX 560 Ti в большинстве тестов проигрывает Radeon HD 6950, однако, превосходство над Radeon HD 6870 он сохраняет, хотя в среднем оно и падает до 12-13 %.

Подведя итоги, мы можем сказать, что новое массовое решение NVIDIA получилось очень и очень удачным. При своих скоростных характеристиках и цене, всего на 10 долларов превышающей официальную стоимость Radeon HD 6870, оно не оставляет последнему ни единого шанса. Неудивительно, что графическое подразделение Advanced Micro Devices всерьёз обеспокоено столь агрессивным ходом со стороны NVIDIA, и в качестве ответного удара планирует снизить цены на Radeon HD 6870, а также представить на рынок новый, более дешёвый вариант Radeon HD 6950, оснащённый 1 ГБ локальной видеопамяти. Иными способами бороться с GeForce GTX 560 Ti практически невозможно: он однозначно выигрывает у Radeon HD 6950 2GB в стоимости, но далеко не всегда проигрывает ему в производительности в реальных играх.

На сегодняшний день GeForce GTX 560 Ti вполне можно признать лучшим игровым решением стоимостью до 250 долларов. Свою цену он отрабатывает сполна, и лучшего выбора для тех, кто не желает вкладываться в решения класса GeForce GTX 570 или Radeon HD 6970, в настоящее время не существует. Насколько конкурентоспособной окажется удешевлённая версия Radeon HD 6950, покажет время.

GeForce GTX 560: достоинства и недостатки

Достоинства:

Лучшая производительность в своём классе
В ряде тестов соперничает с Radeon HD 6950 2GB
Высокая производительность при выполнении тесселяции
Широкий выбор режимов FSAA
Минимальное влияние FSAA на производительность
Полноценная аппаратная поддержка декодирования HD-видео
Качественный постпроцессинг и масштабирование HD-видео
Поддержка эксклюзивных технологий NVIDIA PhysX и NVIDIA 3D Vision
Широкий выбор GPGPU приложений, разработанных для NVIDIA CUDA
Низкий уровень шума
Высокая эффективность системы охлаждения

Недостатки:

Серьёзных не обнаружено



Есть вопросы?

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: