Игровые тесты: StarCraft II: Wings of Liberty. Конфигурация тестовых платформ и методология тестирования

20.04.2019

В январе 2011 года nVidia порадовала всех своих почитателей выходом видеокарты пятого поколения GeForce GTX 560, пришедшей на замену старшему собрату GTX 460, позаимствовав у него графическое ядро GF104, которое немного оптимизировали и назвали GF114, в связи с чем и получили прирост производительности. Видеокарта идеально подойдет для игр даже 2015 года на средних и минимальных настройках. Однако так ли высока оказалась мощность GTX 560 относительно 460 модели, чтобы переплачивать за нее? Об этом и не только речь пойдет ниже.

Основные характеристики

  • Техпроцесс: 40 нм
  • Ядро видеокарты: GF114
  • Количество исполнительных процессоров (SPU): 336
  • Частота SPU: 1620 МГц
  • Частота ядра видеопамяти: 810 МГц
  • Частота видеопамяти: 2004 МГц
  • Тип памяти: GDDR5
  • Объем видеопамяти: 1 Гбайт
  • Ширина шины: 256 бит
  • Количество текстурных процессоров: 56
  • Количество блоков растеризации: 32
  • Потребление энергии: 170 Ватт

Производитель видеокарты и различные конфигурации от других компаний

Главный производитель видеокарты — конечно же компания nVidia. Стоит сказать, что компанией было выпущено три модификации видеокарты, оригинальная поступила в продажу в 3 видах: обычная, разогнанная GTX 560 с постфиксом «TI» и урезанная версия 560 SE, также вышла видеокарта для мобильных ноутбуков GTX 560M. Многие зададутся вопросом, а для чего, собственно, надо было урезать видеокарту. Ответ явный: дело в том, что номинальная производительность GTX 560 была на порядок выше, чем у GTX 460, а цена особо не выросла. И, чтобы не понести убытков от производства данного видеоадаптера, было решено заблокировать часть шейдерных блоков, в итоге место заявленных 336 унифицированных процессоров на прилавок в основном количестве поступила видеокарта с 288 универсальными конвейерами со сниженной частотой SPU, частотой ядра, с меньшим количеством текстурных и пиксельных блоков и, самое главное, меньшей шиной памяти. А улучшенная версия видеокарты была представлена в виде модификации GTX 560 TI, стоимость которой примерно на 40% или где-то на 4000 рублей выше, чем у GTX 560 SE. Таким образом, показатели урезанной версии видеокарты оказались ровно такими же, что и у GTX 460. Из этого можно сделать вывод, что переплачивать за свежее название не стоит и если уж брать GTX 560, то только в версии «TI», которая значительно производительней GTX 560 SE и уж тем более GTX 460.

Существуют и другие конфигурации GTX 560, к примеру, от известных компаний Manli и Gigabyte:

Manli GeForce GTX 560 TI не отличается от оригинала в принципе ничем, если не учитывать более высокую частоту SPU на целых 4 мегагерца. Ирония, но по-другому тут реагировать не приходится.

А вот компания GigaByte более ответственно подошла к производству своей модификации данного видеоадаптера, улучшив Gigabyte GeForce GTX 560 частоту видеопроцессора с 810 до 830 МГц, что, к слову, даже выше, чем у GTX 560 TI с ее 822 МГц. Также повышена частота унифицированных вычислительных процессоров с 1620 до 1660 МГц. Все это существенно улучшило производительность видеоадаптера по сравнению с оригинальной GTX 560 от NVIDIA, при этом цена за видеокарту выросла лишь немного, что позволяет при покупке данного видеоадаптера отдать предпочтение компании GigaByte.

nVidia GeForce GTX 560 vs AMD Radeon HD 6950 1 GB – битва машин

Как только nVidia выпустила видеокарту 5-го поколения с улучшенной производительностью, AMD тут же дала свой ответ – Radeon HD 6950 1 GB. Если сравнивать энергопотребление и температуру видеокарт, то ответ, думаю, будет очевиден: GeForce GTX 560 существенно выигрывает у противника. Несмотря на то, что энергопотребление у видеоапаптера nVidia выше на 15 ватт в нагрузке, температура его в простое составляет 29 градусов при 42 у радеона, а при нагрузке 68 градусов против 79 у Radeon HD 6950, следовательно, риск перегрева GTX 560 гораздо ниже, чем у конкурентной радеоновской видеокарты. При этом уровень шума вентиляторов, издаваемых в нагрузке у GTX 560 на 5 децибел меньше, чем у оппонента из AMD, такая разница заметно сглаживает дискомфорт, испытываемый пользователем из-за шума кулеров ПК.

Пришло время сравнить их производительность в независимом тестировании данных видеокарт и наконец выяснить, что мощнее – бесшумная и безопасная NVIDIA GeForce GTX 560 или менее прожорливая, но более «пыхтящая» AMD Radeon HD 6950.

В ходе тестирования была использована следующая конфигурация оборудования:

  • МП — eVGA X58 Classified
  • Процессор – Intel Core I7 965, 3.7 ГГц
  • Видеоадаптеры – GeForce GTX 560 TI и Radeon HD 6950 1 ГБ
  • ОЗУ — Corsair 6144 МБ (3x 2048 МБ) DDR3 1500 МГц
  • Блок питания – 1.2 Киловатт
  • ОС: Windows 7, 64 бит с поддержкой DX9 — DX11

Игры и бенчмарки, в которых проводилось тестирование:

  1. Call of Duty — Modern Warfare 2 – настройки max, разрешение 1920 x 1200
  2. Far Cry 2 — настройки высокие, разрешение 1920 x 1200
  3. Anno 1404 – настройки max, разрешение 1920 x 1200
  4. Crysis WARHEAD – настройки высокие, разрешение 1920 x 1200
  5. Metro 2033 – настройки max, разрешение 1920 x 1200
  6. Battlefield Bad Company 2 – настройки max, разрешение 1920 x 1200
  7. Colin MC Rae Dirt 2 – настройки max, разрешение 1920 x 1200
  8. 3DMark Vantage
  9. 3DMark 11
Radeon HD 6950 1 GB
Call of Duty — Modern Warfare 2 123 fps 129 fps
Far Cry 2 81 fps 76 fps
Anno 1404 68 fps 78 fps
Crysis WARHEAD 47 fps 51 fps
Metro 2033 23 fps 25 fps
Battlefield Bad Company 2 47 fps 50 fps
Colin MC Rae Dirt 2 66 fps 72 fps
3DMark Vantage 19925 17912
3DMark 11 4311 4973

Какой вывод можно сделать из представленной выше таблицы? Видеокарта Radeon HD 6950 существенно опережает GTX 560 TI по вычислительной мощности и скорости обработки кадров. Достигается это, прежде всего, за счет большего числа текстурных блоков у радеоновской карты (88 против 64 у GTX 560 TI), стоит отметить и большее количество унифицированных исполнительных процессоров (1408 у Radeon HD 6950 против 384 у GTX 560 TI), однако это не сильно влияет на быстродействие, так как ядро Cayman Pro, на базе которого создана Radeon HD 6950 будет немногим опережать по производительности GF114.

Несмотря на разницу в бенчмарках, в играх радеоновская карта мало чем лучше джифорса. Это проясняется в результате сравнения fps в играх при работе двух видеоадаптеров, потому, учитывая их температуры при нагрузках, я бы рекомендовал все же nVidia GeForce GTX 560 TI, ведь риск перегрева у джифорса гораздо ниже, чем у оппонента из AMD.

Разгон nVidia GeForce GTX 560

Для разгона было использовано то же тестовое оборудование, что и при сравнении GTX 560 с Radeon HD 6950. У GTX 560 TI была повышена частота ядра с 822 до 950 МГц, увеличено количество шейдерных процессоров с 1644 до 1900, а также частота видеопамяти с 4008 до 4800 МГц.

Разгон проводился утилитой Afterburner, при этом напряжение не изменялось, как и работа кулеров.

Настройки в играх ставились высокие, разрешение 1920 x 1200

Результаты оверклокинга:

GeForce GTX560 – разгон
Call of Duty: Modern Warfare 2 123 fps 141 fps
Battlefield Bad Company 2 54 fps 47 fps
3DMark 11 4749 4311

Как видно из результатов разгона, он будет вполне оправдан, так как fps заметно повышается, как и вычислительная мощность при работе в профессиональных программах, например, Sony Vegas. Но не забывайте следить за температурным режимам, так как несмотря на все меры повышения надежности своих видеокарт, предпринимаемых NVIDIA, риск перегреть ее при разгоне остается несмотря ни на что.

На десерт:

Результаты работы NVIDIA GeForce GTX 560 в некоторых играх 2015-2016 года:

Ведьмак 3: Дикая охота (2015) – средние настройки. Одна из самых прожорливых современных игр. Внимание! 35 fps! Восхитительный результат для видеокарты 2011 года, не правда ли?

CS : GO – максимальные настройки. 200 fps!

GTA 5 (2015) – высокие настройки, разрешение 1360 x 768, вертикальная синхронизация 50%. 30 fps!

Таким образом, данная видеокарта идеально подойдет как для прикладных, так и для игровых решений и потянет подавляющее большинство прожорливых игр на средних настройках. И это с учетом ее стоимости в 4000-5000 рублей на сегодняшний день! А модификации, к примеру, от Gigabyte еще круче. Моя оценка видеокарте: 8 из 10, минус за урезанные модификации GeForce GTX 560 SE, хотя nVidia в этом плане можно понять – компания заботится не только о пользователях, но и о прибыльности дела, это вполне закономерно.

Наверное, ничто так не влияет на производительность компьютера в играх, как видеокарта. И действительно, чем мощнее сей компонент, тем приятнее игра. Сейчас на рынке имеется огромное количество видеопроцессоров от разных производителей. Выбор чрезвычайно широк: от маломощных моделей начального уровня до топовых «монстров» за сумасшедшие деньги. И, как всегда, среди всего этого многообразия выделяется компания NVIDIA. Она давно славится своими качественными и производительными видеокартами.

Относительно недавно компания выпустила новую видеокарту из среднего ценового сегмента - NVIDIA GeForce GTX 560 Ti. Характеристики ее таковы, что назвать ее средней язык не поворачивается. Впрочем, с теперешними темпами развития технологий она скоро станет таковой. В чем же ее особенность? По крайней мере, ее главная особенность в том, что за нее не просят баснословных денег. Высокая стоимость продуктов от данной марки - обычное дело. Тем примечательнее выпуск продукта за адекватную сумму с неплохими характеристиками.

Общая информация

GTX 560 Ti пришла на смену успешной, но безнадежно устаревшей модели GTX 460. В новой видеокарте все новое: техпроцесс, количество ядер, частота ядра, памяти, количество процессоров. Следует отметить, что индексом Ti помечаются только топовые версии видеокарт компании. 560 Ti наглядно показывают, насколько данная видеокарта лучше своей предшественницы. Изрядные изменения наблюдаются и в системе охлаждения. Теперь можно не бояться, что видеокарта перегреется при высоких нагрузках. Также несколько изменен внешний вид гаджета. Причем в лучшую сторону.

Надо сказать, что у NVIDIA все время была жуткая путаница с индексами видеокарт. Какие только буквы они не использовали! В итоге компания добилась того, что окончательно запутала пользователя. Поэтому полагаться на индекс Ti не стоит. Лучше отдельно изучить документацию по GTX 560 Ti, характеристики которой не обязательно будут топовыми. Но это вовсе не значит, что видеокарта никуда не годится. Более того, судя по отзывам, она способна "вытягивать" даже самые тяжелые игры. Каким образом? Сейчас мы в этом разберемся.

Дизайн и внешний вид

Прошли те времена, когда видеокарты представляли собой бездушные куски платы. Теперь каждая из них произведение искусства. Внешний вид рассматриваемой видеокарты также не вызывает нареканий. Крутой внешний вид - вот особенность GTX 560 Ti, характеристики при этом ничуть не пострадали.

Внутренности видеокарты прикрыты черным кожухом с гравировкой. А посередине всего этого великолепия удобно расположился мощный кулер системы охлаждения. На заднем торце находятся разъемы для подключения питания, а на переднем - разъемы DV для двух мониторов и один HDMI-разъем. Ничего лишнего. Такой аскетизм в количестве разъемов объясняется очень просто. Во-первых, это не топовая модель. Поэтому снабжать ее полным комплектом разъемов нецелесообразно. Во-вторых, как известно, старые схемы самые надежные. Поэтому отсутствие полного комплекта разъемов в этом случае плюс.

GPU

В GTX 560 Ti используется GPU с аббревиатурой GF 114. Это совершенно новый графический процессор, который разрабатывался специально для GTX 560 Ti. Характеристики его таковы, что он на голову выше всех предыдущих моделей. Новинка характеризуется повышенным количеством ядер и гораздо меньшим тепловыделением. То есть графический процессор не только работает быстрее, но еще и греется куда меньше предыдущих моделей. Это значит, что можно добиться от видеокарты неплохих мощностей. Особенно если учесть мощную систему охлаждения GTX 560 Ti.

Интересно, что такие графические процессоры используются и в топовых видеокартах от этой компании. Одно это свидетельствует о "полуцарственном" статусе данного девайса. Возможно, причина высокой производительности кроется еще и в этом.

Объем видеопамяти

Объем видеопамяти - важнейшая характеристика видеокарты. По мнению некоторых, именно объем определяет степень «крутости» видеокарты. Но это далеко не так. Так какой же объем памяти доступен в модели GTX 560 Ti? Характеристики не сильно повлияют на ее производительность, но все же. в данной карте составляет всего 1024 Мб. Маловато, конечно. Куда ей до флагманских моделей. Однако не объемом единым... Главное преимущество заключается в частоте ядра и памяти.

Частота ядра и памяти

Чем выше частота, тем производительнее видеокарта. Тем быстрее она обрабатывает информацию. У GTX 560 Ti с этим все в порядке. Частота ядра данной видеокарты составляет 822 МГц. А частота памяти - 4000 МГц. Это значит, что можно добиться высокой производительности в самых «прожорливых» играх. Даже несмотря на то, что объем памяти всего гигабайт. Как уже говорилось, память здесь не главное. Кстати, у ASUS GTX 560 Ti характеристики точно такие же. Что вполне естественно. GPU один и тот же. Различие только в мелочах.

Благодаря высокой частоте ядра и шины памяти производительность видеокарты куда лучше, чем могло показаться на первый взгляд. Конечно, немалое значение здесь имеет и количество самих универсальных процессоров. Здесь их 384. Этого более чем достаточно для повышения производительности. Вот вам и ответ на то, как видеокарта может справляться с "тяжелыми" играми, не обладая топовыми характеристиками.

NVIDIA GeForce GTX 560M - видеокарта high-end класса для ноутбуков, которая будет представлена летом 2011 года. Скорее всего, она основана на новом ядре GF116, относящемся к архитектуре Fermi. Таким образом, адаптер поддерживает DirectX 11 и OpenGL 4.0. По сравнению с GeForce GTX 460M, 560M располагает более высокой тактовой частотой и мощностью. GF116, по сути, является оптимизированным ядром GF106 с теми же функциями. Чип имеет 192 шейдера и 192-битную шину памяти (GDDR5).

В зависимости от объема используемой графической памяти, производительность карты будет находиться между GeForce GTX 460M и Mobility Radeon HD 5870 . Таким образом, даже требовательные современные игры на высоких настройках должны свободно работать. Например, только такие игры, как Metro 2033 и Crysis с адаптером GeForce GTX 460M «притормаживали» на высоких настройках.

Так же, как и GeForce GTX 460M , 560M поддерживает передачу потокового HD Audio (Blu-Ray) через интерфейс HDMI. Как и Radeon HD 5850 , GTX 460M может передавать Dolby True HD и DTS-HD к HiFi-приемнику без потери качества.

В GTX 560M реализована технология PureVideo HD, которая служит для декодирования видео. Встроенный видеопроцессор VP4 поддерживает набор функций C и, следовательно, GPU способен декодировать MPEG-1, MPEG-2, MPEG-4 ASP (DivX or Xvid), VC-1/WMV9 и H.264 (VLD, IDCT и компенсация движения). Например, закодированный анимационный фильм Big Buck Bunny (H.264) воспроизводился при нагрузке на процессор всего в 1-3% (видео 1080p). Кроме того, графический процессор способен декодировать два потока 1080p одновременно (картинка-в-картинке в формате Blu-ray).

Благодаря поддержке CUDA, OpenCL и DirectCompute 2.1, карта GeForce GTX 560M может помочь при выполнении общих расчетов. Например, потоковый процессор может значительно быстрее кодировать видео, чем это делает даже самый быстрый CPU. Технология 3D Vision позволяет отправлять 3D-контент (3D-игры, 3D-фотографии, 3D Blu-ray) на встроенный или внешние 3D-дисплеи. Потребляемая мощность GeForce GTX 560M составляет порядка 75 Вт (TDP, включая плату MXM и память). Это примерно столько же, сколько потребляют Mobility Radeon HD 5850 и HD 5870. Без нагрузки чип работает на частоте 50/100 МГц (чип / шейдеры) в двухмерном режиме и 200/400 МГц соответственно в 3D-режиме. Кроме того, серия 500M поддерживает технологию Optimus для автоматического переключения между интегрированной видеокартой от Intel и дискретным GPU от NVIDIA. Однако данная функция должна быть не реализована компанией-производителем ноутбука.

Аналогичная карта для настольных ПК GeForce GTX 560Ti основана на чипе GF114. Она мощнее и располагает большим числом шейдеров.

Производитель: NVIDIA
Серия: GeForce GTX 560M 192@775MHz
Код: GF116
Потоки: 192 - unified
Тактовая частота: 775* МГц
Частота шейдеров: 1550* МГц
Частота памяти: 1250* МГц
Разрядность шины памяти: 192 Бит
Тип памяти: GDDR5
Максимум памяти: 1536 Мб
Общая память: нет
DirectX: DirectX 11, Shader 5.0
Технология: 40 нм
Дополнительно: CUDA, PhysX, PureVideo HD VP4
Размер ноутбука: большой
Дата выхода: 01.06.2011

* Указанные тактовые частоты могут быть изменены производителем

Компания NVIDIA в этом году замыслила вернуться на арену игровых устройств с новым графическим процессором GTX 560. Компания заявила, что GTX 560 призвана заменить GTX 460. Это графическое ядро преподносится в качестве идеального варианта при апгрейде компьютера.

Gigabyte GeForce GTX 560 OC: обзор

Сегодня мы протестируем GTX 560 в видеокарте Gigabyte и представим обзор. Ядро в Gigabyte GTX разогнано производителем на 20 МГц до 830 МГц, в то время как память осталась на штатной частоте 4008 МГц и 256-битной шине, в точности как на GTX 560 Ti. Новая система охлаждения называется WindForce 2x Anti-turbulence. Она состоит из двух 100 мм вентиляторов и четыре 6 мм тепловых трубок. Gigabyte решила не использовать паянные тепловые трубки на радиаторе, мотивируя это тем, что в местах пайки нарушается правильное распределение теплоты. Но, вообще-то говоря, воздух хуже проводит тепло, чем металл, поэтому есть подозрение, что не спаянные тепловые трубки использованы из-за дешевизны.





На передней стороне коробки изображен глаз робота. Все оформление сделано в сине-золотых тонах. На первом плане размещены два стикера NVIDIA, один из которых сообщает, что производитель карты – официальный партнер компании, а другой – о том, что устройства готово для использования 3D Vision. Переливающийся логотип Gigabyte можно найти на каждой из сторон упаковки. На ней наклеены еще три стикера, оповещающие об особенностях видекарты. На задней стороне коробки напечатана подробная информация о системе охлаждения WindForce, демонстрирующая, что целью ее является тихая и эффективная работа. Здесь же приведены сведения о Ultra Durable VGA (ультрадолговечных) компонентах. Заявлено, что эти элементы повышают способность разгона на 10-30%, при этом уменьшая на 10-30% потери при увеличении подаваемого напряжения. Заявлено также снижение средних температур GPU на 5-10%. Основные особенности также повторены на нижней части коробки на разных языках.

Комплектация Gigabyte GTX 560

Открывая упаковку, обнаруживаем блестящую и гладкую коробку с видеокартой. Внутри нее находим руководство пользователя и CD с драйверами. Под ними находится само устройства в защитной пленке. Здесь же находим аксессуары: два двойных Molex на 6-пин PCIe соединительных шнура; один адаптер Mini HDMI на HDMI; один адаптер DVI на D-Sub VGA. Как обычно бывает, карта упакована в антистатический пакет. Внутри него выходные гнезда и гнездо SLI защищены заглушками. Слот PCI Express и разъемы питания ничем не закрыты.



Начинка: периферия, порты, кулеры

Видеокарта Gigabyte GeForce GTX 560 OC построена из тех же компонентов, из которых собирают материнские карты этой компании. Этот дизайн называется Ultra Durable VGA. Большее количество меди в каждом из слоев платы обеспечивает лучшую проводимость. Высококачественные конденсаторы и другие элементы позволяют снизить рабочие температуры и потребление энергии. Имея 336 ядер построенных на 40 нм TSMC узлах, GTX 560 по производительности должна быть близка к GTX 460, хотя по конструкции и дизайну очень похожа на GTX 560 Ti. Картина такова, что NVIDIA будто не собирается совсем убирать GTX 460 с рынка, как уже было с GTS 450, когда они постепенно убирали ее в low-end сегмент.


В системе отвода тепла используются два 100 мм вентилятора, слегка наклоненных для обеспечения более эффективного выдува. Максимальная частота вращения кулеров 2000 Об/мин и это должно обеспечить предельно тихую работы. В радиаторе также применены 6 мм контактные тепловые трубки для отвода тепла от ядра GPU. Задняя часть карты не несет никаких важных электронных частей, на большинстве новых карточек все элементы устанавливаются со стороны GPU.


В перечень поддерживаемых выходов включены два порта DVI-I и один Mini HDMI. Аудиовыход Mini HDMI присоединен непосредственно к плате. С адаптером D-Sub VGA, к карте может быть присоединен любой дисплей. NVIDIA пока не принимает DisplayPort как серьезного конкурентного стандарта. На тыльной стороне видеокарты находятся два 6-пиновых разъема питания. Следом за ними – разъем питания для вентилятора.


Наклон вентиляторов прекрасно отражен на этих двух фото. Этот дизайн занимает два слота. Наклон кулеров позволяет карте дышать, а конфигурация SLI позволит убедиться, что установленные рядом устройства не будут задеты лопастями вентиляторов.



Четыре контактных тепловых трубки прекрасно покрывают зону ядра GPU. Размер вентиляторов позволяет им нависать над радиатором, так что они смогут помогать при охлаждении компонентов материнской карты, таких как радиаторы чипсета. Данный тип печатной платы имеет предостаточно пространства для любых типов решений в плане систем охлаждения. Используемая в GTX 560 память производится фирмой Hynix. Модель H5GQ1H24AFR-T2C работает на частоте 5.0 ГГц и потребляет 1.5 В, но тактовая частота при этом ограничена 4008 МГц. Ядро GF114 защищено интегрированным тепловым щитом. Этот щит предотвращает перегрев детали в случае неправильной установки системы охлаждения.

Возможности, спецификация и особенности видеокарты Gigabyte GTX 560 OC

Спецификация
Графический движок GeForce GTX 560
Стандарт шины PCI Express x16 2.0
Тип памяти 1 ГБ GDDR5
Интерфейс памяти 256 бит
Тактовая частота ядра (МГц) 830
Тактовая частота памяти (МГц) 4008
Ширина канала связи (ГБ/с) 128.3
Ядра CUDA 336
Выход DVI 2
Выход D-SUB 1 адаптер DVI на D-Sub
Выход HDMI 1 ключ Mini HDMI на HDMI
Выход Mini HDMI 1
VIVO(Video-вход/выход) Нет
Поддержка HDTV Есть
Поддержка HDCP Есть
Dual-link DVI Есть
Выход дисплея (Макс. разрешение) 2560×1600
RAMDAC 400
Поддерживаемая версия DirectX 11
Поддерживаемая версия OpenGL 4.1
Поддержка SLI Есть
Трехсторонний SLI Нет

Особенности:

  • Поддержка Microsoft DirectX 11 : сверхвысокая производительность и ускоряемая посредством GPU тесселяция.
  • Возможность использования NVIDIA 3D Vision : обеспечивает непревзойденную степень погружения в стереоскопическое 3D изображение. Комбинация высокотехнологичных очков и специального программного обеспечения позволит оживить тысячи компьютерных игры в 3D.
  • Возможность использования NVIDIA 3D Vision Surround : позволяет распределить 3D стереоскопическое изображение между тремя дисплеями.
  • Технология NVIDIA SLI : обеспечивает умножение показателей качества графических адаптеров.
  • Технология NVIDIA PhysX : за счет обеспечения нового уровня вовлеченности в игровой процесс, создает по-настоящему реалистичное действие на экране.
  • Технология NVIDIA CUDA : разблокирует резервные мощности графического процессора, позволяя ускорять решение наиболее требовательных задач, таких как декодирование видео, симуляцию физических процессов и многих других.
  • Технология 32x Anti-aliasing : невероятно быстрый и ультра качественный anti-aliasing с частотой сэмплирования до 32x.
  • Технология NVIDIA PureVideo HD : комбинация ускорения декодирования видео высокого разрешения и пост-обработка позволяют вывести качество просматриваемого видео на новые вершины.
  • Поддержка PCI Express 2.0 : высочайшие скорости передачи данных и самые широкие полосы пропускания.
  • Поддержка Dual-link DVI : обеспечивает возможность вывода на дисплей разрешений до 2560×1600 с поддержкой HDCP.
  • Поддержка HDMI 1.4a, включая GPU-ускоренную поддержку Blu-ray 3D, x.v.Color, HDMI Deep Color, и звук формата 7.1 digital surround.

Тестирование

Тест Gigabyte GeForce GTX 560 OC включил в себя игры Aliens vs. Predator, Metro 2033, Call of Duty: Modern Warfare 2, Unigine Heaven Benchmark 2.1, 3DMark 11 Professional, 3DMark Vantage и испытания температуры и энергопотребления. Для всех игр устанавливались три наиболее распространенных разрешения с включенными 4AA и 16AF, а в тесте 3DMark запуск производился на четырех разрешениях. После прохождения всех этапов, карта была разогнана, проверена на стабильность и протестирована снова. Все тесты производились на одном и том же оборудовании под управлением операционной системы Windows 7 64-бит.

  • Процессор: Intel i7 920 @ 3.60 ГГц
  • Cooling: Noctua NH-U12P SE 1366
  • Материнская плата: ASUS P6X58D-E
  • Память: Mushkin Redline DDR3 1600 МГц 6-8-6-24
  • Видеокарта: Gigabyte GTX 560 OC
  • Блок питания: Mushkin 800 Ватт
  • Жесткий диск: 1 x Seagate 1ТБ SATA
  • Оптический привод: LG DVD-RW
  • ОС: Windows 7 Professional 64-бит
  • Корпус: Hiper Osiris

Сравниваемые видеокарты:

  • Sapphire HD 6990
  • AMD HD 6970 CrossfireX
  • HD 6970 & HD 6950
  • Sapphire HD 5970 2GB
  • Sapphire HD 5870
  • Sapphire HD 5850 Toxic 2GB
  • XFX HD 6870
  • XFX HD 6850
  • ASUS GTX 580 SLI
  • ASUS GTX 570 SLI
  • NVIDIA GTX 580
  • NVIDIA GTX 570
  • NVIDIA GTX 480
  • Galaxy GTX 470 GC
  • EVGA GTX 460 FTW
  • ASUS ENGTX465
  • MSI GTX 560 Ti Hawk

Разгон Gigabyte GeForce GTX 560 OC 910/1125

Мы не надеялись на отличные показатели разгона в свете того факта, что эта карта уже разогнана производителем. Однако усовершенствованный базис печатной платы и улучшенная система охлаждения вселяли надежду. В итоге карта показала 910 МГц на ядре и 1125 МГц в памяти, разгон был осуществлен с помощью MSI Afterburner V2.20 Beta 2. У Gigabyte на диске с драйверами имеется программа Easy Boost, функционал которой сходен с Afterburner, но нет управления вольтажом. Процесс разгона проходил гладко, однако был “пролет” с определением стабильных частот. Температуры сохранялись довольно низкими, а система охлаждения совсем не шумела.



Игровой тест: Aliens vs. Predator

Aliens vs. Predator – научно-фантастический шутер от первого лица. Игра построена на движке Rebellion’s Asura, который поддерживает Dynamic Lighting, Shader Model 3.0, систему Soft Particle и Physics. Для тестирования этой игры был использован встроенный бенчмарк-инструмент Aliens vs. Все функции DirectX 11 были включены.

Настройки:

  • 16xAF
  • SSAO = Вкл
  • Качество текстур = Очень высокое
  • Аппаратная тесселяция = Вкл
  • Усовершенствованное сэмплирование теней = Вкл


В игре Aliens vs. Predator, GTX 560 показывала превосходящий или равный результат с Sapphire HD 6870 в 5 из 6 этапах! Производительность была практически на уровне GTX 460.

Игровой тест Metro 2033

Частично — шутер от первого лица, частично — хоррор, игра Metro 2033 основана на одноименном романе российского писателя Дмитрия Глуховского. Игра работает на движке 4A Engine, поддерживает DirectX 11, NVIDIA PhysX и NVIDIA 3D Vision.

Настройки:

  • DirectX 11
  • 16xAF
  • Глобальные настройки = Высокие
  • Physx = Выкл


В игре Metro 2033 показатели GTX 560 снова были на уровне GTX 460. Карточка немного отстала от 6850.

Игровой тест Call of Duty: Modern Warfare 2

Call of Duty: Modern Warfare 2 это очередная игра серии Call of Duty, шутер от первого лица. Движок игры — IW 4.0, отличный подопытный для тестирования производительности видеокарты. В процессе тестирования мы будем замерять FPS с помощью Fraps в ходе обычной игры.

Настройки:


Показатели в этом тесте оказались между 6870 и 6850. NVIDIA обещала более высокую производительность по сравнению с 6850, и пока что это похоже на правду.

Тест Unigine Heaven Benchmark 2.0

Unigine Heaven Benchmark 2.0 — это программа тестирования графических процессоров с использованием DirectX 11 GPU на движке Unigine. Что ставит Heaven Benchmark особняком – это возможность использования аппаратной тесселяции в трех режимах - умеренном, нормальном и экстремальном. При этом тесселяция требует от видеокарты поддержки DirectX 11 и Windows Vista/7, а Heaven Benchmark также поддерживает DirectX 9, DirectX 10 и OpenGL. Визуально тест представлен как изображение прекрасных плавающих островов, на которых расположены крохотные деревеньки с тщательно прорисованной архитектурой.

Настройки:

  • 16xAF
  • Шейдеры = Высоко
  • Тесселяция = Нормально
  • Измерения = FPS


Снова одинаковые результаты у карты от Gigabyte и GTX 460. 6850 оказалась позади. Разгон обеспечил хорошее ускорение на всех разрешениях!

Тест 3DMark 11

3DMark 11 это очередной релиз Futuremark в серии 3DMark после Vantage. 3DMark 11 создан исключительно под DirectX 11, так что поддержка видеокартой Windows Vista или 7 обязательна для прохождения этого теста.

Новая версия бенчмарка тестируется при помощи нескольких новых демок, которые включают также аудиопотоки. При этом для каждой из карт были использованы три набора предустановок.

Настройки:

  • Настройки тестов по умолчанию
  • Начальный тест: 1024 x 600
  • Тест производительности: 1280 x 720
  • Экстремальный тест: 1920 x 1080


Производительность GTX 460 и GTX 560 в 3DMark 11 была близка, причем 460 выиграла начальные этапы и проиграла на последних. 6850 во всех тестах была в отстающих.

Тест 3DMark Vantage

Включая в себя все новейшие игровые тесты, этот бенчмарк предназначен для систем на базе Vista. В тестовых программах есть четыре уровня предустановок, специфичных для каждого из разрешений. «Начальный» работает на 1024 x 768, а «Экстремальный» на 1920 x 1200. Для нашего тестирования были использованы именно эти пресеты.

Настройки:

  • Настройки: по умолчанию для каждого из пресетов
  • Начальный: 1024 x 768
  • Производительный: 1280 x 1024
  • Высокий: 1680 x 1050
  • Экстремальный: 1920 x 1200


В Vantage ближайшим преследователем GTX 560 оказалась 6870 от AMD. Более старая 5870 превзошла нашу карту с приличным заделом. В процессе повышения разрешений, результаты стремились к показателям GTX 460.

Температурный тест

В ходе темпеартурного теста была обеспечена 100% загрузка видеокарты с помощью MSI Kombuster, при этом утилита MSI Afterburner была использована для регистрации температуры. Также для оценки стабильности тест запускался в разрешении 1920 x 1200 с использованием 8xAA. Для обеспечения выхода на максимальные пороги по температуре, тест длился 15 минут. Для штатной карты регулирование частоты вращения вентилятора охлаждения оставалось в ведении системы управления BIOS, а для разогнанной карты мощность его устанавливалась на 100%. Тест в режиме ожидания длилася 20 минут при таких же условиях работы охлаждения.

Настройки:

  • Мониторинг через MSI Afterburner
  • Длительность теста в режиме ожидания — 20 мин
  • Температура измерялась в градусах Цельсия


Gigabyte GTX 560 показала просто отличные температуры на следующих тестах: при загрузке в штатной версии; и в разогнанной версии в режиме ожидания! Но и в остальных тестах показатели были очень хорошими. Такой температурный режим работы – просто фантастика.

Тест энергопотребления

Энергопотребление систем будет измерено в режиме бездействия и в режиме нагрузки при подаче пикового напряжения. Для загрузки GPU на 15 минут используем MSI Kombuster. Результат в режиме ожидания фиксируется после 15 минут бездействия системы.

Настройки:

  • Тест на стабильность работы GPU — MSI Kombuster
  • Разрешение 1920 x 1200
  • Длительность теста под нагрузкой — 15 мин
  • Длительность теста в режиме ожидания — 15 мин
  • Измерения в Ваттах


Серия GTX 500 более энергоэффективна, чем серия GTX 400. Карта от Gigabyte показала одни из самых низких коэффициентов энергопотребления. Однако следует признать, что столь малые показатели потребления были продемонстрированы, в том числе, благодаря слабому разгону.

Компании nVidia и AMD делают всё возможное для того, чтобы удостовериться в том, что у них есть что предложить в качестве альтернативы на любой из товаров конкурента. Ни одна видеокарта ещё не становилась доминирующим продуктом в той или иной ценовой группе надолго.

Приведём пример: недавно nVidia выпустила GeForce GTX 550 Ti как достойного соперника модели Radeon HD 5770/6770, а AMD, в свою очередь, представила видеокарту Radeon HD 6790 , которая может составить конкуренцию GeForce GTX 460 768 Мбайт от nVidia.

nVidia нанесла компании-сопернице ещё один удар: она выпустила GeForce GTX 560. Обратите внимание на отсутствие суффикса "Ti". Видеокарта GeForce GTX 560 Ti конкурировала с моделью Radeon HD 6950 1 Гбайт от AMD. Таким образом, этот продукт предназначен для "борьбы" с чуть менее дорогой видеокартой Radeon HD 6870, которую можно купить в интернет-магазинах по цене около $200.

Но каким образом компания nVidia превратила модель GeForce GTX 560 Ti в GeForce GTX 560? Да, здесь потребовалось больше действий, чем просто взять и убрать суффикс. Это как если бы чип GF114 внезапно получил взбучку от безобидной поролоновой игрушки.

Другими словами, nVidia выключает потоковый мультипроцессор. Получается, что GeForce GTX 560 работает, задействуя семь из восьми потоковых мультипроцессоров у GF114. У каждого работающего SM есть 48 потоковых ядер, четыре блока диспетчеризации и восемь текстурных блоков. Все четыре 64-битных раздела ROP функционируют и каждый из них способен обрабатывать восемь 32-битных целочисленных пикселя за тактовый цикл. В результате у модели GeForce GTX 560 насчитывается 336 потоковых ядер, 56 текстурных блоков и 32 конвейера растровых операций (Raster operation - ROP) c 256-битным интерфейсом памяти.

Если данные спецификации звучат для вас знакомо, то это потому, что они в точности повторяют характеристики GeForce GTX 460 1 Гбайт от nVidia. Оно и понятно: в конце концов, графический процессор GF114 с функциональной точки зрения идентичен модели GF104. Просто его доработали, чтобы он мог обеспечивать более высокие показатели тактовой частоты при меньшем потреблении энергии. Учитывая всё вышенаписанное вы можете предположить, что видеокарта GeForce GTX 560 нацелилась на то, чтобы заменить модель GeForce GTX 460. Но есть ещё одна переменная, которую необходимо принимать в расчёт: тактовая частота. У эталонной видеокарты GeForce GTX 460 ядро функционировало при 675 МГц, а память GDDR5 требовала 900 МГц. Но модель GeForce GTX 560 работает при частоте 810 МГц для ядра и 1002 МГц для памяти - это намного ближе к уровню GeForce GTX 560 Ti (822/1022 МГц для ядра и памяти, соответственно).

Все мы помним, что после разгона производительность GeForce GTX 460 неплохо возрастала. Именно по этой причине мы ожидаем, что GeForce GTX 560 с лёгкостью составит достойную конкуренцию модели Radeon HD 6870 от AMD. Что касается конкурирующих товаров, давайте рассмотрим другие варианты по аналогичным ценам.

GeForce GTX 460 1 Гбайт GeForce GTX 560 1 Гбайт GeForce GTX 560 Ti 1 Гбайт Radeon HD 6870 1 Гбайт
Потоковые ядра 336 336 384 1120
Текстурные блоки 56 56 64 56
Полноцветные конвейеры растровых операций 32 32 32 32
Тактовая частота графического процессора 675 МГц 810 МГц 822 МГц 900 МГц
Частота шейдеров 1350 МГц 1620 МГц 1644 МГц Нет данных
Частота памяти 900 МГц 1002 МГц 1002 МГц 1050 МГц
Память GDDR5 1 Гбайт 1 Гбайт 1 Гбайт 1 Гбайт
Интерфейс памяти 256 бит 256 бит 256 бит 256 бит
Пропускная способность памяти 3,6 Гбайт/с 4 Гбайт/с 4 Гбайт/с 4,2 Гбайт/с
Скорость фильтрации текстур 37,8 Гтекс/с 45,4 Гтекс/с 52,5 Гтекс/с 50,4 Гтекс/с
Видеовыходы 2 x DL-DVI
1 x mini-HDMI
2 x DL-DVI
1 x mini-HDMI
2 x DL-DVI
1 x mini-HDMI
2 x DL-DVI
1 x mini-HDMI
2 x DisplayPort
Форм-фактор Два слота Два слота Два слота Два слота
Разъёмы питания 2 x 6-pin 2 x 6-pin 2 x 6-pin 2 x 6-pin
Рекомендованная мощность блока питания 450 Вт 450 Вт 500 Вт 500 Вт
Тепловой пакет 160 Вт 160 Вт 170 Вт 151 Вт

В таблице ясно видно, что видеокарта GeForce GTX 560 – это, по существу, модель GeForce GTX 460, разогнанная до уровня GeForce GTX 560 Ti .

Для этого тестирования компания nVidia не предоставила нам эталонную плату. Вместо этого нам посоветовали обратиться к парочке партнёров nVidia, занимающихся выпуском видеокарт. Итак, в нашей лаборатории имеются две графических карты: GeForce GTX 560 AMP! Edition от Zotac и GTX 560 DirectCU II TOP от Asus.

Новый драйвер nVidia 275.20

В дополнение к новой видеокарте, nVidia представляет новую версию драйверов GeForce. Кроме обычных заявлений об увеличении производительности - особенно для компьютерных игр Crysis 2, Portal 2 и Bulletstorm, - появились и некоторые другие интересные функции.

Возможно, вы знакомы с оповещениями о выходе новых драйверов, появившимися в версии 270: когда появляется новый драйвер для скачивания, вас об этом предупреждает система. Согласно данным nVidia, более 90% пользователей, у которых видеокарта имеет такую функцию, решили её активировать. В новой версии 275.20 можно задействовать функцию автоматической загрузки обновлений SLI и AA. Также вы можете посмотреть, какие обновления были установлены, на вкладке истории на панели управления драйверами. В будущей версии драйверов планируется добавление профилей 3D Vision, но компания nVidia не назвала точной даты выхода новых драйверов.

Похожие статьи