NVIDIA SLI в современных играх: тест двух видеокарт ASUS ROG Strix GTX 1080 в одной системе
У технологии NVIDIA SLI богатая история. Идея распределения нагрузки между несколькими графическими адаптерами родилась в конце 90-х годов во времена популярности видеокарт Voodoo от фирмы 3dfx, и тогда еще не существовало никакого «слая». По-настоящему эффективное распространение GPU-связок произошло в 2000-х, когда аппаратных ограничений для построения систем из 2/3/4 адаптеров стало меньше, плюс появились оптимизированные под это дело игры и программы.
С тем фактом, что большинство игр будут неадекватно воспринимать используемую вами связку NVIDIA SLI, стоит смириться как можно раньше.
Сейчас технология NVIDIA SLI используется в основном энтузиастами и моддерами. Первым дополнительная видеокарта (или несколько видеокарт) необходима для получения рекордного результата в синтетических бенчмарках (именно тестовые приложения адекватнее всего реагируют на бонусные графические мощности в системе), вторым — для эффектной иллюминации внутри ПК, с дополнительными светодиодами и т. д.
Геймеры отдают предпочтение одному адаптеру в системе, что вполне оправдано. Регулярно проводимые тесты NVIDIA SLI в современных играх доказывают, что разработчики весьма неохотно оптимизируют свои проекты под мощные мульти-графические связки из нескольких ускорителей. По сути это и есть главное ограничение на пути развития данной технологии.
Зачастую один мощный графический адаптер уровня high-end оказывается мощнее двух видеокарт более низкого класса. Ко всему прочему, поддержка SLI в последнее время внедряется лишь в самые топовые ускорители (производительности которых и так достаточно для большинства игр), что также негативно сказывается на развитии мульти-графических систем.
Если вы все-таки решились на сборку системы NVIDIA SLI, состоящей из нескольких адаптеров, рекомендуем в первую очередь поразмышлять над следующими техническими тонкостями:
- материнская плата; очевидно, что на ней должно быть как минимум два коннектора PEG (PCI-E x16), причем желательно, чтобы именно на такой скорости они и работали с используемыми видеокартами (об этих нюансах мы поговорим ниже);
- мощный блок питания; еще до сборки ПК стоит хотя бы примерно рассчитать уровень энергопотребления системы; для нашей системы хватило БП на 1000 Вт;
- процессор; для раскачки нескольких видеокарт потребуется мощный ЦП (уровня Intel Core i7), но ключевая особенность, на которую стоит обратить внимание, – количество линий PCI-E, с которыми умеет работать выбранный камень (16, 28 или 44);
- драйвер; в общем-то любое профильное ПО для видеокарт GeForce в автоматическом порядке определяет наличие SLI в системе, но все же не лишней окажется проверка активности этой технологии сразу после установки драйвера силами сторонних утилит;
- круг задач, для которых планируется использовать NVIDIA SLI; об этом лучше подумать еще до приобретения нескольких мощных ускорителей; может случиться так, что толка от навороченной системы с парой-тройкой графических адаптеров не будет.
Трудности при сборке и эксплуатации технологии NVIDIA SLI
Без подводных камней обойтись не получится; хотя еще раз повторимся: с ходом времени технология NVIDIA SLI эволюционирует. Слабых мест становится меньше, а процесс сборки и использования мульти-графических связок упрощается.
Ожидать двукратного прироста от дополнительной GeForce GTX 1080 в системе не стоит.
Первое, о чем необходимо позаботиться сразу после сборки системы, – правильное распределение процессорных линий PCI-E между используемыми адаптерами. Поясним. Каждый процессор поддерживает ограниченное количество линий PCI-E (как правило, 16, 28 или 44).
Все ЦП для платформы LGA 1151 не вылезают за рамки 16 линий, а значит две видеокарты способны функционировать лишь в режиме х8+х8 (собственно это убедительный довод в пользу отказа от построения NVIDIA SLI в подобных системах).
А вот процессоры для LGA 2011 и LGA 2066 поддерживают 28 и 44 линии PCI-E (в зависимости от модели), и это уже достаточный арсенал для раскачки двух или трех видеокарт.
К слову, в этом обзоре мы сравним возможности режимов х16+х16 и х16+х8; в этом нам помогут центральные процессоры Intel Core i9-7900X (у него 44 линии) и Core i7-7800X (у него — 28).
Итак, еще до сборки NVIDIA SLI пользователь должен знать о технических возможностях своего ЦП, а следовательно и о правильном распределении процессорных линий PCI-E. Эту правильность необходимо проверить сразу после первого включения системы. Лучше всего это сделать в UEFI BIOS.
Современные материнские платы делятся подробной технической информацией об установленных в нее комплектующих, в том числе о распределении пресловутых линий PCI-E между адаптерами. Данные можно промониторить и в среде Windows, например, в программах GPU-Z и AIDA64.
Если в вашем распоряжении оказался процессор с 44 линиями PCI-E, а система показывает, что пара видеокарт функционирует в формате х16+х8 (мы лично столкнулись с такой проблемой), придется убедить ПК в том, что он не прав. В нашей ситуации помогла перестановка двух ускорителей; мы просто поменяли их местами, после чего система распределила линии правильно (х16+х16).
В большинстве игр одна GeForce GTX 1080 Ti оказывается не хуже, чем пара GeForce GTX 1080.
Еще одна трудность, которая может возникнуть после сборки NVIDIA SLI, – черный экран или некорректное отображение картинки на мониторе (например, недоступно разрешение 4К, с которым дисплей в принципе работать умеет).
Скорее всего, дело в неверно выбранном коннекторе подключения с обратной стороны ускорителя. Определить правильный поможет, опять же, драйвер (панель управления). Во вкладке SLI отображен требуемый для корректного вывода картинки разъем одной из используемых видеокарт. Впрочем, найти его можно и вручную, банально подрубая провод к каждому графическому интерфейсу.
С тем фактом, что большинство игр будут неадекватно воспринимать используемую вами связку NVIDIA SLI, стоит смириться как можно раньше. Это пресловутая оптимизация, а точнее ее отсутствие. Какие-то проекты видят лишь половину графической памяти, какие-то — только одну видеокарту; некоторые отображают правильную информацию, например, GTA V, Ghost Recon Wildlands и Rainbow Six Siege.
Скажем, Rise of the Tomb Raider безбожно тормозит в системе, где используется технология SLI (особенно в разрешениях 1080р и 1440р), а Warhammer 40,000: Dawn of War III и Total War: Warhammer никак не реагируют на появление в системе второй видеокарты GeForce GTX 1080 (что с одним адаптером, что с двумя, – средний кадр/с одинаковый).
NVIDIA SLI — это лотерея, в которой либо повезет, либо нет; предугадать итог заранее практически невозможно. Можно лишь поискать SLI профиль в драйверах для той или иной игры, а также покопаться в отзывах пользователей, которые уже протестировали мульти-графические связки в различных проектах.
NVIDIA SLI: х16+х16 или x16+x8?
Это один из вопросов, на который мы желали получить ответ в процессе исследования аппаратных возможностей NVIDIA SLI. Стоит ли приобретать дорогой процессор с большим количеством линий PCI-E для полного раскрытия потенциала топовых видеокарт?
Проведенные тесты доказали, что разница между режимами х16+х16 и х16+х8 существует, однако зачастую она сводится к банальной погрешности (в некоторых играх, не оптимизированных, прироста нет вообще). Согласитесь, что 85 и 90 кадр/с — это не та пропасть, которая требует переплаты в несколько сотен долларов (мы о ЦП с поддержкой не 28, а 44 линий PCI-E)?
Даже синтетический и максимально лояльный к любым дополнительным мощностям 3DMark никак не отреагировал на дополнительную восьмерку процессорных линий PCI-E (а следовательно и большую пропускную способность интерфейса), ровно как и на более производительный ЦП.
Либо вторая видеокарта в системе есть, либо ее нет. На какой скорости она передает данные – неважно. Установлен ли в вашей системе 10-ядерный Intel Core i9-7900X или более доступный Core i7-7800X, также существенного значения не имеет (применительно к NVIDIA SLI).
Тестовый стенд:
Результаты тестирования
На системе с процессором Intel Core i9-7900X мы протестировали связку SLI из двух ASUS ROG Strix GTX 1080 (в формате x16+x16), а также один ускоритель GeForce GTX 1080 и ASUS ROG Strix GTX 1080 Ti. Процессор Intel Core i7-7800X потребовался для прогона SLI в режиме x16+x8.
Важно заметить, что две видеокарты в одной упряжке не перегреваются (спасибо энергоэффективной архитектуре Pascal); вентиляторы СО вращаются довольно редко, температура каждого чипа не превышает 65-70 градусов в процессе испытаний.
Ожидать двукратного прироста от дополнительной GeForce GTX 1080 в системе не стоит, даже на полных скоростях x16+х16; хотя в некоторых хорошо оптимизированных играх (особенно в высоком разрешении, например, 4К) плюсовая разница стремится именно к такому значению (Rainbow Six Siege, GTA V и Ghost Recon Wildlands).
В большинстве случаев одна GeForce GTX 1080 Ti оказывается не хуже, чем пара GeForce GTX 1080. Вся правда отражена на тестовых графиках.
Выводы
Технология NVIDIA SLI развивается, оптимизированные профили для современных игр в драйверах GeForce также появляются, пусть и не столь стремительными темпами, как этого хотелось бы. Тандем из нескольких графических ускорителей по-прежнему остается уделом энтузиастов и любителей всего самого навороченного.
Бережливый юзер отдаст предпочтение сборке с одним мощным адаптером и 4-ядерным ЦП (а лучше двухъядерным), если ПК необходим в первую очередь для компьютерных игр. И окажется прав.
А мощные камни с поддержкой 44 линий PCI-E лучше приберечь для иных целей, уж точно не для раскрытия потенциала технологии NVIDIA SLI. Главный конек таких процессоров в наличии большого количества физических ядер, которые используются для сложных технических расчетов, а не для обработки картинки в современных играх.
Источник
Пара ускорителей Gigabyte Aorus GeForce GTX 1080 Xtreme Edition 8G в режиме SLI: самая быстрая 3D-графика при чрезмерных финансовых затратах
Содержание
Справочные материалы
Объект исследования: Тандем из двух серийно выпускаемых ускорителей трехмерной графики, работающих по технологии SLI: 2 × Gigabyte Aorus GeForce GTX 1080 Xtreme Edition 8G 8 ГБ 256-битной GDDR5X
Сведения о производителе: Компания Gigabyte Technology (торговая марка Gigabyte) основана в 1986 году в Китайской Республике (Тайвань). Штаб-квартира в Тайбэе/Тайвань. Изначально создавалась как группа разработчиков и исследователей. В 2004 году на базе компании был образован холдинг Gigabyte, в который вошли Gigabyte Technology (разработка и производство видеокарт и материнских плат для ПК); Gigabyte Communications (производство коммуникаторов и смартфонов под маркой GSmart (с 2006 г.)); Gigazone International (корпуса, блоки питания и системы охлаждения для ПК, мониторы (торговая марка Envision)); G-Style Co (производство ноутбуков и планшетных ПК). Производство на Тайване и в Китае.
В данном материале рассмотрены результаты тестирования двух ускорителей, работающих одновременно по схеме SLI (производительность в 3D увеличена за счет распределения нагрузки по обеим видеокартам). Ниже приведены характеристики отдельно взятой карты, полновесный обзор которой уже был опубликован.
Устройство(а)
SLI 2 × Gigabyte Aorus GeForce GTX 1080 Xtreme Edition 8G 2×8 ГБ 256-битной GDDR5X (GV-N1080AORUS X-8GD, P/N 4 719331 301194) | |||
---|---|---|---|
Параметр | Значение по одной карте | Значение по 2м картам (SLI) | |
GPU | GeForce GTX 1080 (GP104) | ||
Интерфейс | PCI Express x16 | ||
Частота работы GPU (ROPs), МГц | 1784—2050—OC mode/1759—2012—Gaming mode/1733—1980—Silent mode | ||
Частота работы памяти (физическая (эффективная)), МГц | 2600 (10400)—OC mode/2550 (10200)—Gaming mode/2500 (10000)—Silent mode | ||
Ширина шины обмена с памятью, бит | 256 | 2×256 | |
Число вычислительных блоков в GPU | 20 | 2×20 | |
Число операций (ALU) в блоке | 128 | ||
Суммарное количество блоков ALU | 2560 | 2×2560 | |
Число блоков текстурирования (BLF/TLF/ANIS) | 160 | 2×160 | |
Число блоков растеризации (ROP) | 64 | 2×64 | |
Размеры, мм | 293×130×55 | 293×130×125 | |
Количество слотов в системном блоке, занимаемые видеокартой | 3 | 6 | |
Цвет текстолита | черный | ||
Энергопотребление | Пиковое в 3D, Вт | 194 | 377 |
В режиме 2D, Вт | 50 | 50 | |
В режиме «сна», Вт | 22 | 22 | |
Уровень шума | В режиме 2D, дБА | 18,0 | 18,0 |
В режиме 2D (просмотр видео), дБА | 21,0 | 21,0 | |
В режиме максимального 3D, дБА | 29,5 | 33,5 | |
Выходные гнезда | 1×DVI (Dual-Link/HDMI), 1×HDMI 2.0b, 3×DisplayPort 1.3 | ||
Поддержка многопроцессорной работы | SLI | ||
Максимальное количество приемников/мониторов для одновременного вывода изображения | 4 | ||
Дополнительное питание: количество 8-контактных разъемов | 2 | 4 | |
Дополнительное питание: количество 6-контактных разъемов | Нет | Нет | |
Максимальное разрешение 2D | Display Port | 4096×2160 | |
HDMI | 4096×2160 | ||
Dual-Link DVI | 2560×1600 | ||
Single-Link DVI | 1920×1200 | ||
Максимальное разрешение 3D | Display Port | 4096×2160 | |
HDMI | 4096×2160 | ||
Dual-Link DVI | 2560×1600 | ||
Single-Link DVI | 1920×1200 |
Искать цены в каталоге iXBT.com
Комплектация локальной памятью | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Тандем имеет 2×8 ГБ памяти GDDR5X SDRAM, размещенной в 8 микросхемах по 8 Гбит на лицевой сторонe каждой карты. Микросхемы памяти Micron (GDDR5X) рассчитаны на номинальную частоту работы в 2500 (10000) МГц. Детали о карте, ее дизайне, СО и пр. можно прочитать здесь.
Методика измерения шума
В режиме простоя в 2D температура составляла 40 °C, вентиляторы не работали. Шум был равен фоновому — 18,0 дБА. При просмотре фильма с аппаратным декодированием температура поднималась до 55 °C, вентиляторы временами включались, частота вращения была не выше 950 оборотов в минуту. Уровень шума составлял 21,0 дБА. В режиме максимальной нагрузки в 3D температура достигала 77 °C у первого ускорителя (установленного выше в вертикальном корпусе) и 85 °C у второго. Вентиляторы при этом раскручивались до 2057/2506 оборотов в минуту, шум вырастал до 33,5 дБА, становился хорошо заметным, но все же не превышал эргономического предела. Установка и драйверыКонфигурация тестового стенда
Список инструментов тестированияМетодику тестирования и все настройки можно посмотреть здесь.
Rise Of The Tomb Raider (Nixxes Software/Square Enix, DirectX 12) Grand Theft Auto V (Rockstar Games/Rockstar Games, DirectX 11) The Witcher 3: Wild Hunt (CD Projekt RED, DirectX 11) BattleField 1 (EA Digital Illusions CE/Electronic Arts, DirectX 12) Tom Clancy’s The Division (Ubisoft Massive/Ubisoft, DirectX 11) Deus Ex: Mankind Divided (Eidos Montreal/Square Enix, DirectX 12) Far Cry Primal (Ubisoft/Ubisoft, DirectX 11) Hitman (2016) (IO Interactive/Square Enix, DirectX 12) Ashes Of The Singularity (Oxide Games,Stardock Entertainment/Stardock Entertainment, DirectX 12) Результаты тестов: сравнение производительностиВыводы
Комментарий к Рейтингам iXBT.com
Комментарий к Рейтингам полезностиSLI 2 × Gigabyte Aorus GeForce GTX 1080 Xtreme Edition 8G (2×8 ГБ) — самое производительное на сегодня решение, заметно обгоняющее даже быстрейшего представителя однопроцессорных ускорителей — GeForce GTX 1080 Ti. Предназначено оно, как можно догадаться, только для самых высоких разрешений уровня 3К и 4К. Понятно, что стоит такая пара видеокарт очень дорого, куда дороже того же новейшего GTX 1080 Ti. Нужен ли такой тандем сегодня? Как показали наши тесты, он имеет смысл, но только в очень ограниченном наборе условий. Нельзя забывать про значительное потребление SLI-связки (нужен очень мощный БП) и повышенный шум по сравнению с составляющими тандем картами в одиночной конфигурации. Если бы суммарная стоимость такой пары ускорителей была ниже, чем у топов, если бы они заметно выделялись по соотношению цены и скорости, тогда в подобном решении был бы смысл. А в данном случае обладателю приличной суммы денег, желающему получить самую крутую графику в играх, лучше всего купить Geforce GTX 1080 Ti с надеждой, если финансы позволят, со временем докупить к нему еще один такой же. Источник ➤ Adblockdetector |