Меню

Настройка sli gtx 1080



NVIDIA SLI в современных играх: тест двух видеокарт ASUS ROG Strix GTX 1080 в одной системе

У технологии NVIDIA SLI богатая история. Идея распределения нагрузки между несколькими графическими адаптерами родилась в конце 90-х годов во времена популярности видеокарт Voodoo от фирмы 3dfx, и тогда еще не существовало никакого «слая». По-настоящему эффективное распространение GPU-связок произошло в 2000-х, когда аппаратных ограничений для построения систем из 2/3/4 адаптеров стало меньше, плюс появились оптимизированные под это дело игры и программы.

С тем фактом, что большинство игр будут неадекватно воспринимать используемую вами связку NVIDIA SLI, стоит смириться как можно раньше.

Сейчас технология NVIDIA SLI используется в основном энтузиастами и моддерами. Первым дополнительная видеокарта (или несколько видеокарт) необходима для получения рекордного результата в синтетических бенчмарках (именно тестовые приложения адекватнее всего реагируют на бонусные графические мощности в системе), вторым — для эффектной иллюминации внутри ПК, с дополнительными светодиодами и т. д.

Геймеры отдают предпочтение одному адаптеру в системе, что вполне оправдано. Регулярно проводимые тесты NVIDIA SLI в современных играх доказывают, что разработчики весьма неохотно оптимизируют свои проекты под мощные мульти-графические связки из нескольких ускорителей. По сути это и есть главное ограничение на пути развития данной технологии.

Зачастую один мощный графический адаптер уровня high-end оказывается мощнее двух видеокарт более низкого класса. Ко всему прочему, поддержка SLI в последнее время внедряется лишь в самые топовые ускорители (производительности которых и так достаточно для большинства игр), что также негативно сказывается на развитии мульти-графических систем.

Если вы все-таки решились на сборку системы NVIDIA SLI, состоящей из нескольких адаптеров, рекомендуем в первую очередь поразмышлять над следующими техническими тонкостями:

  • материнская плата; очевидно, что на ней должно быть как минимум два коннектора PEG (PCI-E x16), причем желательно, чтобы именно на такой скорости они и работали с используемыми видеокартами (об этих нюансах мы поговорим ниже);
  • мощный блок питания; еще до сборки ПК стоит хотя бы примерно рассчитать уровень энергопотребления системы; для нашей системы хватило БП на 1000 Вт;
  • процессор; для раскачки нескольких видеокарт потребуется мощный ЦП (уровня Intel Core i7), но ключевая особенность, на которую стоит обратить внимание, – количество линий PCI-E, с которыми умеет работать выбранный камень (16, 28 или 44);
  • драйвер; в общем-то любое профильное ПО для видеокарт GeForce в автоматическом порядке определяет наличие SLI в системе, но все же не лишней окажется проверка активности этой технологии сразу после установки драйвера силами сторонних утилит;
  • круг задач, для которых планируется использовать NVIDIA SLI; об этом лучше подумать еще до приобретения нескольких мощных ускорителей; может случиться так, что толка от навороченной системы с парой-тройкой графических адаптеров не будет.

Трудности при сборке и эксплуатации технологии NVIDIA SLI

Без подводных камней обойтись не получится; хотя еще раз повторимся: с ходом времени технология NVIDIA SLI эволюционирует. Слабых мест становится меньше, а процесс сборки и использования мульти-графических связок упрощается.

Ожидать двукратного прироста от дополнительной GeForce GTX 1080 в системе не стоит.

Первое, о чем необходимо позаботиться сразу после сборки системы, – правильное распределение процессорных линий PCI-E между используемыми адаптерами. Поясним. Каждый процессор поддерживает ограниченное количество линий PCI-E (как правило, 16, 28 или 44).

Все ЦП для платформы LGA 1151 не вылезают за рамки 16 линий, а значит две видеокарты способны функционировать лишь в режиме х8+х8 (собственно это убедительный довод в пользу отказа от построения NVIDIA SLI в подобных системах).

А вот процессоры для LGA 2011 и LGA 2066 поддерживают 28 и 44 линии PCI-E (в зависимости от модели), и это уже достаточный арсенал для раскачки двух или трех видеокарт.

К слову, в этом обзоре мы сравним возможности режимов х16+х16 и х16+х8; в этом нам помогут центральные процессоры Intel Core i9-7900X (у него 44 линии) и Core i7-7800X (у него — 28).

Итак, еще до сборки NVIDIA SLI пользователь должен знать о технических возможностях своего ЦП, а следовательно и о правильном распределении процессорных линий PCI-E. Эту правильность необходимо проверить сразу после первого включения системы. Лучше всего это сделать в UEFI BIOS.

Современные материнские платы делятся подробной технической информацией об установленных в нее комплектующих, в том числе о распределении пресловутых линий PCI-E между адаптерами. Данные можно промониторить и в среде Windows, например, в программах GPU-Z и AIDA64.

Если в вашем распоряжении оказался процессор с 44 линиями PCI-E, а система показывает, что пара видеокарт функционирует в формате х16+х8 (мы лично столкнулись с такой проблемой), придется убедить ПК в том, что он не прав. В нашей ситуации помогла перестановка двух ускорителей; мы просто поменяли их местами, после чего система распределила линии правильно (х16+х16).

В большинстве игр одна GeForce GTX 1080 Ti оказывается не хуже, чем пара GeForce GTX 1080.

Еще одна трудность, которая может возникнуть после сборки NVIDIA SLI, – черный экран или некорректное отображение картинки на мониторе (например, недоступно разрешение 4К, с которым дисплей в принципе работать умеет).

Читайте также:  Настройка gps навигатора supra

Скорее всего, дело в неверно выбранном коннекторе подключения с обратной стороны ускорителя. Определить правильный поможет, опять же, драйвер (панель управления). Во вкладке SLI отображен требуемый для корректного вывода картинки разъем одной из используемых видеокарт. Впрочем, найти его можно и вручную, банально подрубая провод к каждому графическому интерфейсу.

С тем фактом, что большинство игр будут неадекватно воспринимать используемую вами связку NVIDIA SLI, стоит смириться как можно раньше. Это пресловутая оптимизация, а точнее ее отсутствие. Какие-то проекты видят лишь половину графической памяти, какие-то — только одну видеокарту; некоторые отображают правильную информацию, например, GTA V, Ghost Recon Wildlands и Rainbow Six Siege.

Скажем, Rise of the Tomb Raider безбожно тормозит в системе, где используется технология SLI (особенно в разрешениях 1080р и 1440р), а Warhammer 40,000: Dawn of War III и Total War: Warhammer никак не реагируют на появление в системе второй видеокарты GeForce GTX 1080 (что с одним адаптером, что с двумя, – средний кадр/с одинаковый).

NVIDIA SLI — это лотерея, в которой либо повезет, либо нет; предугадать итог заранее практически невозможно. Можно лишь поискать SLI профиль в драйверах для той или иной игры, а также покопаться в отзывах пользователей, которые уже протестировали мульти-графические связки в различных проектах.

NVIDIA SLI: х16+х16 или x16+x8?

Это один из вопросов, на который мы желали получить ответ в процессе исследования аппаратных возможностей NVIDIA SLI. Стоит ли приобретать дорогой процессор с большим количеством линий PCI-E для полного раскрытия потенциала топовых видеокарт?

Проведенные тесты доказали, что разница между режимами х16+х16 и х16+х8 существует, однако зачастую она сводится к банальной погрешности (в некоторых играх, не оптимизированных, прироста нет вообще). Согласитесь, что 85 и 90 кадр/с — это не та пропасть, которая требует переплаты в несколько сотен долларов (мы о ЦП с поддержкой не 28, а 44 линий PCI-E)?

Даже синтетический и максимально лояльный к любым дополнительным мощностям 3DMark никак не отреагировал на дополнительную восьмерку процессорных линий PCI-E (а следовательно и большую пропускную способность интерфейса), ровно как и на более производительный ЦП.

Либо вторая видеокарта в системе есть, либо ее нет. На какой скорости она передает данные – неважно. Установлен ли в вашей системе 10-ядерный Intel Core i9-7900X или более доступный Core i7-7800X, также существенного значения не имеет (применительно к NVIDIA SLI).

Тестовый стенд:

Результаты тестирования

На системе с процессором Intel Core i9-7900X мы протестировали связку SLI из двух ASUS ROG Strix GTX 1080 (в формате x16+x16), а также один ускоритель GeForce GTX 1080 и ASUS ROG Strix GTX 1080 Ti. Процессор Intel Core i7-7800X потребовался для прогона SLI в режиме x16+x8.

Важно заметить, что две видеокарты в одной упряжке не перегреваются (спасибо энергоэффективной архитектуре Pascal); вентиляторы СО вращаются довольно редко, температура каждого чипа не превышает 65-70 градусов в процессе испытаний.

Ожидать двукратного прироста от дополнительной GeForce GTX 1080 в системе не стоит, даже на полных скоростях x16+х16; хотя в некоторых хорошо оптимизированных играх (особенно в высоком разрешении, например, 4К) плюсовая разница стремится именно к такому значению (Rainbow Six Siege, GTA V и Ghost Recon Wildlands).

В большинстве случаев одна GeForce GTX 1080 Ti оказывается не хуже, чем пара GeForce GTX 1080. Вся правда отражена на тестовых графиках.

Выводы

Технология NVIDIA SLI развивается, оптимизированные профили для современных игр в драйверах GeForce также появляются, пусть и не столь стремительными темпами, как этого хотелось бы. Тандем из нескольких графических ускорителей по-прежнему остается уделом энтузиастов и любителей всего самого навороченного.

Бережливый юзер отдаст предпочтение сборке с одним мощным адаптером и 4-ядерным ЦП (а лучше двухъядерным), если ПК необходим в первую очередь для компьютерных игр. И окажется прав.

А мощные камни с поддержкой 44 линий PCI-E лучше приберечь для иных целей, уж точно не для раскрытия потенциала технологии NVIDIA SLI. Главный конек таких процессоров в наличии большого количества физических ядер, которые используются для сложных технических расчетов, а не для обработки картинки в современных играх.

Источник

Пара ускорителей Gigabyte Aorus GeForce GTX 1080 Xtreme Edition 8G в режиме SLI: самая быстрая 3D-графика при чрезмерных финансовых затратах

Содержание

Справочные материалы

Объект исследования: Тандем из двух серийно выпускаемых ускорителей трехмерной графики, работающих по технологии SLI: 2 × Gigabyte Aorus GeForce GTX 1080 Xtreme Edition 8G 8 ГБ 256-битной GDDR5X

Читайте также:  Настройка прокси по имени пользователя

Сведения о производителе: Компания Gigabyte Technology (торговая марка Gigabyte) основана в 1986 году в Китайской Республике (Тайвань). Штаб-квартира в Тайбэе/Тайвань. Изначально создавалась как группа разработчиков и исследователей. В 2004 году на базе компании был образован холдинг Gigabyte, в который вошли Gigabyte Technology (разработка и производство видеокарт и материнских плат для ПК); Gigabyte Communications (производство коммуникаторов и смартфонов под маркой GSmart (с 2006 г.)); Gigazone International (корпуса, блоки питания и системы охлаждения для ПК, мониторы (торговая марка Envision)); G-Style Co (производство ноутбуков и планшетных ПК). Производство на Тайване и в Китае.

В данном материале рассмотрены результаты тестирования двух ускорителей, работающих одновременно по схеме SLI (производительность в 3D увеличена за счет распределения нагрузки по обеим видеокартам). Ниже приведены характеристики отдельно взятой карты, полновесный обзор которой уже был опубликован.

Устройство(а)

SLI 2 × Gigabyte Aorus GeForce GTX 1080 Xtreme Edition 8G 2×8 ГБ 256-битной GDDR5X (GV-N1080AORUS X-8GD, P/N 4 719331 301194)
Параметр Значение по одной карте Значение по 2м картам (SLI)
GPU GeForce GTX 1080 (GP104)
Интерфейс PCI Express x16
Частота работы GPU (ROPs), МГц 1784—2050—OC mode/1759—2012—Gaming mode/1733—1980—Silent mode
Частота работы памяти (физическая (эффективная)), МГц 2600 (10400)—OC mode/2550 (10200)—Gaming mode/2500 (10000)—Silent mode
Ширина шины обмена с памятью, бит 256 2×256
Число вычислительных блоков в GPU 20 2×20
Число операций (ALU) в блоке 128
Суммарное количество блоков ALU 2560 2×2560
Число блоков текстурирования (BLF/TLF/ANIS) 160 2×160
Число блоков растеризации (ROP) 64 2×64
Размеры, мм 293×130×55 293×130×125
Количество слотов в системном блоке, занимаемые видеокартой 3 6
Цвет текстолита черный
Энергопотребление Пиковое в 3D, Вт 194 377
В режиме 2D, Вт 50 50
В режиме «сна», Вт 22 22
Уровень шума В режиме 2D, дБА 18,0 18,0
В режиме 2D (просмотр видео), дБА 21,0 21,0
В режиме максимального 3D, дБА 29,5 33,5
Выходные гнезда 1×DVI (Dual-Link/HDMI), 1×HDMI 2.0b, 3×DisplayPort 1.3
Поддержка многопроцессорной работы SLI
Максимальное количество приемников/мониторов для одновременного вывода изображения 4
Дополнительное питание: количество 8-контактных разъемов 2 4
Дополнительное питание: количество 6-контактных разъемов Нет Нет
Максимальное разрешение 2D Display Port 4096×2160
HDMI 4096×2160
Dual-Link DVI 2560×1600
Single-Link DVI 1920×1200
Максимальное разрешение 3D Display Port 4096×2160
HDMI 4096×2160
Dual-Link DVI 2560×1600
Single-Link DVI 1920×1200

Искать цены в каталоге iXBT.com

Комплектация локальной памятью

Тандем имеет 2×8 ГБ памяти GDDR5X SDRAM, размещенной в 8 микросхемах по 8 Гбит на лицевой сторонe каждой карты.

Микросхемы памяти Micron (GDDR5X) рассчитаны на номинальную частоту работы в 2500 (10000) МГц.

Детали о карте, ее дизайне, СО и пр. можно прочитать здесь.

Мониторинг температурного режима с помощью MSI Afterburner (автор А. Николайчук AKA Unwinder)

Методика измерения шума

  • Помещение шумоизолировано и заглушено, снижены реверберации.
  • Системный блок, в котором исследовался шум видеокарт, не имеет вентиляторов, не является источником механического шума.
  • Фоновый уровень 18 дБА — это уровень шума в комнате и уровень шумов собственно шумомера.
  • Измерения проводились на расстоянии 50 см от видеокарты на уровне системы охлаждения.
  • Режимы измерения:
    1. Режим простоя в 2D: загружен интернет-браузер с сайтом iXBT.com, окно Microsoft Word, ряд интернет-коммуникаторов.
    2. Режим 2D с просмотром фильмов: используется SmoothVideo Project (SVP) — аппаратное декодирование со вставкой промежуточных кадров.
    3. Режим 3D с максимальной нагрузкой на ускоритель: используется тест FurMark.
  • Оценка градаций уровня шума выполняется по методике, описанной здесь:
    • 28 дБА и менее: шум плохо различим уже на расстоянии одного метра от источника, даже при очень низком уровне фонового шума. Оценка: шум минимальный.
    • от 29 до 34 дБА: шум различим уже с двух метров от источника, но не особо обращает на себя внимания. С таким уровнем шума вполне можно мириться даже при долговременной работе. Оценка: шум низкий.
    • от 35 до 39 дБА: шум уверенно различается и заметно обращает на себя внимание, особенно в помещении с низким уровнем шума. Работать с таким уровнем шума можно, но спать будет затруднительно. Оценка: шум средний.
    • 40 дБА и более: такой постоянный уровень шума уже начинает раздражать, от него быстро устаешь, появляется желание выйти из комнаты или выключить прибор. Оценка: шум высокий.

В режиме простоя в 2D температура составляла 40 °C, вентиляторы не работали. Шум был равен фоновому — 18,0 дБА.

При просмотре фильма с аппаратным декодированием температура поднималась до 55 °C, вентиляторы временами включались, частота вращения была не выше 950 оборотов в минуту. Уровень шума составлял 21,0 дБА.

В режиме максимальной нагрузки в 3D температура достигала 77 °C у первого ускорителя (установленного выше в вертикальном корпусе) и 85 °C у второго. Вентиляторы при этом раскручивались до 2057/2506 оборотов в минуту, шум вырастал до 33,5 дБА, становился хорошо заметным, но все же не превышал эргономического предела.

Установка и драйверы

Конфигурация тестового стенда

  • Компьютер на базе процессора Intel Core i7-5960X (Socket 2011):
    • процессор Intel Core i7-5960X (o/c 4 ГГц);
    • СО Intel Thermal Solution RTS2011LC;
    • системная плата ASRock Fatal1ty X99X Killer на чипсете Intel X99;
    • оперативная память 16 ГБ DDR4 G.Skill Ripjaws4 F4-2800C16Q-16GRK 2800 МГц;
    • жесткий диск Seagate Barracuda 7200.14 3 ТБ SATA2;
    • 2 SSD Corsair Neutron SSD CSSD-N120GB3-BK;
    • блок питания Thermaltake Toughpower DPS G 1050W (1050 Вт);
    • корпус Corsair Obsidian 800D Full Tower.
  • операционная система Windows 10 Pro 64-битная; DirectX 12;
  • монитор Samsung U28D590D (28″);
  • драйверы AMD версии Crimson Edition 17.2.2;
  • драйверы Nvidia версии 378.66;
  • VSync отключен.

Список инструментов тестирования

Методику тестирования и все настройки можно посмотреть здесь.

    Fallout 4 (Bethesda Games Studios/Bethesda Softworks, DirectX 11)

Rise Of The Tomb Raider (Nixxes Software/Square Enix, DirectX 12)

Grand Theft Auto V (Rockstar Games/Rockstar Games, DirectX 11)

The Witcher 3: Wild Hunt (CD Projekt RED, DirectX 11)

BattleField 1 (EA Digital Illusions CE/Electronic Arts, DirectX 12)

Tom Clancy’s The Division (Ubisoft Massive/Ubisoft, DirectX 11)

Deus Ex: Mankind Divided (Eidos Montreal/Square Enix, DirectX 12)

Far Cry Primal (Ubisoft/Ubisoft, DirectX 11)

Hitman (2016) (IO Interactive/Square Enix, DirectX 12)

Ashes Of The Singularity (Oxide Games,Stardock Entertainment/Stardock Entertainment, DirectX 12)

Результаты тестов: сравнение производительности

Выводы

Рейтинг iXBT.com
Пояснение Дата взятия цен из розничной продажи для формирования Рейтингов полезности
Рейтинг ускорителей iXBT.com демонстрирует нам функциональность видеокарт друг относительно друга и нормирован по самому слабому ускорителю — GeForce GT 730 (то есть сочетание скорости и функций GT 730 приняты за 100%). Рейтинги ведутся по 30 ежемесячно исследуемым нами в рамках i3D-Speed акселераторам (методику рейтингования можно посмотреть здесь). Выбирается группа карт для анализа, куда входят GTX 1080 и его конкуренты. Для расчета рейтингов полезности использованы цены из розничной продажи на период, указанный справа. начало апреля 2017 г.
Название ускорителя Рейтинг iXBT.com Рейтинг полез. Цена
01 SLI 2 × Gigabyte Aorus GTX 1080 8 ГБ, 1784—2050/10400 6210 739 84000
02 GTX 1080 Ti 11 ГБ, 1480—1885/11000 5240 979 53500
03 Gigabyte Aorus GTX 1080 8 ГБ, 1784—2050/10400 4550 1083 42000
04 GTX 1080 8 ГБ, 1607—1885/10000 4200 1019 41200
06 GTX 980 Ti 6 ГБ, 1000—1075/7000 3330 925 36000
07 R9 Fury X 4 ГБ, 1050/1050/1000 3080 1081 28500

Комментарий к Рейтингам iXBT.com

Рейтинг полезности
Пояснение Дата взятия цен из розничной продажи для формирования Рейтингов полезности
Рейтинг полезности тех же карт получается, если показатели предыдущего рейтинга разделить на цены соответствующих ускорителей начало апреля 2017 г.
Название ускорителя Рейтинг полез. Рейтинг iXBT.com Цена
13 Gigabyte Aorus GTX 1080 8 ГБ, 1784—2050/10400 1195 5020 42000
15 GTX 1080 Ti 11 ГБ, 1480—1885/11000 1150 6150 53500
19 GTX 1080 8 ГБ, 1607—1885/10000 1119 4610 41200
20 SLI 2 × Gigabyte Aorus GTX 1080 8 ГБ, 1784—2050/10400 1118 9390 84000
21 R9 Fury X 4 ГБ, 1050/1050/1000 1091 3110 28500
24 GTX 980 Ti 6 ГБ, 1000—1075/7000 981 3530 36000

Комментарий к Рейтингам полезности

SLI 2 × Gigabyte Aorus GeForce GTX 1080 Xtreme Edition 8G (2×8 ГБ) — самое производительное на сегодня решение, заметно обгоняющее даже быстрейшего представителя однопроцессорных ускорителей — GeForce GTX 1080 Ti. Предназначено оно, как можно догадаться, только для самых высоких разрешений уровня 3К и 4К. Понятно, что стоит такая пара видеокарт очень дорого, куда дороже того же новейшего GTX 1080 Ti. Нужен ли такой тандем сегодня? Как показали наши тесты, он имеет смысл, но только в очень ограниченном наборе условий. Нельзя забывать про значительное потребление SLI-связки (нужен очень мощный БП) и повышенный шум по сравнению с составляющими тандем картами в одиночной конфигурации. Если бы суммарная стоимость такой пары ускорителей была ниже, чем у топов, если бы они заметно выделялись по соотношению цены и скорости, тогда в подобном решении был бы смысл. А в данном случае обладателю приличной суммы денег, желающему получить самую крутую графику в играх, лучше всего купить Geforce GTX 1080 Ti с надеждой, если финансы позволят, со временем докупить к нему еще один такой же.

Источник

Adblock
detector