Top.Mail.Ru
Обзоры
Обзор ASUS GeForce RTX 2080 DUAL OC 8G
24.01.2019 в 04:42
STILET
184

Обзор ASUS GeForce RTX 2080 DUAL OC 8G. GeForce RTX 2080 стоит дорого, так как же тогда будет вести себя более доступная версия? Мы тестируем модель DUAL 8GB OC от ASUS, которая на самом деле не так уж и плоха. Модель STRIX OC будет стоить от 829 евро, а эта двойная версия от 769 евро, в ЕС цены в долларах США очень похожи. Так что это разница в 60 баксов для продукта, который будет примерно таким же быстрым, только с чуть меньшим количеством рекламы.

Мы уже рассказали о многих новых технологиях, поскольку архитектура новых графических процессоров Turing предлагает фундаментальные изменения в области видеокарт, поскольку, NVIDIA добавила ядра RT (Raytracing), а также Tensor ( AI) ядра в новые графические процессоры, и они активны. Является ли Turing началом следующих 20 лет игровой графики? Что ж, все зависит от фактического уровня внедрения программного обеспечения, с парнями и девушками, которые разрабатывают игры. Приблизительно дюжина RTX-игр находится в разработке, и дюжина или около того объявленных игр будут использовать DLSS глубокого использованиЯ ядер Tensor. Для новой серии RTX речь идет в основном о Raytracing. Так что добро пожаловать в длинный ряд обзоров RTX.

Мы начнем с эталонных карт и продолжим с картами AIB, так как по какой-то причине NVIDIA посчитала, что для них все в порядке, чтобы запустить все сразу. Сначала краткий обзор того, что было проверено в этой статье, немного архитектуры, а затем мы, конечно же, погрузимся в реальное тестирование. GeForce RTX 2080 у этой серии видеокарт не будет полного подсчета шейдеров и графического процессора, как у 2080 Ti, фактически у нее даже есть собственный графический процессор под названием TU104. Эта карта получит 2944 шейдерных процессора (также называемых ядрами Stream или Cuda), работающих на основе этого графического процессора TU104, на базовой частоте 1515 МГц с повышением частоты до 1800 МГц. Чип TU104 содержит шесть GPC, 48 SM и восемь 32-битных контроллеров памяти (всего 256-бит). Каждый SM включает в себя 64 шейдерных процессора, 256-килобайтный регистровый файл, 96-килобайтный кэш данных L1 / кэш общей памяти и четыре текстурных блока. Полная микросхема TU104 содержит 13,6 миллиардов транзисторов и включает 3072 шейдерных процессора, 368 ядер Tensor и 48 ядер RT. Память GDDR6 будет привязана к 256-битной шине, и в зависимости от тактовой частоты мы рассчитываем на 448 ГБ / с. Этот продукт будет стоить 699 долларов США за партнерские продукты AIB. Этот продукт будет иметь 225 Вт TDP. Прорвет ли 2080 дыру в этом потолке FPS? Что ж, давайте узнаем, а также покажем вам трюк или два по Raytracing и DLSS, конечно.

Таким образом, ASUS GeForce RTX 2080 DUAL OC был оснащен этим графическим процессором на базе Turing TU104 и представляет собой серию продуктов, выпущенную взамен GeForce GTX 1080. DUAL поставляется с двойными вентиляторами для специального обновленного дизайна печатной платы. Плата питается от двух разъемов питания, один 6, а другой 8-контактный разъем. Графический процессор работает на эталонной частоте 1515 МГц с тактовой частотой 1800 МГц для тактовых импульсов по умолчанию. Память GDDR6 не была изменена, новые микросхемы Micron имеют стандартную частоту 14 ГГц (эффективная тактовая частота). Такие встроенные элементы, как светодиодная система подсветки, была удалена, чтобы сделать карту немного более доступной. Мы начнем с обзора продуктов в фотосессии, но сначала быстро взглянем на них.

1 Упаковка

Мы начинаем этот обзор с нашей фотосессии. Несколько страниц, на которых показаны фотографии, чтобы вы могли лучше понять, о чем мы говорим в сегодняшней статье (и мы просто знаем, что вы любите красивые картинки). ASUS использовал оригинальный графический процессор TU104, а остальное было построено с нуля.

И вот она, младшая сестра GeForce RTX 2080 Ti, RTX 2080. Она использует ту же архитектуру, но не позволяйте этому обмануть себя, поскольку она использует другой графический процессор, графический процессор Turing TU104 привязан до 8 ГБ графической памяти GDDR6 с эффективной скоростью передачи данных 14 Гбит / с. Вы получите темный матовый черный продукт, который выглядит немного более простым. Напоминаем, что карта длинная (почти 27 см) и тяжелая (около 1,4 кг).

Новая модель имеет дизайн с двумя вентиляторами. Карта имеет один порт HDMI и три разъема DisplayPort, а также новый разъем виртуальной связи для девайсов виртуальной реальности.

Founders card:
Boost: 1800 MHz / Base: 1515 MHz
Memory 14.0 Gbps GDDR6 (effective data-rate)

Обычная карта:
Boost: 1800 MHz / Base: 1515 MHz
Memory 14.0 Gbps GDDR6 (effective data-rate)

Я уже упоминал, что NVIDIA сейчас серьезно конкурирует с AIB, такая небольшая разница, верно?

Серия GeForce RTX имеет готовые разъемы DisplayPort 1.4a, обеспечивающие поддержку 8K-дисплеев с частотой 60 Гц. Не хватает и очень не хватает двухканального разъема DVI. Карта будет отлично смотреться в темном ПК.

Видеокарта оснащена графическим процессором Turing на основе 12-нм архитектуры FinFet и 13,6 млрд. транзисторов, имеет 2944 активных шейдерных / потоковых ядер, 46 ядер RT и 368 ядер Tensor. Эта карта имеет 8 ГБ памяти GDDR6, и, как вы можете видеть, здесь нет разъема DVI. Механизм отображения GeForce RTX 2080 способен поддерживать новейшие дисплеи с более высоким разрешением, включая новейшие экраны 4K, 5K и 8K.

На задней панели есть несколько вентиляционных отверстий для потока воздуха, поэтому все выглядит хорошо. Однако данная эстетика, как бы это было мягко сказано, мне не по вкусу.

Карта имеет TDP 225 Вт, 75 Вт подается через слот PCIe, затем 1×150 Вт через 8-контактные разъемы питания PEG (PCI Express Graphics) и 75 Вт через 6-контактный.


Карты были разработаны в этом дизайне с двумя вентиляторами и выглядят очень хорошо. Однако, как вы уже можете заметить, тепло распространяется вверх, и площадь поверхности радиатора ограничена, и вы не увидите достаточно большое вентиляционное отверстие на задней стороне кронштейна, поэтому весь теплый воздух будет сбрасываться внутрь корпуса. Как мы всегда заявляем, вентиляция шасси не просто необходима, с этим обновленным дизайном она стала необходимостью.

Размер; это почти 26,5 см / 11,5 дюйма видеокарты. Пожалуйста, убедитесь, что карта физически помещается в ваш корпус ПК.

В целом, я думаю, что это красивый продукт с темными акцентами. Ни RGB, ни светодиодов, ни острых ощущений. Это то, что вы получаете за экономию 60 баксов над STRIX.

Печатная плата и анализ компонентов
На фотографиях ниже вы можете видеть ряд вещей, микросхемы памяти GDDR6 сделаны Micron с маркировкой D9WCW. Это графическая память GDDR6 1750 МГц (эффективная 14 Гбит / с). На фотографиях показан графический процессор TU104, помеченный как ревизия 400A (A означает, что это графический процессор с чуть более высоким разрешением ограничителя охлаждения). Вы заметите, что все критические компоненты были должным образом термически проложены.

Фото высокого разрешения:

Фото высокого разрешения:

Turing GPU
Глядя на графический процессор Turing, вы можете распознать множество вещей, но, безусловно, в архитектуре произошли фундаментальные изменения по сравнению, скажем, с Pascal, кластеры SM (потоковый мультипроцессор) разделены, и теперь это отдельные блоки, выделенные ядром. Основным строительным блоком для всех графических процессоров Turing будет TU102, то есть флагманский графический процессор, который будет использоваться на GeForce RTX 2080 Ti. GTX RTX 2080 будет использовать чип под названием TU104. Таким образом, TU104 является более упрощенной ревизионной микросхемой TU102, но имеет ту же архитектуру.

Технические характеристики графического процессора Turing TU104
TU104 насчитывает 13,6 миллиарда транзисторов, локализованных на кристалле 545 мм2. Для сравнения, у Паскаля было около 12 миллиардов транзисторов при размере кристалла 471 мм2. Геймеры сразу же взглянут на шейдерные процессоры, у них 46 SM (потоковые мультипроцессоры), каждый из которых содержит 64 ядра = 2944 шейдерных процессора. Он имеет 368 ядер Tensor, 46 ядер RT и 64 устройства ROP, привязанных к 8 ГБ графической памяти GDDR6. Этот графический процессор создан на оптимизированном 12-нм узле TSMC FinFET +. Мы поместили основные характеристики в обзорную таблицу.

GeForce RTX 2080 Ti FE RTX 2080 Ti RTX 2080 FE RTX 2080 RTX 2070 FE RTX 2070
GPU TU102 TU102 TU104 TU104 TU106 TU106
Node TSMC 12 nm FFN
Die Size mm² 754 545 445
Shader cores 4352 4352 2944 2944 2304 2304
Transistor count 18.6 Billion 18.6 Billion 13.6 Billion 13.6 Billion 10.8 Billion 10.8 Billion
Base frequency 1350 MHz 1350 MHz 1515 MHz 1515 MHz 1410 MHz 1410 MHz
Boost frequency 1635 MHz 1545 MHz 1800 MHz 1710 MHz 1710 MHz 1620 MHz
Memory 11GB GDDR6 11GB GDDR6 8GB GDDR6 8GB GDDR6 8GB GDDR6 8GB GDDR6
Memory frequency 14 Gbps 14 Gbps 14 Gbps 14 Gbps 14 Gbps 14 Gbps
Memory bus 352-bit 352-bit 256-bit 256-bit 256-bit 256-bit
Memory bandwidth 616 GB/s 616 GB/s 448 GB/s 448 GB/s 448 GB/s 448 GB/s
L2 Cache 5632 KB 5632 KB 4096 KB 4096 KB 4096 KB 4096 KB
RT cores 68 68 46 46 36 36
Tensor cores 544 544 368 368 288 288
Texture units 272 272 184 184 144 144
ROPs 96 96 64 64 64 64
TDP 260W 250W 225W 215W 185W 175W
Power connector 2x 8-pin 2x 8-pin 8+6-pin 8+6-pin 8-pin 8-pin
NVLink Yes Yes Yes Yes
Performance (RTX Ops) 78T RTX-Ops 60T RTX-Ops 45T RTX-Ops
Performance (RT) 10 Gigarays/s 8 Gigarays/s 6 Gigarays/s
TFlops fp32 14.2 / 13.4 10.6 / 10 7.9 / 7.5
Max Therm degree C 89 89 89
price $ 1199 $ 999 $ 799 $ 699 $ 599 $ 499

Архитектура Turing
Мы попытаемся быть краткими, но Turing — это новая и полностью переработанная архитектура, которая фактически получила новый дизайн SM (Streaming Multiprocessor). Как я уже упоминал, в нем всего понемногу, но в основном он намекает на Volta. На каждый TPC включены два SM (Texture / Process Cluster — группа, состоящая из нескольких SM). Каждый SM имеет в общей сложности 64 ядра FP32 и 64 ядра INT32. Да, это радикально отличается от Паскаля (серия GeForce 1000), который имел один SM на TPC и 128 ядер FP32 на SM. Архитектура Turing SM поддерживает параллельное выполнение операций FP32 и INT32, независимое планирование потоков, аналогичное графическому процессору Volta GV100. Это также называется одновременным выполнением операций FP32 и INT32. Каждый SM Turing содержит восемь тензорных ядер Turing. Взгляните на блок-схему ниже.

Каждый SM Turing разбит на четыре блока обработки, каждый из которых содержит 16 ядер FP32, 16 ядер INT32, два ядра Tensor, один планировщик основы и один модуль диспетчеризации. Каждый блок включает в себя новый кэш инструкций L0 и регистровый файл объемом 64 КБ. Четыре блока обработки совместно используют кэш-память L1 объемом 96 КБ / разделяемую память. Традиционные графические рабочие нагрузки разделяют память L1 / 96 КБ на 64 КБ ОЗУ выделенного графического шейдера и 32 КБ для кэша текстур и области разлива файлов регистрации. Вычислительные рабочие нагрузки могут разделить 96 КБ на 32 КБ общей памяти и 64 КБ L1-кэша, или 64 КБ общей памяти и 32 КБ L1-кэша.

Параллельное вычисление с плавающей запятой (fp32) и целочисленных инструкций (int32)
SM Turing предлагает новую унифицированную архитектуру для разделяемой памяти, L1 и кэширования текстур. Этот унифицированный дизайн позволяет кэш-памяти L1 использовать ресурсы, увеличивая его пропускную способность в 2 раза на TPC по сравнению с Pascal, и позволяет его реконфигурировать для увеличения, когда распределения общей памяти не используют всю емкость общей памяти. Размер Turing L1 может достигать 64 КБ в сочетании с распределением общей памяти 32 КБ на SM или уменьшаться до 32 КБ, что позволяет использовать 64 КБ для общей памяти. Объем кэша L2 в Turing также был увеличен. Объединение кэша данных L1 с общей памятью уменьшает задержку и обеспечивает более высокую пропускную способность, чем реализация кэша L1, использовавшаяся ранее в графических процессорах Pascal. NVIDIA утверждает, что эти изменения в SM позволяют Turing достичь 50% улучшения производительности на ядре ​​CUDA.

Кэш и ROP
Графические процессоры Turing добавляют больший и более быстрый кэш L2 в дополнение к новой подсистеме памяти GDDR6. Графический процессор TU102 и его производные поставляются с 6 МБ кэш-памяти L2, что вдвое больше, чем 3 МБ кэш-памяти L2, который предлагался в GPU предыдущего поколения GP102, используемом в TITAN XP. TU102 также обеспечивает значительно более высокую пропускную способность кэша L2, чем GP102. Как и графические процессоры NVIDIA предыдущего поколения, каждый ROP-раздел в Turing содержит восемь ROP-блоков, и каждый из них может обрабатывать одноцветный образец. Полная микросхема TU102 содержит 12 ROP-разделов, в общей сложности 96 ROP.

Графическая память — GDDR6
Еще одно различие между Volta и Turing — графическая память. HBM2 — кризис для потребительских товаров, по крайней мере, так кажется. Графическая индустрия в это время явно предпочитает новый GDDR6. Легче и дешевле создавать и добавлять, и в настоящее время производительность может даже превышать HBM2. Предыдущий GeForce GTX 1080 с новейшей памятью GDDR5X мог работать со скоростью 11 Гбит / с, часто настраиваемый в диапазоне 12 Гбит / с. Графическая память GDDR6 будет быстрее и более энергоэффективна. Память развивается на GDDR5X (графическая двойная скорость передачи данных (DDR)), но с пропускной способностью памяти 14 Гбит / с она предлагает почти вдвое больше, чем GDDR5 (не GDDR5X). В ближайшем будущем GDDR6 может передавать данные со скоростью 16 Гбит / с (бит в секунду), что в два раза быстрее, чем у обычного GDDR5. GeForce RTX 2070 (8 ГБ 256-бит), 2080 (8 ГБ 256-бит) и 2080 Ti (11 ГБ 352-бит) будут работать в паре с 14 Гбит / с GDDR6.

Блок-схемы Turing
Представляем вам отдельные блок-схемы графического процессора. Имейте в виду, что спецификации для 2080 и 2080 Ti немного отличаются по сравнению с полностью включенным графическим процессором, поскольку графические процессоры отключили шейдерные / RT / Tensor разделы. Таким образом, блок-схемы, которые вы видите здесь, основаны на полностью включенных графических процессорах. Только GeForce RTX 2070 является полностью включенным чипом TU106.

GeForce RTX 2080 Ti FE TU102
GPU
RTX 2080 FE TU104
GPU
RTX 2070 FE TU106
GPU
GPU TU102 TU102 TU104 TU104 TU106 TU106
Node TSMC 12 nm FFN
Die Size mm² 754 545 445
Shader cores 4352 4608 2944 3072 2304 2304
Transistor count 18.6 Billion 18.6 Billion 13.6 Billion 13.6 Billion 10.8 Billion 10.8 Billion
Base frequency 1350 MHz 1515 MHz 1410 MHz
Boost frequency 1635 MHz 1800 MHz 1710 MHz
Memory 11GB GDDR6 12GB GDDR6 8GB GDDR6 8GB GDDR6 8GB GDDR6 8GB GDDR6
Memory frequency 14 Gbps 14 Gbps 14 Gbps 14 Gbps 14 Gbps 14 Gbps
Memory bus 352-bit 384-bit 256-bit 256-bit 256-bit 256-bit
Memory bandwidth 616 GB/s 672 GB/s 448 GB/s 448 GB/s 448 GB/s 448 GB/s
RT cores 68 72 46 48 36 36
Tensor cores 544 576 368 384 288 288
Texture units 272 288 184 192 144 144
ROPs 96 96 64 64 64 64
TDP 260W 225W 185W
Power connector 2x 8-pin 8+6-pin 8-pin
NVLink Yes Yes Yes Yes No No
Performance (RTX Ops) 78T RTX-Ops 60T RTX-Ops 45T RTX-Ops
Performance (RT) 10 Gigarays/s 8 Gigarays/s 6 Gigarays/s
TFlops fp32 14.2 / 13.4 10.6 / 10 7.9 / 7.5
Max Therm degree C 89 89 89
price $ 1199 $ 799 $ 599

RT ядра и аппаратная трассировка лучей
NVIDIA добавляет 72 ядра RT на свой графический процессор Turing. Используя их, разработчики могут применять то, что я только что назвал гибридной трассировкой лучей. Вы по-прежнему выполняете затененный (растеризованный) рендеринг, однако разработчики могут применять функции трассировки лучей в реальном времени, такие как отражения и преломления света на объектах. Подумайте о море, волнах и воде, отражающих точные отражения и огни мира. Вы также можете подумать о пожаре или взрыве, отражающем свет от стен и отражающемся в воде. Это не только отражения, отражающие правильные световые лучи, но и наоборот, тени. Там, где есть свет, должна быть тень, теперь можно рассчитать 100% точные мягкие тени. В традиционном движке затенения было действительно трудно создавать точные и правильные тени, теперь это также возможно при трассировке лучей. Кроме того, окружающая окклюзия с трассировкой лучей и глобальное освещение — это то, что будет большой вещью. Никогда эти вещи не были возможны, так как трассировка лучей — это все для достижения реализма в вашей игре.

Видео записано вручную с помощью смартфона, но даже в этом качестве вы можете легко увидеть, насколько впечатляющей является технология, просмотрев несколько примеров использования, которые можно применить к играм. Позвольте мне перефразировать это, попытаться экстраполировать различные используемые технологии RT и представить их в игре, поскольку это конечная цель, которую мы пытаемся достичь

Так как же работает DX-R?
Обычно световые или отраженные, преломленные и т. д. световые лучи попадают на объект, верно? Давайте возьмем положение, в котором вы сидите, и оглянемся вокруг. Все, что вы можете увидеть, основано на световых лучах. Это цвета и огни, отражающиеся друг от друга и от всех предметов. Размышлять о том, что более важно, как вы видите вещи внутри своей комнаты, уже сложно. Но в основном, если вы возьмете источник света, этот источник будет пропускать световые лучи, которые отражаются от объекта, на который вы смотрите.

Ну, DXR полностью изменяет этот процесс. Применяя технологию BVH = «Иерархия ограничивающего объема». DirectX Raytracing использует алгоритм, в котором объект делится на блоки (разрешение / количество блоков для большей точности может быть запрограммировано разработчиком), поэтому блоки и еще больше блоков до тех пор, пока он не достигнет треугольников. Фундаментальная идея состоит в том, что не все треугольники получают или должны быть трассированы лучом, а только определенное количество (множества) блоков. Архитектура в ядре RT в основном имеет две фундаментальные функции: одни флажки, другие треугольники. Он работает как шейдер для кода растеризации, но специально для лучей. Как только разработчик определит, какой уровень блоков на определенном объекте применяется, этот (и каждый) блок будет запускать луч в сцену. И этот луч отскочит и ударит другие объекты, огни и так далее. Как только эти данные обработаны, у вас есть шейдинг, глубокое обучение и трассировка лучей. NVIDIA делает примерно 50-50 штриховок и трассировку лучей на сцене, улучшенной RT

Так как это перевести на игры? Лучший пример — записанную на смартфоне) запись Battlefield 5. На ранних стадиях альфа вы, вероятно, будете впечатлены тем, что здесь происходит, как очень хорошо объяснил коллега-гуру на форумах. То, что в основном показано здесь, является разницей между отражениями пространства экрана (SSR) и отраженными лучами отражениями. SSR работает путем аппроксимации трассировки лучей в пространстве экрана. Для каждого пикселя на отражающей поверхности излучается луч, а глубина и цветовые буферы камеры используются для приближения к трассировке лучей (вы можете представить рисование линии в 3D в направлении отраженного света, считывая глубину каждый пиксель до тех пор, пока линия не исчезнет за другой поверхностью — номинально это будет отраженная точка, если точка пересечения находится близко к линии — в противном случае это, вероятно, окклюзия, — сделать это эффективно и надежно немного сложнее, чем это, но это объяснение очень близко к реальности). Это приближение может быть довольно точным в простых случаях, однако, потому что используется изображение камеры: никакие обращенные назад поверхности не могут быть отражены (вы никогда не увидите свое лицо в луже!), Ничто за пределами экрана не может быть отражено, и геометрия За другой геометрией с точки зрения камеры никогда нельзя отразиться. Этот последний пункт объясняет, почему пистолет в FPS вызывает скрытие областей в отражениях — причина очень проста: эти пиксели должны отражать то, что находится под пистолетом в 2D-изображении камеры. Кроме того, это объясняет, почему взрыв не виден в дверце машины: он не выстрелил. На самом деле: также кажется, что механизм BF не отражает эффекты частиц в любом случае (вероятно, отражение выполняется в конвейере раньше, чем частицы вытягиваются). Использование реальной трассировки лучей для отражения позволяет избежать всех этих проблем (очевидно, за счет полной трассировки лучей), этот процесс управляется ядрами RT с Microsoft DXR.

Microsoft может рассчитывать на сотрудничество со стороны разработчиков программного обеспечения. Например, его поддержат два крупнейших общедоступных игровых движка, Unreal Engine 4 и Unity. EA также использует свои движки Frostbite и Seed для реализации DXR.


Подавляющее большинство рынка уже охвачено. Таким образом, функциональность ядер RT / RTX найдет свое применение в игровых приложениях и движках, таких как Unreal Engine, Unity, Frostbite … они также объединились с разработчиками игр, такими как EA, Remedy и 4A Games. Самыми крупными играми этого года, конечно же, станут новые Tomb Raider и Battlefield 5. Подводя итог, DXR, или трассировка лучей в играх как технология, меняет правила игры. Как выясняется фактическая вычислительная мощность Тьюринга, пока неясна, пока не пройдут тщательные испытания.

DLSS Высококачественная генерация движущихся изображений
Deep Learning Super Sampling — DLSS — это алгоритм АА с суперсэмплингом, в котором используется нейронная сеть с ускорением ядра Tensor, чтобы создать то, что NVIDIA называет высококачественной суперсэмплингом, такой как сглаживание. Сама по себе видеокарта GeForce RTX обеспечит хорошее повышение производительности по сравнению с аналогами последнего поколения, NVIDIA отмечает примерно на 50% более высокую производительность на основе условий 4K HDR 60 Гц для более быстрых видеокарт. Это, очевидно, исключает трассировку в реальном времени или DLSS, это будет ваша чистая производительность затенения. Глубокое обучение теперь может быть применено в играх как альтернативное решение AA (сглаживание). По сути, механизм затенения визуализирует ваш фрейм, передает его движку Tensor, который будет производить суперсэмплирование и анализировать его на основе алгоритма (не фильтра), применять его AA и передавать обратно. Новая функция DLSS 2X обеспечит качественное сглаживание TAA практически без затрат, поскольку вы рендерите свои игры «без AA» на движке шейдера, однако кадры передаются в движки Tensor, которые применяют суперсэмплинг и выполняют сглаживание на уровень качества, сравнимый с TAA, и это означает, что АА с суперсэмплингом при очень небольших затратах. При запуске около десятка игр будут поддерживать DLAA, оптимизированную для ядра Tensor, и последуют другие игры. Вопреки мнению многих, Deep Learning AA — не простой фильтр. Это адаптивный алгоритм. Настройка, в конце концов, будет доступна в свойствах драйвера NV с помощью ползунка. Вот объяснение NVIDIA; для обучения сети они собирают тысячи эталонных изображений «наземной правды», полученных с использованием метода золотого стандарта для идеального качества изображения, 64-кратной суперсэмплинга (64xSS). 64-кратная суперсэмплинг означает, что вместо того, чтобы затенять каждый пиксель по одному разу, мы затеняем с 64 различными смещениями в пикселе, а затем объединяем выходные данные, получая результирующее изображение с идеальной детализацией и качеством сглаживания. Мы также получаем соответствующие исходные исходные изображения, отрисованные в обычном режиме. Затем мы начинаем обучать сеть DLSS для соответствия выходным кадрам 64xSS, проходя через каждый вход, прося DLSS создать выход, измеряя разницу между его выходом и целью 64xSS, и корректируя веса в сети на основе различий через процесс обратного распространения. После многих итераций DLSS учится самостоятельно получать результаты, которые близко приближаются к качеству 64xSS, и в то же время учится избегать проблем с размытостью, дезокклюзией и прозрачностью, которые влияют на классические подходы, такие как TAA. В дополнение к описанной выше возможности DLSS, которая является стандартным режимом DLSS, мы предоставляем второй режим, называемый DLSS 2X. В этом случае вход DLSS визуализируется с конечным целевым разрешением, а затем объединяется большей сетью DLSS для получения выходного изображения, которое приближается к уровню 64-кратного рендеринга суперсэмпла — результат, который невозможно было бы достичь в реальном времени любым традиционные средства.

Это не 100% совершенная технология суперсэмплинга АА, но она довольно хороша из того, что мы видели до сих пор. Учитывая, что вы запускаете их на ядрах Tensor, ваш шейдерный движок выгружен. Итак, вы рендерите игру с идеей отсутствия АА, поскольку DLSS работает на ядрах Tensor. Таким образом, очень коротко, кадр с нормальным разрешением выводится в супер-качественном АА. 64-кратный супер-дискретизированный AA сравним с DLSS 2x. Все сделано с глубоким изучением и пробежкой через ядра Tensor. DLSS обучается на основе суперсэмплинга.

Инсталяция
Установка любой карты Nvidia GeForce действительно проста. После того, как плата установлена ​​в ПК, убедитесь, что вы подключили монитор и, конечно, любые внешние разъемы питания, такие как 6- и / или 8-контактные разъемы питания PEG. Желательно приобрести источник питания, в котором эти разъемы PCIe PEG изначально установлены, поскольку их преобразование из периферийного разъема Molex в этом году не требуется. Купите подходящий источник питания, рассчитайте / оцените пиковое энергопотребление для всего ПК и удвойте это число для источника питания.

Загрузите новые драйверы NVIDIA GeForce здесь
После этого мы загружаемся в Windows, устанавливаем последние версии драйверов, и после перезагрузки все должно работать. Никакой дополнительной настройки не требуется, если вы не хотите изменять настройки, для которых вы можете открыть панель управления NVIDIA.

Энергопотребление
Давайте посмотрим, какую мощность мы потребляем с помощью этой видеокарты. Методология: у нас есть устройство, постоянно контролирующее потребление энергии от ПК. Мы делаем упор на GPU, а процессор — как можно меньше. Мощность до и после примерно скажет нам, сколько энергии потребляет видеокарта под нагрузкой. Наша тестовая система основана на восьмиъядерной установке Intel Core i7-5960X Extreme Edition на платформе чипсета X99. Эта система разогнана до 4,20 ГГц на всех ядрах. Кроме того, у нас отключены функции энергосбережения для этой материнской платы и процессора (для обеспечения согласованных результатов тестирования). Здесь мы будем рассчитывать энергопотребление графического процессора, а не общее энергопотребление ПК.

Измеренное энергопотребления
Имейте в виду, что мощность системы измеряется на стороне настенной розетки, и есть другие переменные, такие как КПД блока питания. Так что это оценочная стоимость, хотя и очень хорошая. Ниже приведена диаграмма относительного энергопотребления. Опять же, показанная мощность — это карта с нагрузкой на 100% графических процессоров, показывающая только пиковое энергопотребление графического процессора, а не энергопотребление всего ПК и не среднее энергопотребление в играх.

Power consumption  TDP in KWh KWh price 2 hrs day 4 hrs day
Graphics card measured TDP 0,229 0,2 0,09 0,18
Cost 5 days per week / 4 hrs day € 0,91
Cost per Month € 3,89
Cost per Year 5 days week / 4 hrs day /  € 46,57
Cost per Year 5 days week / 4 hrs day / $ $ 53,95

Вот наша рекомендация по питанию:

  • GeForce RTX 2080 — в вашей средней системе мы рекомендуем блок питания на 600 Вт.
  • GeForce RTX 2080 Ti — для вашей средней системы мы рекомендуем блок питания на 650 Вт.
  • SLI — в вашей средней системе мы рекомендуем вам добавить 275 Вт к вышеуказанным значениям. Если вы планируете настроить / OC, добавьте еще 100 Вт.

Если вы собираетесь разогнать свой графический процессор или процессор, то мы рекомендуем вам приобрести что-то с большей мощностью. Кроме того, при половине нагрузки блока питания (при использовании 50%) ваш блок питания является наиболее энергоэффективным. Есть много хороших блоков питания, пожалуйста, посмотрите наши многочисленные обзоры блоков питания, так как у нас есть множество рекомендованных блоков питания, чтобы вы могли проверить там. Давайте перейдем к следующей странице, где мы рассмотрим уровни нагрева графического процессора и уровень шума от этой видеокарты.

Температура видеокарты
Итак, здесь мы посмотрим на температуру графического процессора. Во-первых, температура IDLE (настольного компьютера) сообщается через программное обеспечение на термодатчиках графического процессора. Сначала температура холостого хода, в целом все ниже 50 градусов C считается нормальным, все ниже 40 градусов C — это хорошо. Мы добавили наугад несколько карт, которые мы недавно протестировали на приведенном выше графике. Но что происходит, когда мы играем? Мы запускаем интенсивное игровое приложение на видеокарте и измеряем самую высокую температуру графического процессора.


Таким образом, когда карта была полностью нагружена, мы продолжали следить за температурой и записывали температуру графического процессора в соответствии с данными термодатчика.

Температура карты в условиях сильной игровой нагрузки стабилизировалась на уровне примерно 71 градуса C. Мы записываем самые горячие показания графического процессора, а не среднее значение.
Эти тесты проводились при комнатной температуре 20 ~ 21 ° C, это максимальная температура, основанная на FireStrike.

Стресс температура и тактовые частоты GPU
Посмотрите ниже на хорошие и стабильные тактовые частоты графического процессора, они начались на частоте 1935 МГц, но со временем установились на отметке ~ 1890 МГц. Защитные ограничители (кроме ограничителя мощности) слегка пинаются, поскольку вы можете видеть, что карта немного дросселирует. Это сцена FireStrike 1, зацикленная непрерывно в том, что на самом деле является нашей последовательной разминкой перед тестом (зацикливается).

Тепловизионные измерения температуры
Чтобы более точно визуализировать тепло, исходящее от тестируемого продукта или компонента, мы используем тепловизионное оборудование, также известное как камера FLIR. FLIR — это бренд, сокращенно обозначающий перспективный инфракрасный порт. С тепловизионной камерой специальный объектив фокусирует инфракрасный свет, излучаемый всеми видимыми объектами. Этот сфокусированный свет сканируется фазированной решеткой инфракрасных детекторных элементов. Элементы детектора создают очень подробную температурную схему, называемую термограммой. Для получения информации о температуре для создания термограммы требуется только одна тридцатая секунды. Эта информация получается из нескольких тысяч точек в поле зрения матрицы детекторов. Термограмма, создаваемая элементами детектора, переводится в электрические импульсы. Импульсы отправляются в блок обработки сигналов, печатную плату с выделенным чипом, который переводит информацию от элементов в данные для отображения. Блок обработки сигнала отправляет информацию на дисплей, где она отображается в виде различных цветов в зависимости от интенсивности инфракрасного излучения. Сочетание всех импульсов от всех элементов создает образ. Мы можем видеть горячие точки на печатной плате, показывающие, например, графический процессор, а также температуру VRM, а также то, как тепло распределяется по продукту.

Когда мы расположим тепловизионную камеру наружу, мы увидим, что общая конструкция кулера отводит тепло внутри вашего корпуса. Задние боковые вентиляционные отверстия на разъемах дисплея почти не излучают свет, а это значит, что в нем практически нет теплого воздуха.
Верхняя часть отводит немного тепла, что в основном выше настройки VRM. Это в пределах терпимости.

Уровень шума видеокарты
Когда видеокарты выделяют много тепла, обычно это тепло необходимо отводить от горячего ядра как можно быстрее. Часто вы увидите массивные решения для активных вентиляторов, которые действительно могут избавиться от жары, но в настоящее время все вентиляторы делают ПК шумным. Помните, что тест, который мы проводим, чрезвычайно субъективен. Мы купили сертифицированный измеритель дБА и начнем измерять, сколько дБА исходит от ПК. Почему это субъективно, спросите вы? Ну, всегда есть шум на заднем плане, с улиц, от жесткого диска, вентилятора блока питания и т. д., Так что это на милю или две, неточное измерение. Вы можете достичь объективного измерения только в звуковой испытательной камере. Слуховая система человека имеет разную чувствительность на разных частотах. Это означает, что восприятие шума не одинаково на каждой частоте. Шум со значительными измеренными уровнями (в дБ) на высоких или низких частотах не будет таким раздражающим, как при сосредоточении его энергии на средних частотах. Другими словами, измеренные уровни шума в дБ не будут отражать фактическое восприятие человеком громкости шума. Вот почему мы измеряем уровень дБА. Специальная схема добавлена ​​к измерителю уровня звука, чтобы исправить его показания относительно этой концепции. Это показание уровня шума в дБА. Буква A добавлена ​​для обозначения коррекции, которая была сделана при измерении. Частоты ниже 1 кГц и выше 6 кГц ослабляются, тогда как частоты между 1 кГц и 6 кГц усиливаются взвешиванием А.

Примеры уровней звуков

 

Взлет самолета (200 футов)      120 дБА
Строительная площадка             110 дБА
Крик (5 футов) 100 дБА
Тяжелый грузовик (50 футов)   90 дБ-очень шумно
Городская улица                            80 дБА
Интерьер автомобиля                 70 дБА шумный
Нормальный разговор (3 фута) 60 дБА
Офис, класс                                      50 дБА умеренный
Гостиная                                           40 дБА
Спальня ночью                               30 дБА тишина
Вещательная студия                     20 dBA
Шелест листьев                              10 дБА едва слышен

 



Когда карта находится в полностью нагруженном состоянии (в игре), она достигает 38 дБА. Это означает, что карта, находящаяся в состоянии стресса, находится на нормальном уровне относительно тихого уровня шума. Максимальное значение, конечно, начинает действовать только после того, как карта успела нагреться. Тем не менее, мы уже заметили, как свистит катушка при 120 FPS / Гц. Это заметно.

DX12: Shadow Of The Tomb Raider
Для этого конкретного теста включено следующее

  • DX12
  • Highest Quality mode
  • TAA enabled
  • HBAO+ enabled
  • Pure Hair Normal (on)

Наши оценки представляют собой среднюю частоту кадров, поэтому вам необходимо всегда учитывать запас для более низкого FPS. Таким образом, мы говорим, что 40 FPS в вашем предпочтительном разрешении монитора для этой игры должно быть вашим минимумом, в то время как 60 FPS (кадров в секунду) можно считать оптимальным.


DX12: Battlefield V
В игре представлено множество вариантов графики для ПК, таких как качество текстур, фильтрация текстур, освещение, эффекты, постобработка, сетка, рельеф и сглаживание (TAA). Окружающая окклюзия также может быть установлена ​​HBAO. Геймеры также имеют возможность изменять разрешение, ограничивать частоту кадров, настраивать поле зрения, настраивать эффекты, такие как виньетки или размытие в движении, или масштаб разрешения. Для нашего тестирования мы выберем DX12, режим Ultra Quality, VSYNC выключен и HBAO включен.


DX12: Strange Brigade
Отправляйтесь в экзотическое путешествие в опасность в этом захватывающем приключении от третьего лица 1930-х годов для 1-4 игроков. Встреча пульсирующих действий, коварных ловушек и рассказов о дерринге-до. Четыре игровых персонажа, которые могут быть настроены, имеют различное оружие и способности. Игроки имеют в своем распоряжении большой арсенал оружия. Каждое оружие имеет несколько слотов улучшения, которые можно использовать для повышения боевой эффективности. Игроки могут переключать и улучшать свое оружие на верстаках, найденных на уровне. Они также могут активировать различные ловушки, такие как вращающиеся лезвия и шипы, чтобы убивать врагов. Мы применяем настройки качества Ultra и делаем рендеринг на DX12 VSYNC.


Deus Ex Mankind Divided
Deus Ex: Mankind Divided — это стелс-видеоигра в жанре экшн-киберпанка, разработанная Eidos Montreal и выпущенная Square Enix. Созданный спустя два года после Human Revolution, Mankind Divided демонстрирует возвращение Адама Дженсена из предыдущей игры Deus Ex: Human Revolution с новыми технологиями и дополнениями тела. Мы тестируем с новым патчем BETA DX12, загруженным с проблемами. Deus Ex: Mankind Divided имеет встроенный тест, скрытый в меню Extras. Это около 90 секунд. Вы можете выбрать различные настройки качества. Мы используем настройки качества изображения HIGH на DX12 и не MSAA


DX12: Far Cry 5
Far Cry 5 использует улучшенную версию движка Dunia 2. Хотя игра использует API-интерфейс DirectX 11, команда разработчиков значительно оптимизировала игру, чтобы использовать преимущества аппаратных возможностей. Кроме того, Far Cry 5 является свидетельством достижения правильной визуальной точности при одновременном контроле общего количества полигонов. Любители природы будут рады найти очень густую листву и беспорядок, все это возможно благодаря разумному использованию системы двигателя. PC-версия игры имеет встроенный простой в использовании тест, хорошо то, что он действительно близок к реальной производительности геймплея. Выбираем Ultra Quality и запускаем.


DX11: Codemasters Formula 1 2018
F1 2018 — это гоночная видеоигра, разработанная и изданная Codemasters. Игра основана на сезоне Формулы 1 2018 года и включает в себя все двадцать трасс, двадцать гонщиков и десять команд, участвующих в сезоне. F1 2018 — девятый выпуск франшизы для видеоигр Формулы-1, разработанный Codemasters. Вы можете настроить множество функций, мы используем сверхвысокое качество. Мы вручную включаем HBAO + и 16xAF. Мы также применяем x16 AF вручную. По правде говоря, режимы сглаживания в игре — это TAA. Мы включаем его, но на экране высокого разрешения вы можете обойтись без АА, а также получить дополнительную производительность.


Разгон
Как большинство из вас знает, с большинством видеокарт вы можете применить ряд простых приемов, чтобы немного повысить общую производительность. Как правило, вы можете настроить тактовые частоты и напряжения ядра. Увеличивая частоту памяти видеокарты и графического процессора, мы можем заставить видеокарту увеличивать такты вычислений в секунду. Звучит сложно, но на самом деле это можно сделать менее чем за несколько минут. Я всегда советую начинающим пользователям и новичкам не увеличивать частоту ядра и памяти на 5%. Пример: если ваша карта работает на частоте 1500 МГц (что довольно часто встречается в наши дни), тогда я советую вам не увеличивать частоту выше 25–50 МГц.

Более продвинутые пользователи часто повышают частоту. Обычно, когда ваша 3D-графика начинает показывать артефакты, такие как белые точки («снег»), вы должны уменьшить на 25 МГц и оставить все как есть. Обычно, когда вы разгоняете слишком сильно, он начинает показывать артефакты, пустые полигоны или даже зависает. Тщательно найдите этот предел и затем уменьшите его как минимум на 25 МГц с момента обнаружения артефакта. Смотрите внимательно и наблюдайте хорошо. Я действительно не знаю, зачем вам разгонять сегодняшнюю протестированную карту, но мы все равно покажем. В общем … вы всегда разгоняетесь на свой страх и риск!

Reference (FE This sample Overclocked 
Boost Clock: 1680 MHz Boost Clock: 1680 MHz Boost Clock: 2000~2050 MHz
Memory Clock: 14000 MHz Memory Clock: 14000 MHz Memory Clock: 15798 MHz


Мы подготовили сборку (загрузка версии 4.6.0) с помощью AfterBurner, которую можно использовать для настройки карты как вручную, так и с помощью нового сканера ОС на основе кривой. Вы увидите, что большинство карт будут настроены примерно на один и тот же уровень из-за включения всех видов защиты оборудования. Мы применили следующие настройки:

  • Temp Target 88 Degrees C
  • Power Limiter: 120%
  • CPU clock +125 (we dropped back from 150 to 125)
  • Mem clock +900 MHz (x2 DDR)
  • Voltage +100%
  • FAN RPM default


Разгон видеокарты со сканером OC
NVIDIA представила новый способ разгона и настройки, начиная с RTX. По сути, теперь вы можете автоматически разогнать графический процессор. Нажав кнопку сканера OC, вы можете протестировать программный алгоритм и проверить интервалы и кривые частоты напряжения, сканер попытается определить стабильный разгон, он представлен в виде кривой и эта кривая может быть применена для вашей настройки

В AfterBurner (бета-версия 4.6.0) нажмите Control + F, и вы увидите кнопку сканера OC. Нажатие на кнопку сканирования может занять от 10 до 20 минут тестирования. Он определит новую стабильную кривую разгона, как только закончится в Afterburner, нажмите «Применить», и все готово.

Шокирующе автоматический разгон, такой же быстрый, как и ручной. И кривая OC Scanner — намного более дружественная настройка:

  1.  Установите ограничитель мощности на максимум
  2. Найдите стабильную частоту памяти (например, +1000)
  3. Оставьте регулятор напряжения по умолчанию
  4.  Нажмите сканер OC (это займет 10 минут)
  5. После завершения сканирования нажмите кнопку применения в AfterBurner.
  6.  Запустите тест для дальнейшей проверки стабильности и посмотрите на результаты.
  7. Наслаждайтесь практически идеальными автоматическими настройками.

Такой разгон — более мягкий способ настройки по сравнению с ручным перебором. Алгоритм определяется NVIDIA. С моими добавленными твиками по памяти и ограничителю мощности. Мой совет, найдите стабильный разгон памяти, включите ограничитель мощности и попробуйте сканирование.

Warface Statistics.png Assistant for Apex Legends.png Assistant PUBG.png
16.11.2021 в 06:55
Скачать NVIDIA GeForce 496.76 WHQL
26.10.2021 в 06:08
Скачать NVIDIA GeForce 496.49 WHQL
02.07.2021 в 07:55
Скачать драйвер GeForce 471.22 Hotfix
09.01.2020 в 12:29
Asus выпускает GeForce RTX 2070 Dual Mini для систем ITX
24.12.2019 в 09:09
NVIDIA показывает, что их графические процессоры GeForce RTX намного быстрее и мощнее консолей следующего поколения
19.12.2019 в 01:03
Шесть новых игр анонсированы с поддержкой NVIDIA RTX
05.12.2019 в 09:48
MSI вводит новую редакцию SK GP — выпускает GeForce RTX 2070 Ventus GP
27.11.2019 в 02:47
Скачать Quake II RTX v1.2
05.01.2022 в 09:28
Складные экраны ноутбуков появятся в 2022 году
05.01.2022 в 09:06
В Год Тигра Samsung излагает стратегию Тигра, чтобы победить Apple
05.01.2022 в 08:26
NVIDIA рассказывает и показывает GeForce RTX 3090 Ti 24 ГБ
05.01.2022 в 08:06
Samsung Galaxy S21 FE 5G с AMOLED-дисплеем 120 Гц, выпущен на Android 12
04.01.2022 в 11:38
Санкции США ударили по доходам Huawei, которые упали почти на треть
04.01.2022 в 10:33
Скачать бесплатно: STAR WARS Jedi: Fallen Order, Total War: WARHAMMER, World War Z: Aftermath (Prime). ВИДЕО
04.01.2022 в 10:24
Мистер Бин в Cyberpunk 2077. ВИДЕО
04.01.2022 в 09:35
Warface. «ЗИМНИЙ МАРАФОН» ПРОДОЛЖАЕТСЯ!
Top.Mail.Ru Яндекс.Метрика