Из чего состоит видеокарта?

Она есть практически в каждом компьютере. Напичканная миллиардами транзисторов, потребляющая сотни ватт энергии. Их стоимость нередко превышает тысячу долларов. Это шедевры электронно-инженерной мысли, задающие основные тренды в отношении продукта. И в то же время, всё, что они умеют делать – можно сосчитать на пальцах одной руки. Добро пожаловать в мир видеокарт! 

Видеокарты относятся к тем компонентам, которым мы уделяем больше всего внимания на TechSpot, поэтому их препарирование, естественно, должно быть выполнено с особой скрупулезностью. Прошу всех к столу. Операционному. Пришло время поковыряться во внутренностях, составляющих видеокарту; рассмотреть различные ее части и выяснить, что делает каждый орган. 

Серия «Анатомия компьютерного железа» от портала TechSpot 

У многих людей дома, в школе или на работе есть настольный компьютер. Кто-то ведёт на нём бухучёт, кто-то играет в игры, а кто-то даже сам собирает и ремонтирует их. Но хорошо ли вы знаете, из чего состоит компьютер? 

§ Анатомия материнской платы 

§ Анатомия блока питания (PSU) 

§ Анатомия накопителей: жесткие диски (HDD) 

§ Анатомия накопителей: твердотельные (SSD) 

§ Анатомия накопителей: оптические приводы 

§ Анатомия видеокарты 

Выход дракона 

У видеокарты есть и менее скромные названия, например: дополнительная карта графического ускорителя. Разрабатываемые и производимые огромными трансконтинентальными компаниями, видеокарты зачастую являются самым большим и дорогим компонентом компьютера. 

ТОП-10 самых продаваемых видеокарт на Amazon в данный момент представлен разношерстными моделями по цене от 53 до 1200 долларов, при этом последняя весит 1,5 кг и размером более 30 см в длину. И что все они делают, собственно? С помощью микросхем на плате они, в своем массовом сегменте, обеспечивают вывод 2D и 3D графики, а также кодирование/декодирование видеосигналов. 

Казалось бы, всего пара функций – а сколько металла, пластика и денег! Поэтому нам стоит поглубже покопаться в этих функциях, чтобы понять, что их делает такими серьёзными. Подопытным образцом у нас послужит видеокарта XFX Radeon HD 6870, наподобие той, что мы тестировали еще в октябре 2010 года. 

[фото XFX Radeon HD 6870] 

На первый взгляд ничего особенного. Довольно большая (22 см), и по большей части в пластиковом корпусе. Мы видим металлический крепёжный кронштейн, большой красный вентилятор и контактную полосу разъёма. 

Перевернём и посмотрим, что есть интересного с обратной стороны: 

[фото XFX Radeon HD 6870 с обратной] 

Первое, что вы заметите, это еще один металлический кронштейн вокруг плотного скопления электронных компонентов. Остальная часть печатной платы относительно свободна от них, но можно разглядеть множество проводников, идущих из средней части. Очевидно, в центре находится что-то очень важное и довольно сложное... 

Вот чёрт, а тут горячо! 

Чип – это интегральная микросхема (сокр. ИС, IC), выделяющая при работе тепло. Множество таких чипов упаковывается в компактный размер, следовательно, всё это будет очень сильно греться, если каким-то образом не отводить тепло. 

В итоге, большинство видеокарт скрыто под какой-либо системой охлаждения, и наша не исключение. Берём отвертку и чихаем на предупреждающие наклейки… Наш девайс всё равно не новый, так что нечего беспокоиться о нарушенной гарантии: 

[фото XFX Radeon HD 6870 без кулера] 

Данная система охлаждения известна как воздушная: она всасывает воздух, проводит его через широкие металлические полости, и выводит его обратно за пределы устройства. 

На фото выше мы видим квадратную медную штуковину с остатками термопасты. Термопаста служит для заполнения микрополостей между графическим процессором (GPU) и теплопроводником для более эффективной теплопередачи. 

А ещё мы видим 3 голубоватых полоски – термопрокладки, которые за счет своей пластичности и мягкости обеспечивают надежный теплоконтакт некоторых частей платы с металлическим основанием кулера. Без этих полос эти части могут даже вовсе не получить контакта с теплоотводом, что чревато их перегревом. 

Внимательнее посмотрим на основной металлический блок – в нашем примере это медный блок с тремя выходящими из него медными трубками, а сам блок покрыт множеством рядов алюминиевых рёбер. Название всего этого – радиатор. 

[двойное фото радиатора] 

Полые и герметичные с обоих концов трубки заполнены небольшим количеством воды (в некоторых моделях используется нашатырный спирт), которая поглощает тепло из медного блока. Нагреваясь, вода переходит в пар и уходит от источника тепла на другой, более холодный, конец трубки. 

Там тепло передаётся алюминиевым ребрам, и пар, остывая, вновь становится жидкостью. Внутренняя поверхность трубок шероховатая, благодаря чему вода перемещается снова к источнику тепла (эффект капиллярного действия или т.н. «перемещение впитыванием»). 

Эти тепловые трубки, как их обычно называют, не обязательно должны быть на всех видеокартах. Бюджетные модели могут быть не настолько мощными, чтобы выделять такое количество тепла, которое нужно столь активно отводить при помощи таких трубок. По той же причине такие модели могут позволить себе заменить медь на более дешёвый алюминий, как на примере ниже. 

[фото Asus GeForce GT 710] 

Это Asus GeForce GT 710 – типичный пример решения на рынке недорогих видеокарт с низким энергопотреблением. Такие продукты редко потребляют более 20 Вт, и пусть хоть вся эта мощность уйдёт на тепловыделение, нет никакого повода для беспокойства за чип под этим радиатором. 

Одной из основных проблем воздушного охлаждения является неизбежный шум вентилятора, выполняющего тяжелую работу по нагнетанию воздуха в ребра радиатора (а из них горячий воздух выдувается наружу, за пределы корпуса ПК). Не имея возможности увеличить размер лопастей больше чем на ширину видеокарты, продуктивность вентилятора приходится увеличивать лишь за счет высокой скорости вращения, что усиливает шум. 

Распространенным решением этой проблемы является открытый кулер – здесь вентилятор просто насквозь продувает рёбра радиатора потоком воздуха. Преимущество этого подхода в том, что лопасти вентиляторов можно сделать больше, чтобы уменьшить скорость вращения и соответственно – шум. Минус в том, что карта становится более громоздкой, а внутренняя температура компьютера выше. 

[фото MSI Radeon RX 5700 XT MECH OC] 

Эти 2 вентилятора работают на пределе возможностей, чтобы охладить MSI Radeon RX 5700 XT MECH OC с теплопакетом 225 Вт. 

Конечно, если вы собираетесь серьёзно нагружать видеокарту например непрерывным просмотром сериалов Netflix, стоит сделать выбор в пользу водяного охлаждения вместо воздушного. Вода действительно лучше поглощает тепло (примерно в 4 раза лучше воздуха), поэтому, естественно, вы можете купить комплект водяного охлаждения и установить его. Либо раскошелиться на видеокарту с уже установленным водяным охлаждением. 

[фото GeForce RTX 2080 Ti KiNGPiN GAMING от EVGA] 

На фото сверху – GeForce RTX 2080 Ti KiNGPiN GAMING от EVGA. Блок воздушного охлаждения – это только для RAM и рядом стоящих компонентов на плате. Сам же GPU – на водяном охлаждении. Сущие копейки – 1800 баксов. 

Вы удивитесь, но максимальная потребляемая мощность RTX 2080 Ti составляет в норме 250 Вт, что меньше, чем у RX 5700 XT, о которой мы упоминали чуть ранее. 

Столь избыточное охлаждение – не для реальных и заурядных задач. Покупайте, если вам хочется разогнать видеокарту до бешеного уровня и почувствовать себя верхом на драконе. 

Вскрытие черепной коробки: GPU 

Теперь давайте посмотрим, что у нас находится под снятой системой охлаждения. Видим плату с большим чипом посередине, несколько чёрных микросхем вокруг неё, и множество электронных деталей повсюду. 

[фото платы со вскрытым ГПУ] 

Принципиально видеокарты не меняются – везде по сути одни и те же узлы и схожее размещение на плате. Даже если взглянуть на древнюю видеокарту ATi Technologies 1998 года, мы всё равно увидим принципиальное сходство: 

[фото ATi 3D Charger] Видеокарта ATi 3D Charger на чипе Rage IIC. Источник: Музей VGA (хороший сайт, кстати!) 

Как и в нашей разобранной HD 6870, в центре стоит большая микросхема, рядом микросхемы памяти, и множество деталек для работы всего этого. 

Большой главный чип известен под разными именами: видеоадаптер, 2D/3D-ускоритель (акселератор), графический чип и прочие. Но в наши дни мы чаще всего называем его графическим процессором или кратко – GPU (Graphics Processing Unit). Эти три буквы используются в обиходе уже десятки лет, но Nvidia по-прежнему настаивает на своём первенстве в их использовании. 

Все GPU имеют примерно такую же структуру внутри чипа, как у нашего: 

[фото GPU близко] 

Этот процессор разработан AMD и изготовлен на заводах TSMC; у него есть кодовые названия, такие как TeraScale 2 для общей архитектуры и Barts XT – для варианта чипа. На кристалле площадью 255 мм2 размещено 1,7 миллиарда транзисторов. 

Из этого огромного количества электронных переключателей – транзисторов – состоят различные ASIC (Application Specific Integrated Circuits – «Интегральные схемы специального назначения»), которые GPU использует для конкретных специфических задач. Одни просто выполняют математические операции, такие как умножение и сложение, другие преобразуют значения из памяти в цифровые сигналы монитора. 

Графические процессоры предназначены для одновременного выполнения множества задач, поэтому изрядную долю структуры чипа составляют одинаковые логические блоки. Это легко можно увидеть на примере современного GPU Navi: 

[микрофото структуры ГПУ] 

По обеим сторонам расположены 20 одинаковых структур – это главные вычислительные модули чипа, выполняющие основную работу по построению 3D-графики в играх. Между ними, в середине, в основном модули кэша – высокоскоростной внутренней памяти для хранения инструкций и данных. 

Вдоль верхнего и нижнего краёв расположены ASIC для обмена данными с RAM видеокарты, а по правому краю процессора – интегральные схемы для связи с остальными узлами компьютера, а также для кодирования/декодирования видеосигналов. Мы периодически публикуем статьи о последних разработках AMD, Nvidia, а также Intel, для тех, кому интересно более подробно узнать о внутренностях GPU. Мы лишь отметим, что, хотите ли вы играть в игры, или хотите заняться обучением нейросетей – вам в любом случае необходим графический процессор. 

Не обязательно все графические процессоры должны быть на отдельной дополнительной плате. Многие современные центральные процессоры имеют небольшой встроенный GPU. Вот как, например, выглядит структура Core i7-9900K, опубликованная в пресс-релизе Intel. 

[микрофото ЦП Интел] 

Синим цветом слева подкрашен интегрированный GPU. Как видите, он занимает примерно треть всего чипа, но поскольку Intel никогда не публикует данных о количестве транзисторов в своих процессорах, трудно сказать, насколько этот GPU действительно мощный. 

Зато мы можем оценить разницу между самыми большими и самыми маленькими современными GPU от AMD, Intel и Nvidia: 

Производитель AMD Intel Nvidia 

Архитектура RNDA Gen 9.5 Turing 

Чип/модель Navi 10 Navi 14 GT3e GT1 TU102 TU117 

Кол-во транзисторов 

(млрд.) 10.3 6.4 сколько-то меньше 18.6 4.7 

Площадь кристалла 

(мм2) 251 158 ~80(?) Около 30 754 200 

GPU Navi построены на 7-нм техпроцессе TMSC, тогда как Intel использует собственный 14-нм процесс, а Nvidia – специально усовершенствованный 16-нм техпроцесс TMSC (он называется 12FFN). Это значит, что сравнивать напрямую их не удастся. Всё, что мы можем точно сказать – транзисторов в графических процессорах много! 

Чтобы дать хоть какое-то количественное представление, сравним ранее упомянутый антикварный Rage IIC, возрастом более 20 лет, с самым маленьким современным чипом Navi от AMD. Кристалл первого, площадью 39 мм2, вмещает 5 миллионов транзисторов. В то время как в Navi удалось разместить в 1280 раз больше транзисторов, при этом площадь кристалла увеличилась всего в 4 раза. Так выглядит прогресс двух десятилетий. 

Слоны помнят всё 

Как и во всех видеокартах, на плате нашего подопытного экземпляра находятся несколько микросхем памяти. Они нужны для хранения всех данных, необходимых для формирования изображения, и, как правило, представляют собой специально адаптированную для графики память типа DRAM. 

Первоначально называвшаяся DDR SGRAM (Double Data Rate Synchronous Graphics Random Access Memory – «синхронная графическая память с произвольным доступом и удвоенной скоростью передачи данных») при первом появлении на рынке, сейчас её название сократилось до GDDR. 

[микрофото GPU и память] 

В нашем конкретном примере – 8 модулей Hynix H5GQ1H23AFR GDDR5 SDRAM, работающих на частоте 1,05 ГГц. Этот тип памяти все еще встречается на многих современных картах, постепенно вытесняясь более новой версией, GDDR6. 

Принципиально GDDR5 и GDDR6 не отличаются: базовая тактовая частота (упомянутая выше) делится на два частотных канала – для команд и данных. Данные передаются внутри ядра памяти через отдельную систему. В случае GDDR5, ширина передачи данных за тактовый цикл равна 8x32 бит на каждый доступ для чтения/записи. Разница только в том, что GDDR6 удваивает это значение. 

Передача данных в GDDR5 осуществляется последовательным 32-битным потоком на удвоенной частоте, по два информационных слова за тактовый цикл этой частоты. 

Таким образом, в нашем Radeon HD 6870 с восемью чипами Hynix, GPU может передавать до 2 (трансфер за такт) x 2 (удвоение частоты передачи данных) x 1,05 (базовая тактовая частота) x 8 (кол-во чипов) x 32 (ширина данных) = 1075,2 Гбит/с или 134,4 ГБ/с. Эта сумма называется потенциальной пропускной способностью памяти видеокарты, и, как правило, мы хотим, чтобы она была как можно выше. Что касается GDDR6, то её отличает наличие двух режимов скорости передачи данных: обычную двойную (double rate model) скорость и учетверенную (quad rate model) – дважды двойную! 

Не все видеокарты нуждаются в GDDR памяти 5-6 поколений: множество бюджетных моделей, не ориентированных на графические задачи, продолжают довольствоваться DDR3 SDRAM (например, выше упомянутая видеокарта с пассивным охлаждением от Asus). Учитывая, что графический процессор на таких картах относительно слабый, им более чем достаточно такой памяти. Одно время Nvidia экспериментировала с GDDR5X – с такой же учетверенной скоростью передачи данных, что и у GDDR6, но уступающей ей в скорости синхронизации. А AMD, в свою очередь, периодически использовала HBM (High Bandwidth Memory – «память с высокой пропускной способностью») в таких своих моделях как Radeon R9 Fury X, Radeon VII и другие. Все версии HBM отличает огромная пропускная способность, но себестоимость их производства гораздо выше по сравнению с модулями GDDR. 

[микрофото GPU AMD HBM] 

Первый GPU от AMD с памятью HBM (4 чипа по бокам). Фото: C. Spille, pcgameshardware.de 

Чипы памяти всегда напрямую подключаются к процессору для обеспечения максимальной производительности, и иногда даже проводники (тонкие такие полоски между элементами на плате) могут выглядеть странновато из-за этого. 

[фото платы под GPU] 

Обратите внимание, как проводники, идущие ровно, в некоторых местах вдруг начинают извиваться «змейкой». Эти компенсаторные участки необходимы для того, чтобы все проводники между GPU и памятью имели одинаковую длину во избежание каких-либо сбоев и рассогласований при прохождении каждого электрического сигнала. 

С первых дней использования GPU, объем памяти видеокарт сильно изменился. 

Упомянутая ранее ATi Rage 3D Charger имела всего 4 Мб памяти EDO DRAM. Сегодня нормой является 4-6 Гб (а у топовых моделей вдвое больше) – т.е. в тысячу раз больше. Учитывая, что ноутбуки и настольные ПК только совсем недавно отказались от нижней планки в 8 Гб RAM для стандартной комплектации, видеокарты – настоящие слоны, когда речь заходит об объеме их памяти! 

Использование сверхбыстрой памяти GDDR обусловлено большим объемом данных, которыми GPU должен постоянно обмениваться с памятью во время работы. Интегрированные GPU часто не имеют так называемой локальной памяти, используя вместо неё основную оперативную память системы. Доступ к ней гораздо медленнее, чем к гигабайтам собственной памяти GDDR5, находящейся рядом с GPU. Но интегрированные GPU и не настолько мощны, чтобы действительно нуждаться в таких привилегиях. 

Мне нужна энергия! Много энергии! 

Как и любому устройству в компьютере, для работы видеокарты требуется электроэнергия. Её количество определено, прежде всего, потребностью графического процессора, поскольку для модулей памяти требуется всего по паре ватт на каждый. 

Прежде всего, карта получает питание со слота расширения, к которому она подключена, и практически каждый настольный компьютер сегодня использует соединение PCI Express. 

[фото контактной полосы PSIe] 

На фото выше мы видим две контактные полосы разъёма – та, что справа и длиннее, предназначена исключительно для обмена данными и инструкциями. Питание же подается через короткую левую полосу, имеющую по 11 контактов с каждой стороны, но не все из этих контактов – контакты питания. 

[распиновка короткой полосы] 

Почти половина из этих 22 выводов предназначена для общих системных задач, таких как контроль функциональности видеокарты, команды включения/отключения, и прочее. Новейшая спецификация PCI Express устанавливает ограничения по входящему току, суммарно, по двум линиям. Для современных видеокарт это 3А на линии +3,3В и 5,5А на линии +12, что обеспечивает в общей сложности (3 x 3,3) + (5,5 x 12) = 75,9 Вт мощности. 

А как быть, если вашей карте нужно больше? Например, нашему подопытному образцу Radeon HD 6870 требуется не менее 150 Вт – вдвое больше, чем мы можем получить от слота PCI-E. Для таких случаев спецификацией предусмотрен формат дополнительного питания +12В, предоставляя на выбор производителя два стандарта разъёмов для него: 6 или 8-пин. 

[фото разъёмов доп.питания] 

Оба типа разъёмов обеспечивают три дополнительные линии +12В, разница между ними заключается в количестве линий «земли»: в 6-пин разъёме их три, а в 8-пин разъёме их пять. Увеличение линий «земли» даёт возможность подать больший ток. В то время, как 6-пин разъём способен обеспечить дополнительно 75Вт мощности, 8-пиновый разъём – вдвое больше, 150 Вт. 

На нашей карте мы видим два 6-пин разъёма. Это значит, что вместе с питанием от PCI Express, мы можем подать на неё до 75 + (2 x 75) = 225 Вт мощности, что более чем достаточно для удовлетворения её потребностей. 

Но процессор и память не работают с вольтажами 3,3 или 12 вольт. Для чипов GDDR5 требуется 1,35, а для графического процессора AMD – 1,172 вольт. Значит, необходимо предварительно отрегулировать подаваемое на них напряжение. Эту задачу выполняют VRM (Voltage Regulation Modules) – модули регулирования напряжения. 

[фото 4 VRM] 

Это уже хорошо знакомые нам модули, стандартно используемые в различных устройствах – в частности, мы видели их в блоках питания и в материнских платах. Как мы знаем, они неплохо греются, поэтому нередко и их закрывают теплоотводом, защищая от перегрева. 

Как и в случае с материнской платой/CPU, количество и тип (читай: качество) VRM сильно влияют на стабильность графического процессора при разгоне. Равно как и качество VRM-контроллера. 

[фото контроллера CHIL] 

Наш Radeon HD 6870 10-летней свежести использует CHIL CHL821401, являющийся 4+1-фазным ШИМ-контроллером (то есть, он может управлять 4 VRM, которые мы видим на предыдущем фото, плюс одну другую систему регулирования напряжения); а также он может следить за температурой и контролировать силу тока. Он может настроить VRM на переключение между одним из трех различных напряжений – функция, которая интенсивно используется в современных графических процессорах, поскольку они переключаются на более низкое напряжение «холостого хода» для экономии электроэнергии и уменьшения нагрева (и, соответственно, шума). 

Чем больше мощности требуется графическому процессору, тем большее количество VRM требуется и тем «круче» должен быть ШИМ-контроллер. В этом можно убедиться, просто взглянув на печатную плату GeForce RTX 2080 от Nvidia со снятой системой охлаждения: 

[фото RTX 2080 без кулера] 

Как видите, справа от GPU и модулей памяти – целая батарея из десяти VRM на всю ширину карты. А у EVGA есть видеокарты с количеством VRM чуть ли не вдвое больше! Такие видеокарты, разумеется, рассчитаны на сильный разгон, то есть подразумевают энергопотребление до 300 Вт и более. 

К счастью, не все видеокарты настолько безумно прожорливые. Лучшие продукты среднего класса на данный момент имеют мощность от 125 до 175 Вт, что примерно соответствует уровню нашей Radeon HD 6870. 

Входы/выходы 

Итак, мы рассмотрели все электронные узлы на плате и как они обеспечиваются питанием. Пора выяснить как команды и данные поступают графическому процессору и как он затем отправляет свои результаты на монитор. Короче говоря, нас интересуют все соединения входа/выхода (I/O, input/output). 

Обмен данными и командами осуществляется через разъем PCI Express, точнее – через длинную контактную полосу этого разъёма. Все выводы исходящих сигналов находятся на одной стороне, а входящих – на другой. Обмен данными по PCI Express осуществляется посредством дифференциального сигнала, используя два контакта сразу, отправляя 1 бит данных за такт. На каждую такую пару данных приходится пара выводов заземления, в итоге мы имеем 2 исходящих, 2 входящих сигнальных вывода и 4 вывода заземления. В совокупности, одна такая полоса передачи называется линией или лэйном (lane, «полоса»). 

Количество таких лэйнов, используемых устройством, обозначается в маркировке в виде: x1, x4, x8 или x16. Почти все видеокарты используют 16 лэйнов (т.е. PCI Express x16), что означает, что данный интерфейс позволяет отправлять/получать до 16 бит за цикл. 

Дифференциальная пара в разъеме PCI Express 3.0 работает на частоте 4 ГГц, однако данные могут быть синхронизированы на передачу дважды за цикл. Это дает теоретическую пропускную способность передачи данных: 4 ГГц x 2 за цикл x 16 бит = 128 Гбит/с или 16 Гб/с в каждом направлении. 

Фактически же будет чуть меньше (около 15,8 Гб/с), поскольку PCI Express использует физическое кодирование при построении сигнала, занимающее около 1,5% битов для улучшения качества сигнала. Последняя версия спецификации – PCI Express 4.0, удваивает пропускную способность до 32 Гб/с. В разработке находится версия 5.0, пропускная способность которой опять же удвоена. 

Некоторые видеокарты, в том числе наша HD 6870, имеют дополнительный разъем, как на фото ниже: 

[фото контактной полосы разъёма поддержки двух видеокарт] 

С его помощью две или более видеокарт можно соединить вместе для быстрого обмена данными в мультипроцессорных графических системах. Производители по-разному называют это соединение: AMD называет его CrossFire, а Nvidia – SLI. При этом AMD больше не использует этот интерфейс, а просто делает всё через слот PCI Express. 

Если вы прокрутите страницу чуть назад и снова взглянете на фото GeForce RTX 2080, вы обнаружите у неё целых две таких контактных полосы – это интерфейс усовершенствованной технологии прямого соединения GPU от Nvidia, называемой NVLink. Эта технология рассчитана в основном для профессиональных и сверхпроизводительных вычислительных видеокарт, нежели для игровых. Несмотря на все усилия AMD и Nvidia по продвижению мультипроцессорных графических систем, их востребованность остаётся не высока. В наши дни большинство пользователей предпочитает просто купить одну хорошую видеокарту. 

Большинство компьютеров имеют несколько разъёмов для подключения монитора. Это потому, что мониторов на рынке великое множество – самых разных моделей и бюджетов, а значит видеокарта должна поддерживать как можно больше из них. 

У нашей препарированной Radeon их пять: 

§ 2 разъёма mini DisplayPort 1.2 

§ 1 разъём HDMI 1.4a 

§ 1 разъём DVI-D (цифровой) dual-link 

§ 1 разъём DVI-I (аналогово-цифровой) dual-link 

Вот они: 

[фото блок разъёмов видеовыхода] 

Поддерживая как можно больше типов мониторов, наличие нескольких разъемов также означает, что вы можете подключить сразу несколько мониторов к видеокарте. С такими фокусами справляется сам GPU, в некоторых случаях прибегая к помощи дополнительных чипов. Один такой есть и в нашей карте – это HDMI-свитч Pericom P13HDMI4. 

[фото микросхемы HDMI] 

Эта крошечная микросхема преобразует данные HDMI, которые содержат цифровые видео/аудиопотоки, в графические сигналы для разъемов DVI. Спецификация этих соединений всё более актуальна в наши дни из-за новых требований к мониторам. 

Рост киберспорта заставляет индустрию мониторов стремиться к достижению всё более высокой частоте обновления (число раз в секунду, когда монитор перерисовывает изображение на экране) – 10 лет назад подавляющее большинство мониторов работали на частоте 60 или 75 Гц. Сегодня вы можете выбрать себе монитор 1080p, работающий на частоте 240 Гц. 

Современные видеокарты также очень мощные, и многие из них способны работать с высокими разрешениями, такими как 1440p и 4K, а также имеют выходы HDR (High Dynamic Range, «расширенный динамический диапазон»). Из длинного списка подобных требований можно выделить также поддержку многими мониторами технологии VRR (Variable Refresh Rate, «переменная частота обновления») – системы, не позволяющей монитору обновлять изображение во время его прорисовки видеокартой. 

Основные открытые и проприетарные стандарты VRR: 

§ DisplayPort Adaptive-sync 

§ HDMI 2.1 VRR 

§ AMD FreeSync 

§ Nvidia G-Sync 

Чтобы воспользоваться такими функциями (высокое разрешение, высокая и переменная частота обновления, HDR), необходимо ответить на 3 вопроса: поддерживает ли это монитор? Поддерживает ли это видеокарта? Есть ли у видеокарты соответствующий интерфейс? 

Если вы выбираете одну из новейших карт от AMD (Navi) или Nvidia (Turing), вот какие системы вывода они поддерживают: 

AMD Nvidia 

DVI Dual-Link Digital Dual-Link Digital 1600p @ 60Hz, 1080p @ 144Hz 1600p @ 60Hz, 1080p @ 144Hz 

DisplayPort 1.4a (DSC 1.2) 1.4a (DSC 1.2) 4K HDR @ 240Hz, 8K HDR @ 60Hz 4K HDR @ 144Hz, 8K HDR @ 60Hz 

HDMI 2.0b 2.0b 4K @ 60Hz, 1080p @ 240Hz 4K @ 60Hz, 1080p @ 240Hz 

VRR DP Adaptive-sync, HDMI VRR, FreeSync DP Adaptive-sync, HDMI VRR, G-Sync 

Конечно, эти цифры полную картину не отражают, и вы могли бы наслаждаться 4K с частотой более 200 Гц через DisplayPort, но в реальности это в полной мере может не получиться из-за ограничений работы оперативной памяти с необработанными данными. 

Но к счастью, сжатие данных или цветовая субдискретизация (технология кодирования изображения, при которой уменьшается количество передаваемой информации о цвете) могут помочь облегчить нагрузку на поток видеоданных. Вот где небольшие различия в моделях видеокарт могут иметь значение: одна может использовать стандартную систему сжатия, другая некую проприетарную систему, третья – вариант цветовой субдискретизации. 

20 лет назад видеовыходы у карт имели сильные отличия, и вам часто приходилось выбирать, чем жертвовать: качеством ради скорости, или скоростью ради качества. Сегодня такого, слава богу, практически нет. 

Всё ради хорошей картинки? 

Может показаться странным, что для отрисовки изображений в игре типа Call of Mario: Deathduty Battleyard может потребоваться столько сложностей и затрат. Просто посмотрите ещё раз на видеокарту ATi 3D Charger в начале статьи. Она выдавала в секунду до 1 миллиона треугольников и до 25 миллионов пикселей. Сегодня за те же деньги вы купите видеокарту, у которой эти цифры в 2000 раз больше. 

А нужна ли нам такая производительность? Ответ – да: отчасти потому, что у современных геймеров ожидания в отношении графики намного выше, а также потому, что создание реалистичных 3D в режиме реального времени – это огромные вычислительные нагрузки. Поэтому, когда вы сражаетесь с драконами, проходите поворот О Руж в Raidillon или лихорадочно отбиваетесь от внезапного массивного зерг-раша, просто уделите несколько секунд своей видеокарте – хорошо ли она с этим всем справляется? 

Но GPU могут не только обрабатывать изображения. В последние несколько лет наблюдается взрыв в использовании этих процессоров в суперкомпьютерах, для комплексного машинного обучения и искусственного интеллекта. В 2018 безумную популярность получил майнинг криптовалюты, и видеокарты оказались идеальными для такой работы. 

Ключевое слово здесь – «вычисления» (compute) – понятие, обычно ассоциирующееся со сферой деятельности центральных процессоров. Но теперь и GPU занят в определенных областях, требующих массивных параллельных вычислений, причем все они выполняются с использованием высокоточных значений данных. И AMD, и Nvidia производят продукты, нацеленные на этот рынок, и они почти всегда оснащены самыми большими и дорогими графическими процессорами. 

Кстати, вы когда-нибудь задумывались над тем, как выглядят внутренности видеокарты за 2500 долларов? Блогеры ютуб-канала «Gamers Nexus», видимо, не смогли сдержать любопытство, и разобрали одну такую: 

[видео] 

Если вам тоже хочется свою такую же разобрать, то, пожалуйста, будьте осторожны! Мы сомневаемся, что вам в магазине её заменят, если вы там что-нибудь сломаете. 

Итак, какая бы видеокарта у вас ни была – за 20, 200 или 2000 долларов, – все они принципиально и конструктивно схожи: узкоспециализированный процессор с дополнительными микросхемами и другими электронными элементами на печатной плате. По сравнению с нашими предыдущими вскрытиями материнской платы и блока питания, тут меньше отдельных узлов, но зато те, что есть – весьма интересные. 

Пришло время попрощаться с останками нашей видеокарты Radeon HD 6870. Высыпем их в коробку и поставим в шкаф. Немного печальный конец постиг такое чудо высоких технологий, поразившее нас невероятной графикой, и все это благодаря миллиардам микроскопических транзисторов. 

Если у вас есть какие-либо вопросы о видеокартах в целом, или конкретно о вашей, смело спрашивайте в комментариях ниже. До новых встреч в нашем анатомическом кружке.


Популярные материалы

i2HARD.Youtube