Анатомия видеокарты - устройство и назначение
Какой компонент компьютера (я сейчас про стационарные ПК), помимо материнской платы, неизменно вызывает уважение? Процессор – какой бы он ни был мощный, но это небольшой квадратик/прямоугольник, своим видом не вызывающий особых эмоций. Модули памяти, SSD? Да ладно! Кулер? Это, по сути, довольно простая, хотя большая и тяжелая, железка с пропеллером. Блок питания? В какой-то мере да, но особого трепета все равно нет. Что остается, видеокарта? А вот тут в точку. Если имеем дело с современным высокопроизводительным графическим адаптером, то берешь в руки — маешь вещь! Как она устроена, какова анатомия видеокарты – предмет нашего сегодня разговора.
Типы видеокарт
Существует три вида графических адаптеров:
- Встроенный. Современные, да и не очень, CPU в большинстве случаев имеют в своем составе видеокарту. Ее возможностей хватит для повседневной офисной работы, серфинга в интернете, просмотра фильмов, даже для простеньких игр. К сожалению, когда речь заходит о 3D-моделировании, играх и прочих «тяжелых» в визуальном плане приложениях, возможностей встроенного видеоядра уже не хватает.
- Дискретная. Некая плата, устанавливаемая в свободный слот на материнской плате. По физическим размерам это внушительный девайс, да и возможности под стать.
- Внешняя. Подключается либо по USB (обычно используется с ноутбуками) или с помощью интерфейса Thunderbolt.
Встроенное в процессор видеоядро сегодня нас интересует мало. Как и внешняя, хотя по сути, это выполненная в отдельном корпусе дискретная видеокарта. И вот она то, дискретная, и будет предметом этого материала.
Я не буду останавливаться на вопросах типа «зачем нужна видеокарта». На мой взгляд, абсолютно бессмысленно отвечать на очевидное. Это вопрос из разряда «зачем компьютеру блок питания» или «зачем автомобилю двигатель». Уверен, уж об основном назначении этого компонента вы и сами догадываетесь.
Не буду останавливаться и на этапах развития графических адаптеров. История эта интересна, разнообразна, полна драматических и, не побоюсь этого слова, трагических событий, но тема весьма обширная, и в данном случае мало помогающая разобраться в анатомии видеокарт.
Из чего состоит видеокарта
Когда мы рассматривали строение материнской платы, то в большинстве случаев «порционные судачки а натюрель» были на виду во всей красе. Практически все составные части видны и ко всем можно подобраться.
К сожалению, взяв в руки современную видеокарту, мы видим массивный радиатор с вентиляторами в количестве от одного до трех (хотя бывает и больше), на обратной стороне в лучшем случае видим тыльную сторону печатной платы, да и то скорее всего она будет закрыта металлической или композитной пластиной. Да с торца несколько разъемов. Что и как там устроено – почти ничего не видно.
Поэтому, чтобы узнать основы и составные части современной видеокарты, придется снимать систему охлаждения. После того, как с этой задачей справились, наконец-то нашему взору откроется анатомическая картина графического адаптера.
Итак, из каких основных частей состоит видеокарта:
- Графический процессор (GPU).
- Микросхемы памяти (GDDR).
- Система питания GPU и GDDR (ШИМ контроллер(ы) и цепи VRM).
- Система охлаждения видеокарты.
- Интерфейсный разъем для подключения к материнской плате (PCIe).
- Разъем(ы) питания.
- Интерфейсные разъемы для подключения монитора/ов.
- Разъем для объединения видеокарт в режим SLI или CrossFire (опционально).
Причем, практически все эти части присутствуют и на видеокартах, выпущенных десяток лет назад, и даже двадцать…
На каждом из этих компонентов остановимся поподробнее. Разберемся, что это, как устроено и для чего требуется. И нужно ли вообще.
Для образца возьмем конкретную видеокарту - MSI GeForce RTX 3070 Ti Suprim X.
Графический процессор (GPU)
Какую бы видеокарту вы не использовали (AMD или NVidia), выглядят они похоже. Центральное место на печатной плате (ну или примерно центральное, но в любом случае заметное), занято графическим процессором. В окружении других компонентов, до которых речь тоже дойдет.
Наверняка напрашивается аналогия с центральным процессором, и она вполне уместна. Тем более, что и название похожее – там CPU (Central Processing Unit), здесь GPU (Graphics Processing Unit). И то, и то – процессоры. И в чем между ними отличие?
Если меряться транзисторами, из которых состоят CPU и GPU, то у последних их больше. Например, во взятой для образца видеокарте установлен чип NVidia GA104-400-A1, в котором 17.4 млрд транзисторов. А, скажем, AMD Ryzen 7 5800H обходится почти вдвое меньшим количеством. Выходит, графический процессор круче?
В чем-то да, а в чем-то и нет. Некогда большую часть работы по обсчету изображений (например, в играх), которые надо вывести на экран, выполнял CPU. Однако, постоянное усложнение этой работы и необходимость высокой вычислительной мощности привело к тому, что возможностей процессора стало не хватать.
CPU – универсальное устройство, выполняющее множество разных функций. В этом его сила, и в нем же слабость. В данном случае узкоспециализированный GPU позволяет выполнять работу, связанную с подготовкой и выводом изображения на экран монитора, гораздо быстрее.
Связано это в первую очередь с многоядерной и многопоточной обработкой данных. Конечно, CPU тоже умеет выполнять операции параллельно, но давайте посмотрим ядрам и потокам в глаза. Ознакомимся со спецификациями: например, у AMD Ryzen 7 5800H 8 ядер и 16 потоков. Немало. А что там с чипом NVidia GA104?
Аналогом процессорным ядрам в графических чипах NVidia являются ядра CUDA, коих в данной модели GPU аж 6 144. Пусть эти ядра более простые и менее универсальные, но зато их на порядки больше.
У GPU AMD архитектура чипов несколько иная, но сути это не меняет. Если брать за пример сопоставимый графический процессор Radeon RX 6700 XT, то тоже видим более 17 млрд транзисторов и 2 560 процессорных ядер.
Надо сказать, что нельзя сравнивать видеокарты просто по количеству этих самых ядер. В пределах одного производителя можно, хотя и с оговорками, но вот предположение, что NVidia GA104 (6 144 ядер) примерно в 2.5 раза мощнее AMD Radeon RX 6700 XT (2 560 ядер), неверно.
Ну так какие же функции выполняет GPU? В первую очередь – преобразования данных, переданных центральным процессором в изображение, которое отображается на экране монитора. Эта работа выполняется очень быстро, ведь «картинка» постоянно изменяется и в секунду надо подготовить их десятки, а то и сотни, чтобы все изменения на экране происходили плавно, без рывков и замираний.
Собственно, поэтому GPU и получились такими сложными. Но, согласитесь, было бы неразумно использовать такую мощь только для игр или специфических задач по визуализации. Тысячи простаивающих вычислительных ядер – это слишком расточительно. Поэтому видеокарты активно используются для математических операций в научных программах, инженерных и аналитических расчетах и т. п.
Видеопамять
К сожалению, пользователи не имеют возможности устанавливать столько памяти, сколько им захочется, как это существует в материнских платах. Видеокарты изначально комплектуются определенным объемом VRAM, который зависит от используемой модели GPU. Изменить это значение почти невозможно.
Почему почти? Некоторые энтузиасты экспериментируют с установкой большего количества микросхем памяти на плату, но это мероприятие непростое, недешевое, и не гарантирующее результат. Короче, приходится мириться с тем, что есть. Подопытная MSI GeForce RTX 3070 Ti Suprim X обходится объемом 8 ГБ GDDR6X.
На плате чипы видеопамяти обычно располагаются рядом с GPU, окружая его. На изображении выше видны 8 микросхем производства Micron, расположенные с трех сторон вокруг графического процессора. Видеокарты попроще могут обходиться меньшим количеством чипов, помощнее – большим.
Надо еще сказать, что сама видеопамять бывает разной. Сейчас можно найти видеокарты с чипами GDDR5, GDDR6 и GDDR6X. Первый тип уже считается устаревшим и применяется разве что в бюджетных или уходящих с рынка моделях видеокарт. Например, в NVidia GeForce GTX 1050. В основном используется память 6-го поколения.
Есть еще память HBM2 (High Bandwidth Memory), но при всех своих преимуществах она не получила до сих пор широко применения, и в немалой степени из-за того, что она дороже, чем та же GDDR6(X).
Если говорить кратко, то в отличие от планарной GDDR6, технология HBM имеет многослойную структуру ячеек. Чем-то напоминает 3D NAND. Из-за этого у нее очень широкая шина доступа – 1024 бит и более. Физически чипы HBM располагаются в непосредственной близости от GPU. Этот тип видеопамяти использовали видеокарты Nvidia Tesla P100. Radeon RX Vega 56, Radeon Vega RX 64, Nvidia Quadro GP100 и некоторые другие.
Тем не менее, подавляющее большинство современных моделей видеокарт основаны на проверенной GDDR6(X).
Видеопамять непосредственно используется во время подготовки изображений, и чем больше объем, тем быстрее будет идет расчет, и тем меньше понадобится обращаться к процессору, ОЗУ и накопителю за новой порцией данных. И чем выше разрешение изображения, тем видеопамяти хочется побольше.
На данный момент необходимым минимумом можно считать объем в 6 ГБ, который позволит получить уже качественную, плавную картинку на экране с большим количеством FPS.
Система питания
Надежное электропитание – основа стабильной работы любого устройства, и видеокарта тут не исключение. Нагрузка на систему электропитания весьма высока, если учесть потребление электроэнергии современными GPU.
Сравните, например, младший GEFORCE RTX 3060, энергопотребление которого заявлено равным 170 Вт и флагманский Intel Core i9-11900K, у которого TDP равно 125 Вт. Если брать старший GEFORCE RTX 3090, то его аппетит уже находится на уровне 350 Вт.
Организовано энергопотребление по тому же принципу, что и питание процессора. Уже привычная связка ШИМ-контроллера и n-го количества фаз на силовых сборках. Контроллеров может быть и несколько.
Фазы питания располагаются либо с одной стороны графического процессора, либо с двух, если этих фаз много. А в топовых видеокартах их действительно много.
У взятой для примера MSI GeForce RTX 3070 Ti Suprim X их 13 штук, 2 из которых питают видеопамять. Кстати, в данном случае эти две фазы используют отдельные элементы для верхнего и нижнего плеча, в то время как для GPU применяются 50-амперные сборки Alpha & Omega AOZ5311NQI.
Система охлаждения
Именно этот компонент (огромный радиатор, несколько вентиляторов) и бросается в глаза при первом взгляде на видеокарту. Исключение составляют, пожалуй, только бюджетные маломощные графические адаптеры, которые обходятся скромными по размеру и весу системами охлаждения.
Если же мы говорим о чем-то типа RTX 2060/3060 или AMD 6700 и выше, то система охлаждения будет внушать уважение, как минимум своим весом.
Радиатор представляет собой довольно замысловатую железяку с большим количеством тонких ламелей, состоящую из нескольких секций и теплорассеивающих пластин, контактирующих с графическим процессором, чипами памяти и силовыми элементами системы питания.
Практически все производители устанавливают несколько тепловых трубок для повышения эффективности работы радиатора.
Тепловая трубка – металлическая (часто медная, может быть покрыта никелем) герметичная, с легкоиспаряющейся жидкостью внутри. Эта жидкость испаряется в месте соприкосновения одного конца трубки с горячим элементом, после чего пар конденсируется на противоположном, холодном конце, после чего жидкость возвращается в горячий конец трубки.
Чаще всего применяются тепловые трубки с пористыми внутренними стенками, по которым жидкость под воздействием капиллярных сил перемещается в зону испарения вне зависимости от положения самой трубки в пространстве. Этой жидкостью может быть вода, аммиак, этанол и т. п.
Встречается и такой элемент, как испарительная камера. Это некая модернизация идеи тепловой трубки, использующая тот же принцип испарения жидкости, при которой отбирается тепло у охлаждаемого элемента. Разница в том, что плоская многослойная конструкция увеличивает эффективность этого процесса.
У разных производителей количество и конфигурация трубок различается. Часть их может использоваться для контакта с GPU, а для элементов системы питания устанавливается индивидуальная трубка. Может использоваться технология «прямого контакта», при которой тепловые трубки непосредственно контактируют с графическим процессором. Это позволяет улучшить теплообмен.
Однако недостаточно просто забрать тепло тем или иным способом – тепловой трубкой и/или радиатором, это тепло надо еще куда-то деть. Для этого применяют вентилятор(ы).
Несколько лет назад референсные видеокарты NVidia и AMD использовали систему охлаждения с помощью турбины. Суть ее в том, что устанавливается только один радиальный вентилятор, который забирает воздух из корпуса и прогоняет его через всю видеокарту, выбрасывая наружу.
Под кожухом видеокарты установлен радиатор с большим количеством ребер. Главным недостатком такой системы охлаждения является шумность. Единственный вентилятор имеет небольшой размер, а для обеспечения нужного потока воздуха ему приходится вращаться на большой скорости. А чем она выше, тем выше и шум.
Оба производителя отказались от турбинной системы, начиная с семейств видеокарт NVidia RTX 2000 и AMD RX 6000. Предпочтение отдано более привычным осевым вентиляторам, которых может быть от одного до нескольких в зависимости от размера видеокарты и «горячности» ее нрава.
Рассматриваемая сегодня MSI GeForce RTX 3070 Ti Suprim X имеет три вентилятора диаметром 95 мм каждый. Их максимальная скорость вращения составляет 3 250 об/мин, но надо очень постараться, чтобы ветродуи разогнались до таких скоростей. В реальности даже под максимальной нагрузкой они вращаются на меньших скоростях, а при температуре графического чипа ниже 60°C вообще останавливаются.
Некоторые производители используют противоположное направление вращения вентиляторов. Если их два, то один вращается по часовой стрелке, другой против. При трех вентиляторах обычно средний имеет противоположное направление вращения по отношению к крайним. Производители утверждают, что таким образом удается бороться с турбулентностью воздушного потока и улучшать обдув радиатора.
Редкие модели видеокарт могут оснащаться одним или двумя дополнительными вентиляторами небольшого размера. Например, INNO3D GeForce RTX 3070 ICHILL X4 имеют небольшой вентилятор на верхней грани, обдувающий тепловую трубку с радиатором от цепей VRM.
Альтернативой штатным системам охлаждения может быть жидкостная, которую можно установить самостоятельно, или производитель изначально предлагает модификацию видеокарты со смонтированным радиатором СЖО. Принципиально она не отличается от той, что используется для CPU, но есть некоторые различия. Проблема в том, что помимо графического чипа необходимо охлаждать еще микросхемы видеопамяти и цепи VRM, что делает теплосъемник довольно сложным конструктивно.
Полезной вещью может оказаться и защитная панель, которая закрывает обратную сторону печатной платы. Она как минимум защищает плату от возможных повреждений, улучшает механическую прочность видеокарты, а часто еще и участвует в охлаждении, для чего через термопрокладки контактирует с печатной платой в месте установки, скажем, силовых элементов системы питания.
Интерфейсный разъем для подключения к материнской плате
Все видеокарты последних поколений используют интерфейс PCI-Express. Последние поколения перешли на 4-ю версию, хотя без проблем работают и в более старых версиях, например, PCIe 3.0.
Видеокарты получают от процессора 16 интерфейсных линий. В зависимости от CPU может отличаться количество этих линий и версия интерфейса. Процессоры AMD Ryzen последних поколений и интеловские «камни» могут полноценно обеспечить видеокарту этими «дорожками» для доставки данных.
Если же по какой-то причине нет возможности обеспечить видеокарту всеми 16-ю линиями (например, к процессору подключен второй слот PCIe на материнской плате, и он задействован под какой-либо контроллер) и ей осталась только половина, то… ничего страшного не произойдет. Видеокарта будет прекрасно работать, и маловероятно, что вы вообще заметите какие-либо изменения.
Разъем(ы) питания
Но не только передачей данных занимается разъем PCIe. Через него подается питание на видеокарту. И все бы ничего, но есть проблема. Он не в состоянии обеспечить нормальное питание даже младшей в линейке моделей видеокарты. Почему?
Давайте взглянем на иллюстрацию, показывающую часть разъема PCIe, точнее, короткую его часть до перемычки. Здесь 22 контакта, часть занята для служебных нужд, а часть используется для подачи напряжений 12 В и 3.3 В.
Всего у нас есть пять 12-вольтовых контактов и три с напряжением 3.3 В. Согласно спецификациям на PCIe, максимальный ток для напряжения 3.3 В составляет 3 А, и 5.5 А для напряжения 12 В. Высчитать максимальную мощность теперь просто:
(5.5 (А) * 12 (В)) + (3 (А) * 3.3 (В)) = 75.9 Вт
Теперь вспомним, что для RTX 3060 максимальное потребление энергии указано равным 170 Вт, что более чем вдвое превышает возможности интерфейса PCIe. Где брать дополнительную мощность? Непосредственно от блока питания.
Для этого на видеокартах есть от одного до трех разъемов (с шестью или восемью контактами) для подключения шлейфа/ов от БП. И забывать об этом не следует. Блок питания вашего ПК должен обеспечить необходимое количество коннекторов.
Интерфейсные разъемы для подключения монитора/ов
Все эти чипы, радиаторы, вентиляторы – все это хорошо, но куда подключать монитор, чтобы что-то увидеть? Воспользоваться разъемами, которые располагаются на заднем торце видеокарты. В подавляющем большинстве случаев на современных видеокартах вы найдете один-два HDMI и пару-тройку DisplayPort.
Собственно, вот туда и подключайте, в зависимости от того, какой интерфейс у вашего монитора. Или нескольких, т. к. никто не запрещает использовать более одного средства отображения. В некоторых моделях видеокарт встречается еще и разъем USB Type-C, но это для специфических нужд.
Разъем для объединения видеокарт в режим SLI или CrossFire
Несколько лет назад тема объединения нескольких видеокарт для совместной работы с целью повысить производительность была очень популярна. NVidia представила технологию SLI, у AMD аналог обзывается CrossFire.
Сейчас это стало не столь интересно, т. к. такой режим работы не очень соответствовал ожиданиям. Затраты на покупку двух-трех видеокарт не оправдывают полученного прироста быстродействия.
Неудивительно, что в 3000-й серии видеокарт от NVidia поддержка SLI представлена ограниченно. Я бы сказал, что довольно мало моделей позволяет использовать их таким образом.
А вот видеокарты, например, 1000-й серии имеют такую поддержку. Чтобы задействовать технологию SLI необходимо, чтобы на видеокарте был специальный разъем на верхней грани.
На иллюстрации показан такой разъем для видеокарты Gigabyte GeForce GTX 1070 G1 Gaming. Чтобы объединить два графических адаптера, требуется использовать специальную перемычку, которая устанавливается в этот разъем.
Повторюсь, что современные модели видеокарт в большинстве своем такой функционал не поддерживают.
Что еще?
Я не останавливаюсь подробно на вспомогательных функциях видеокарт. Сюда можно отнести управление подсветкой, наличие небольшого дисплея для вывода служебной информации или пользовательских изображений.
Разве что стоит упомянуть наличие переключателя выбора одного из режимов работы видеокарты. Последние их поколения изначально имеют два BIOS. Первый ориентирован на тихую работу, что достигается снижением частоты работы GPU и оборотов вентиляторов. Второй – этакий «спорт-режим», который раскрывает все возможности видеокарты.
Ну почти все, т. к. пользователь также может самостоятельно устанавливать режимы работы видеокарты, заняться разгоном.
Заключение. Анатомия видеокарты – все для победы
Видеокарта во многом напоминает материнскую плату – есть процессор, есть память, есть системы питания и охлаждения. Но если материнка – это основа для сборки той системы, которая для вас будет оптимальна, видеокарта - это вещь в себе. Придется смириться с ее возможностями или поискать другую, более производительную модель.
Графический чип поменять нельзя, память доустановить нельзя, даже другое охлаждение смонтировать не так уж просто.
Мало того, следует помнить, что современные видеокарты для установки требуют как минимум 2 слота. Если у вас в материнскую плату уже установлены какие-либо адаптеры и контроллеры, посмотрите, а место для видеокарты есть?
При выборе графического адаптера придется разбираться с тем, какой чип, какая память стоит. Нелишним будет поинтересоваться, насколько мощная система питания, особенно если вы планируете поиграться с разгоном. То же самое относится и к системе охлаждения. В штатных режимах, конечно, справятся все, но вот при оверклокинге…
Полезно будет оценить, насколько выбранная видеокарта будет актуальна через год-два. При условии, конечно, что у вас нет привычки менять графическую плату сразу после появления нового семейства видеочипов.
Правильного выбора и хороших покупок!
Спасибо за то, что объяснили всё понятно