какую работу выполняет видеокарта
Устройство видеокарты, основные функции, определение
Содержание
Определение:
Видеокарта (видеоадаптер) — является компонентом видеосистемы ПК, выполняющим преобразование цифрового сигнала, циркулирующего внутри ПК, в аналоговые электрические сигналы, подаваемые на монитор. По существу видеокарта выполняет роль интерфейса между ПК и устройством отображения информации (монитором).
Основные функции видеокарты
Видеокарта определяет следующие характеристики видеосистемы ПК:
Принцип действия видеокарты
состоит в следующем.
Таким образом, частоты строчной и кадровой развёртки монитора определяются скорость сканирования содержимого видеопамяти, т.е. видеокарта.
Режимы работы видеокарты
(видеорежимы) представляют собой совокупность параметров, обеспечиваемых видеокартой: разрешение, цветовая палитра, частоты строчной и кадровой развёртки, способ адресации участков экрана и др.
Все видеорежимы делятся на 2 основные группы: графические и текстовые, причём в различных режимах используются разные механизмы формирования видеосигнала, а монитор в обоих случаях работает одинаково.
В текстовом (символьном) режиме, как и в графическом, изображение на экране монитора представляет собой множество пикселей и характеризуется разрешением NхM. Однако все пиксели разбиты на группы, называемые знакоместами, или символьными позициями (Character boxes – символьные ячейки) размером pхq. В каждом из знакомест может быть отображён один из 256 символов. Таким образом, на экране умещается М/q = Мt символьных строк по N/p = Nt символов в каждой. Типичным текстовым режимом является режим 80х25 символов.
Устройство видеокарты
Современная видеокарта (видеадаптер) включает следующие основные элементы:
Основные характеристики видеокарты:
Бакарабан
Что такое видеокарта? Функции, виды, основные характеристики.
Видеокарта (графический ускоритель, графическая карта, видеоадаптер, GPU, 3D ускоритель) играет очень важную роль в работе современного компьютера. Она по своей сути является сама компьютером со своим процессором, памятью и т.д.
Функция
Её функция состоит в преобразовании информации, хранящейся на носителе, в графическую и последующем выводе этой информации на экран. В данном случае говорится о 3D и 2D графике. Первоначально обработкой графической информации полностью занимался центральный процессор (CPU), затем был создан 2D акселератор для обрисовки рабочего стола и курсора, а уже после 3D ускоритель.
Современная видеокарта занимается и 2D, и 3D графикой. Для обработки видео, фотографий, аудиофайлов и т.д. хватает 2D ускорителя, в случае создания объемных объектов в графических редакторах, а также работы трехмерных игр, требуется 3D акселератор.
Виды видеокарт
Видеоадаптеры можно разделить на две большие группы: интегрированные и дискретные.
видеокарта интегрированная
Интегрированные, то есть встроенные видеоадаптеры уже есть внутри устройства чипсета процессора или материнской карты. Это ведет к уменьшению стоимости и энергопотребления, но очень ограничивает их по мощности (очень часто не имеют собственной памяти и используют оперативную).
видеокарта дискретная
Дискретная видеокарта – отдельная печатная плата со своей памятью и процессором. Устанавливается в специальный слот на материнской плате. Она повышает стоимость системы и её энергопотребление, но, в то же время, имеет более высокую производительность в сравнении с интегрированной.
Интерфейс установки
Сегодня в основном используется интерфейс PCI-E (PCI-Express), заменивший AGP. В 2017-18 годах должна быть выпущена версия PCI-E 4.0 со скоростью передачи 16 ГТ/с (транзакций в секунду – количество произведенных операций или переданных данных в единицу времени), а ещё позже в 2019 году — PCI-E 5.0 со скоростью 32 ГТ/с, но пока у нас есть версии 1.0 (2,5 ГТ/с), 2.0 (5 ГТ/с) и 3.0 (8 ГТ/с). Интерфейсы имеют обратную совместимость, то есть, если у нас имеется видеокарта PCI-E 3.0, я могу её установить в слот PCI-E 1.0 или 2.0, но при этом пропускная способность будет соответственно 2,5 и 5 ГТ/с.
На что обращать внимание при выборе видеокарты?
Тактовая частота видеопроцессора влияет на производительность видеокарты, чем выше, тем быстрее, но при этом возрастает тепловыделение, поэтому на современных видеокартах немалое внимание уделяется системе охлаждения.
видеокарта с пассивным охлаждением
Охлаждение делится на пассивное (радиатор) и активное (кулер или водяное), последнее значительно повышает стоимость и энергозатраты системы.
Также на быстродействии сказывается частота и объем видеопамяти (VRAM), но необходимо помнить, что увеличение объема памяти необязательно приводит к ускорению системы (если мы рассматриваем разные чипсеты), необходимо обращать внимание на её тип и разрядность шины.
Типы памяти (в порядке увеличения скорости):
Разрядность шины (чем больше, тем выше производительность): 64, 128, 256, 384, 448, 512, 768 бит и т.д.
Хочется отметить, что есть видеокарты с двумя чипами, в таких картах, за счет 2-х процессоров, увеличивается мощность, но память остается прежней, и видеокарта начинает потреблять часть оперативной памяти.
видеокарта с двумя чипами
На многих материнских платах имеется несколько разъемов PCI-E, в этом случае мы можем установить несколько видеокарт одновременно, если они поддерживают технологию Crossfire (у AMD) и SLI (у NVidia). Проблема та же, что и с двумя чипами, так как память двух видеокарт из-за алгоритма используется по очереди, хотя производители обещают в будущем исправить данную проблему.
Производители
Те, кто хотя бы немного сталкивался с выбором системных блоков, ноутбуков или видеокарт, уже знают, что сейчас существуют два «титана» индустрии, компании NVidia с серией GeForce и AMD с Radeon. Разбираться в том, кто из них круче не вижу смысла, у каждого свои предпочтения, да и преимущества особого одной над другой нет, так как происходит постоянное развитие.
Разъемы
Чтобы обработанную информацию передать нужно подключить к видеокарте монитор или любое другое устройство вывода. Подключение производится через специальные разъемы. Они делятся на аналоговые и цифровые. Последние сейчас более популярны и вытесняют аналоговый способ передачи.
Аналоговые: DVI-A, D-Sub или VGA, S-Video.
Цифровые: DVI-D, DVI-Dual link, HDMI, Display Port.
Вывод
Выбор видеокарты достаточно трудный, но при этом интересный процесс, необходимо учитывать множество характеристик, бюджет, исходить из выбранного центрального процессора, так как не подходящий процессор просто не раскроет весь потенциал видеокарты.
Встроенная или дискретная видеокарта в ноутбуке — чем отличаются и как работают
Содержание
Содержание
Одним из самых главных вопросов, встающих перед пользователем при выборе ноутбука, является тип используемой в нем видеокарты: встроенной или дискретной, а иногда и обеих сразу. От типа видеокарты напрямую зависят важнейшие характеристики ноутбука: цена, производительность в играх, скорость обработки графики и видео, время работы от батареи, шум, нагрев и вес. Давайте разберемся в типах используемых в ноутбуках видеокарт, их плюсах и минусах, и в том, как правильно выбрать видеокарту под ваши задачи.
Что такое встроенная и дискретная видеокарта
Пользователи не всегда понимают разницу между встроенной и дискретной видеокартой в ноутбуке. Ведь при использовании обычного ПК разницу в типе используемой видеокарты видно наглядно: встроенная в чипсет или процессор графика имеет видеовыходы на материнской плате, а дискретную видеокарту легко заменить. В случае с ноутбуком и встроенная, и дискретная видеокарты обычно расположены на его материнской плате, а замена дискретной видеокарты возможна только в том случае, если она реализована с помощью слота MXM.
Видеокарта для слота MXM
Главное отличие встроенной видеокарты современного ноутбука от дискретной заключается в ее расположении на подложке процессора и отсутствии собственной памяти. Ей приходится резервировать часть общей системной памяти ноутбука, объем которой обычно можно выбрать в BIOS в зависимости от ваших задач.
Основные отличия и использование памяти
Дискретная видеокарта, установленная в слот MXM
Дискретная видеокарта, даже если она распаяна на плате ноутбука и не является съемной, имеет собственную видеопамять, что позволяет ей экономить ОЗУ ноутбука и работать быстрее. Помимо этого, дискретная видеокарта имеет собственную систему питания и охлаждения, что обязательно отражается на стоимости ноутбука, его энергопотреблении и времени автономной работы. Такие видеокарты, например, GeForce RTX 3060 с технологией Max-Q, позволяют играть в самые требовательные игры на ноутбуке, сохраняя все его плюсы, в том числе компактность и небольшой вес.
Распространенные встроенные бюджетные видеокарты, например, Intel UHD Graphics 600 или Radeon RX Vega 2, обладают высокой энергоэффективностью и низкой ценой. Они позволяют создать компактный и легкий ноутбук с возможностью длительной автономной работы. При этом встроенная графика не только обеспечит декодирование видео высокого разрешения, разгрузив процессор, но и ускорит работу браузера. А заодно даст возможность поиграть во множество нетребовательных игр.
Как встроенная и дискретная видеокарта работают в паре
Разработчики ноутбуков стали совмещать встроенную и дискретную видеокарту в одном устройстве, получая экономичность и высокое время автономной работы при работе от батареи с возможностью играть в требовательные игры или выполнять тяжелые рабочие задачи при работе от сети. Иногда такой тип совмещенных видеоускорителей называют гибридной видеокартой.
Переключение режима работы видеокарт может происходить автоматически. При смене плана электропитания на производительный при подключении к сети в ноутбуке задействуется мощная дискретная видеокарта. Переключение может осуществляться и в ручном режиме, позволяя, например, без потери производительности смотреть видео высокого разрешения на встроенной видеокарте в то время, пока на дискретной видеокарте происходит кодирование видео или обработка изображений.
Чем отличаются дискретные видеокарты в ноутбуке и ПК
На обычном ПК у пользователя имеется огромная свобода действий в работе с дискретной видеокартой. Ее легко устанавливать в ПК, подключать к ней питание, чистить от пыли и даже есть возможность менять на ней систему охлаждения или ставить сразу пару видеокарт в один ПК. На ноутбуке таких широких возможностей нет. Даже если видеокарта подключена через слот стандарта MXM (MXM-I, MXM-II, MXM-III, MXM-HE), являющийся мобильной редакцией PCI Express, совмещенной с линиями передачи видеосигнала, поменять ее не так просто.
Во-первых, ограничения на установку более мощной видеокарты накладывает блок питания ноутбука, во-вторых, его система охлаждения может не справиться с возросшим тепловыделением от более мощной видеокарты. В-третьих, найти в продаже подходящую видеокарту стандарта MXM — дело непростое.
А если видеочип и видеопамять распаяны прямо на материнской плате ноутбука, замена видеокарты становится невозможной физически: замену компонентов видеокарты в случае их неисправности могут осуществить лишь сотрудники сервисных центров. Поэтому при покупке ноутбука надо выбирать модель с такой видеокартой, которой вам хватит для игр или работы на все время эксплуатации устройства.
Еще одно важное отличие дискретной видеокарты ноутбука от ее десктопной версии состоит в сильном снижении энергопотребления, чтобы вписаться в рамки, накладываемые компактностью и мобильностью. Частоты и напряжения видеокарты ноутбука сильно урезаются, вызывая иногда двукратное снижение энергопотребления. К примеру, десктопная видеокарта nVidia GeForce RTX 3070 имеет параметры TBP/TDP, равные 220 ваттам, а ее мобильные версии получили варианты исполнения с 80 и 115 ваттами.
Столь радикальное снижение энергопотребления невозможно произвести без потери производительности. В играх в разрешении Full HD 115-ваттная мобильная версия GeForce RTX 3070 отстает от десктопной в среднем на 30–50%, а 80-ваттная и вовсе оказывается слабее в полтора раза, в некоторых играх разница достигает даже 70–80%. Такая огромная разница делает видеокарты мобильной и десктопной версии продуктами совершенно различных классов, и это нужно учитывать при покупке.
Может ли встроенная видеокарта быть быстрее дискретной?
На первый взгляд такое различие в производительности видеокарт кажется абсурдом — зачем производителю дополнительно устанавливать более слабую видеокарту? Но на практике такое сочетание иногда встречается в бюджетных моделях ноутбуков, например, в HP Laptop 15-gw0040ur.
В этой модели установлена встроенная в процессор Athlon Gold 3150U видеокарта Radeon RX Vega 3, дополнительно имеется схожая по производительности дискретная видеокарта Radeon 620, имеющая 2 ГБ видеопамяти стандарта GDDR5, но с разрядностью шины памяти, равной всего лишь 64 битам.
В некоторых играх встроенная видеокарта Radeon RX Vega 3 опережает Radeon 620, особенно если в ноутбуке установлен достаточный объем ОЗУ, имеющий прямое влияние на производительность встроенной графики. Производительность встроенной видеокарты может подрасти и из-за оптимизации в новых драйверах, ведь в них делают упор на самые массовые продукты, к которым и относится Radeon RX Vega 3.
В популярной игре Fortnite Radeon RX Vega 3 опережает Radeon 620
Ноутбук — это платформа, позволяющая установить различные сочетания процессоров и дискретных видеокарт. Иногда производителю выгоднее оставить две схожие по производительности видеокарты, чем отключать одну из них. Пользователю это дает возможность выбора той видеокарты, которая будет быстрее в его задачах, главное — чтобы цена такого решения не отличалась от аналогов с одной видеокартой.
Правда ли, что встроенные видеокарты AMD намного быстрее видеокарт Intel?
Встроенная графика Radeon RX Vega появилась в 2018 году и сразу произвела фурор на рынке, занятом массовыми решениями от Intel, такими как HD Graphics 610 и HD Graphics 630. Младшее решение — графика Radeon RX Vega 3, встраиваемая в процессоры Athlon G, уверенно обходит в играх HD Graphics 610, а старшие модели, Radeon RX Vega 8, 10 и 11, не только обходят по скорости любую встроенную графику от Intel, но и на равных соревнуются с дискретными видеокартами Radeon RX 550 и GeForce GT 1030.
Пользователи возлагали надежды на новую графику Intel UHD 750 с архитектурой Xe-LP, встраиваемую в процессоры Rocket Lake-S, но, несмотря на неплохую прибавку в производительности по сравнению с графикой прошлого поколения, Intel UHD 630, достичь уровня Radeon RX Vega 8 в большинстве игр решению от Intel не удалось.
Встроенная графика Radeon RX Vega дала пользователям недорогих ноутбуков играть в современные игры, пусть даже и на минимальных настройках. Но надо учитывать, что для реализации ее потенциала в ноутбуке должен стоять солидный объем ОЗУ, работающей в двухканальном режиме.
Что выбрать?
Итак, мы подходим к главному вопросу: ноутбук с какой графикой выбрать под ваши нужды, ведь цены разных моделей, их производительность в рабочих программах и играх, а также время автономной работы радикально отличаются. Неправильный выбор в одном случае заставит вас переплатить, а в другом — не даст полноценно работать и играть на ноутбуке.
И если при приобретении обычного ПК такие проблемы можно решить апгрейдом, то в случае с ноутбуком придется менять устройство целиком.
Если ваши основные задачи:
Тогда вам стоит присмотреться к ноутбукам с встроенной видеокартой, например, Intel UHD Graphics: вы не только сэкономите, но и получите устройство, позволяющее дольше работать автономно, с низким уровнем шума и небольшим нагревом.
Если вы хотите получить большую производительность в играх, запускать некоторые новинки на минимальных настройках, а в такие хиты, как The Elder Scrolls V: Skyrim или Grand Theft Auto V, играть с комфортом, то стоит присмотреться к ноутбукам с встроенной видеокартой Radeon RX Vega 8, 10 или 11. Стоят они вполне демократично, например, Acer Aspire 3 A315-23-R8D5.
Если ваши задачи включают в себя:
В этом случае стоит присмотреться к игровым моделям с производительной дискретной видеокартой, например, GeForce RTX 3060. Цена на них уже кусается и может вдвое или втрое превышать цену бюджетных устройств, но вы получите ноутбук, способный полностью заменить мощный ПК в работе и играх и дающий свободу передвижения.
Выводы
Выбор оптимального ноутбука под ваши задачи — дело непростое. Особенно тяжело выбрать мощную модель с производительной видеокартой. Почти всегда это будет компромисс: мощное «железо» в небольшом корпусе греется заметно сильнее, чем в обычном ПК, а цена устройства будет высока. Но если вы часто переезжаете, путешествуете или вынуждены брать ноутбук с собой на работу, то выбор становится очевиден.
Главное — собрать как можно больше информации об интересующей вас модели, почитать отзывы пользователей и гайды о самых важных компонентах ноутбука, тогда выбор станет немного проще.
Какой компонент компьютера (я сейчас про стационарные ПК), помимо материнской платы, неизменно вызывает уважение? Процессор – какой бы он ни был мощный, но это небольшой квадратик/прямоугольник, своим видом не вызывающий особых эмоций. Модули памяти, SSD? Да ладно! Кулер? Это, по сути, довольно простая, хотя большая и тяжелая, железка с пропеллером. Блок питания? В какой-то мере да, но особого трепета все равно нет. Что остается, видеокарта? А вот тут в точку. Если имеем дело с современным высокопроизводительным графическим адаптером, то берешь в руки — маешь вещь! Как она устроена, какова анатомия видеокарты – предмет нашего сегодня разговора.
Типы видеокарт
Существует три вида графических адаптеров:
Встроенное в процессор видеоядро сегодня нас интересует мало. Как и внешняя, хотя по сути, это выполненная в отдельном корпусе дискретная видеокарта. И вот она то, дискретная, и будет предметом этого материала.
Я не буду останавливаться на вопросах типа «зачем нужна видеокарта». На мой взгляд, абсолютно бессмысленно отвечать на очевидное. Это вопрос из разряда «зачем компьютеру блок питания» или «зачем автомобилю двигатель». Уверен, уж об основном назначении этого компонента вы и сами догадываетесь.
Не буду останавливаться и на этапах развития графических адаптеров. История эта интересна, разнообразна, полна драматических и, не побоюсь этого слова, трагических событий, но тема весьма обширная, и в данном случае мало помогающая разобраться в анатомии видеокарт.
Из чего состоит видеокарта
Когда мы рассматривали строение материнской платы, то в большинстве случаев «порционные судачки а натюрель» были на виду во всей красе. Практически все составные части видны и ко всем можно подобраться.
К сожалению, взяв в руки современную видеокарту, мы видим массивный радиатор с вентиляторами в количестве от одного до трех (хотя бывает и больше), на обратной стороне в лучшем случае видим тыльную сторону печатной платы, да и то скорее всего она будет закрыта металлической или композитной пластиной. Да с торца несколько разъемов. Что и как там устроено – почти ничего не видно.
Поэтому, чтобы узнать основы и составные части современной видеокарты, придется снимать систему охлаждения. После того, как с этой задачей справились, наконец-то нашему взору откроется анатомическая картина графического адаптера.
Итак, из каких основных частей состоит видеокарта:
Причем, практически все эти части присутствуют и на видеокартах, выпущенных десяток лет назад, и даже двадцать…
На каждом из этих компонентов остановимся поподробнее. Разберемся, что это, как устроено и для чего требуется. И нужно ли вообще.
Графический процессор (GPU)
Какую бы видеокарту вы не использовали (AMD или NVidia), выглядят они похоже. Центральное место на печатной плате (ну или примерно центральное, но в любом случае заметное), занято графическим процессором. В окружении других компонентов, до которых речь тоже дойдет.
Наверняка напрашивается аналогия с центральным процессором, и она вполне уместна. Тем более, что и название похожее – там CPU (Central Processing Unit), здесь GPU (Graphics Processing Unit). И то, и то – процессоры. И в чем между ними отличие?
Если меряться транзисторами, из которых состоят CPU и GPU, то у последних их больше. Например, во взятой для образца видеокарте установлен чип NVidia GA104-400-A1, в котором 17.4 млрд транзисторов. А, скажем, AMD Ryzen 7 5800H обходится почти вдвое меньшим количеством. Выходит, графический процессор круче?
В чем-то да, а в чем-то и нет. Некогда большую часть работы по обсчету изображений (например, в играх), которые надо вывести на экран, выполнял CPU. Однако, постоянное усложнение этой работы и необходимость высокой вычислительной мощности привело к тому, что возможностей процессора стало не хватать.
CPU – универсальное устройство, выполняющее множество разных функций. В этом его сила, и в нем же слабость. В данном случае узкоспециализированный GPU позволяет выполнять работу, связанную с подготовкой и выводом изображения на экран монитора, гораздо быстрее.
Связано это в первую очередь с многоядерной и многопоточной обработкой данных. Конечно, CPU тоже умеет выполнять операции параллельно, но давайте посмотрим ядрам и потокам в глаза. Ознакомимся со спецификациями: например, у AMD Ryzen 7 5800H 8 ядер и 16 потоков. Немало. А что там с чипом NVidia GA104?
Аналогом процессорным ядрам в графических чипах NVidia являются ядра CUDA, коих в данной модели GPU аж 6 144. Пусть эти ядра более простые и менее универсальные, но зато их на порядки больше.
У GPU AMD архитектура чипов несколько иная, но сути это не меняет. Если брать за пример сопоставимый графический процессор Radeon RX 6700 XT, то тоже видим более 17 млрд транзисторов и 2 560 процессорных ядер.
Надо сказать, что нельзя сравнивать видеокарты просто по количеству этих самых ядер. В пределах одного производителя можно, хотя и с оговорками, но вот предположение, что NVidia GA104 (6 144 ядер) примерно в 2.5 раза мощнее AMD Radeon RX 6700 XT (2 560 ядер), неверно.
Ну так какие же функции выполняет GPU? В первую очередь – преобразования данных, переданных центральным процессором в изображение, которое отображается на экране монитора. Эта работа выполняется очень быстро, ведь «картинка» постоянно изменяется и в секунду надо подготовить их десятки, а то и сотни, чтобы все изменения на экране происходили плавно, без рывков и замираний.
Собственно, поэтому GPU и получились такими сложными. Но, согласитесь, было бы неразумно использовать такую мощь только для игр или специфических задач по визуализации. Тысячи простаивающих вычислительных ядер – это слишком расточительно. Поэтому видеокарты активно используются для математических операций в научных программах, инженерных и аналитических расчетах и т. п.
Видеопамять
К сожалению, пользователи не имеют возможности устанавливать столько памяти, сколько им захочется, как это существует в материнских платах. Видеокарты изначально комплектуются определенным объемом VRAM, который зависит от используемой модели GPU. Изменить это значение почти невозможно.
Почему почти? Некоторые энтузиасты экспериментируют с установкой большего количества микросхем памяти на плату, но это мероприятие непростое, недешевое, и не гарантирующее результат. Короче, приходится мириться с тем, что есть. Подопытная MSI GeForce RTX 3070 Ti Suprim X обходится объемом 8 ГБ GDDR6X.
На плате чипы видеопамяти обычно располагаются рядом с GPU, окружая его. На изображении выше видны 8 микросхем производства Micron, расположенные с трех сторон вокруг графического процессора. Видеокарты попроще могут обходиться меньшим количеством чипов, помощнее – большим.
Надо еще сказать, что сама видеопамять бывает разной. Сейчас можно найти видеокарты с чипами GDDR5, GDDR6 и GDDR6X. Первый тип уже считается устаревшим и применяется разве что в бюджетных или уходящих с рынка моделях видеокарт. Например, в NVidia GeForce GTX 1050. В основном используется память 6-го поколения.
Есть еще память HBM2 (High Bandwidth Memory), но при всех своих преимуществах она не получила до сих пор широко применения, и в немалой степени из-за того, что она дороже, чем та же GDDR6(X).
Если говорить кратко, то в отличие от планарной GDDR6, технология HBM имеет многослойную структуру ячеек. Чем-то напоминает 3D NAND. Из-за этого у нее очень широкая шина доступа – 1024 бит и более. Физически чипы HBM располагаются в непосредственной близости от GPU. Этот тип видеопамяти использовали видеокарты Nvidia Tesla P100. Radeon RX Vega 56, Radeon Vega RX 64, Nvidia Quadro GP100 и некоторые другие.
Тем не менее, подавляющее большинство современных моделей видеокарт основаны на проверенной GDDR6(X).
Видеопамять непосредственно используется во время подготовки изображений, и чем больше объем, тем быстрее будет идет расчет, и тем меньше понадобится обращаться к процессору, ОЗУ и накопителю за новой порцией данных. И чем выше разрешение изображения, тем видеопамяти хочется побольше.
На данный момент необходимым минимумом можно считать объем в 6 ГБ, который позволит получить уже качественную, плавную картинку на экране с большим количеством FPS.
Система питания
Надежное электропитание – основа стабильной работы любого устройства, и видеокарта тут не исключение. Нагрузка на систему электропитания весьма высока, если учесть потребление электроэнергии современными GPU.
Сравните, например, младший GEFORCE RTX 3060, энергопотребление которого заявлено равным 170 Вт и флагманский Intel Core i9-11900K, у которого TDP равно 125 Вт. Если брать старший GEFORCE RTX 3090, то его аппетит уже находится на уровне 350 Вт.
Организовано энергопотребление по тому же принципу, что и питание процессора. Уже привычная связка ШИМ-контроллера и n-го количества фаз на силовых сборках. Контроллеров может быть и несколько.
Фазы питания располагаются либо с одной стороны графического процессора, либо с двух, если этих фаз много. А в топовых видеокартах их действительно много.
У взятой для примера MSI GeForce RTX 3070 Ti Suprim X их 13 штук, 2 из которых питают видеопамять. Кстати, в данном случае эти две фазы используют отдельные элементы для верхнего и нижнего плеча, в то время как для GPU применяются 50-амперные сборки Alpha & Omega AOZ5311NQI.
Система охлаждения
Именно этот компонент (огромный радиатор, несколько вентиляторов) и бросается в глаза при первом взгляде на видеокарту. Исключение составляют, пожалуй, только бюджетные маломощные графические адаптеры, которые обходятся скромными по размеру и весу системами охлаждения.
Если же мы говорим о чем-то типа RTX 2060/3060 или AMD 6700 и выше, то система охлаждения будет внушать уважение, как минимум своим весом.
Радиатор представляет собой довольно замысловатую железяку с большим количеством тонких ламелей, состоящую из нескольких секций и теплорассеивающих пластин, контактирующих с графическим процессором, чипами памяти и силовыми элементами системы питания.
Практически все производители устанавливают несколько тепловых трубок для повышения эффективности работы радиатора.
Тепловая трубка – металлическая (часто медная, может быть покрыта никелем) герметичная, с легкоиспаряющейся жидкостью внутри. Эта жидкость испаряется в месте соприкосновения одного конца трубки с горячим элементом, после чего пар конденсируется на противоположном, холодном конце, после чего жидкость возвращается в горячий конец трубки.
Чаще всего применяются тепловые трубки с пористыми внутренними стенками, по которым жидкость под воздействием капиллярных сил перемещается в зону испарения вне зависимости от положения самой трубки в пространстве. Этой жидкостью может быть вода, аммиак, этанол и т. п.
Встречается и такой элемент, как испарительная камера. Это некая модернизация идеи тепловой трубки, использующая тот же принцип испарения жидкости, при которой отбирается тепло у охлаждаемого элемента. Разница в том, что плоская многослойная конструкция увеличивает эффективность этого процесса.
У разных производителей количество и конфигурация трубок различается. Часть их может использоваться для контакта с GPU, а для элементов системы питания устанавливается индивидуальная трубка. Может использоваться технология «прямого контакта», при которой тепловые трубки непосредственно контактируют с графическим процессором. Это позволяет улучшить теплообмен.
Однако недостаточно просто забрать тепло тем или иным способом – тепловой трубкой и/или радиатором, это тепло надо еще куда-то деть. Для этого применяют вентилятор(ы).
Несколько лет назад референсные видеокарты NVidia и AMD использовали систему охлаждения с помощью турбины. Суть ее в том, что устанавливается только один радиальный вентилятор, который забирает воздух из корпуса и прогоняет его через всю видеокарту, выбрасывая наружу.
Под кожухом видеокарты установлен радиатор с большим количеством ребер. Главным недостатком такой системы охлаждения является шумность. Единственный вентилятор имеет небольшой размер, а для обеспечения нужного потока воздуха ему приходится вращаться на большой скорости. А чем она выше, тем выше и шум.
Оба производителя отказались от турбинной системы, начиная с семейств видеокарт NVidia RTX 2000 и AMD RX 6000. Предпочтение отдано более привычным осевым вентиляторам, которых может быть от одного до нескольких в зависимости от размера видеокарты и «горячности» ее нрава.
Рассматриваемая сегодня MSI GeForce RTX 3070 Ti Suprim X имеет три вентилятора диаметром 95 мм каждый. Их максимальная скорость вращения составляет 3 250 об/мин, но надо очень постараться, чтобы ветродуи разогнались до таких скоростей. В реальности даже под максимальной нагрузкой они вращаются на меньших скоростях, а при температуре графического чипа ниже 60°C вообще останавливаются.
Некоторые производители используют противоположное направление вращения вентиляторов. Если их два, то один вращается по часовой стрелке, другой против. При трех вентиляторах обычно средний имеет противоположное направление вращения по отношению к крайним. Производители утверждают, что таким образом удается бороться с турбулентностью воздушного потока и улучшать обдув радиатора.
Редкие модели видеокарт могут оснащаться одним или двумя дополнительными вентиляторами небольшого размера. Например, INNO3D GeForce RTX 3070 ICHILL X4 имеют небольшой вентилятор на верхней грани, обдувающий тепловую трубку с радиатором от цепей VRM.
Альтернативой штатным системам охлаждения может быть жидкостная, которую можно установить самостоятельно, или производитель изначально предлагает модификацию видеокарты со смонтированным радиатором СЖО. Принципиально она не отличается от той, что используется для CPU, но есть некоторые различия. Проблема в том, что помимо графического чипа необходимо охлаждать еще микросхемы видеопамяти и цепи VRM, что делает теплосъемник довольно сложным конструктивно.
Полезной вещью может оказаться и защитная панель, которая закрывает обратную сторону печатной платы. Она как минимум защищает плату от возможных повреждений, улучшает механическую прочность видеокарты, а часто еще и участвует в охлаждении, для чего через термопрокладки контактирует с печатной платой в месте установки, скажем, силовых элементов системы питания.
Интерфейсный разъем для подключения к материнской плате
Все видеокарты последних поколений используют интерфейс PCI-Express. Последние поколения перешли на 4-ю версию, хотя без проблем работают и в более старых версиях, например, PCIe 3.0.
Видеокарты получают от процессора 16 интерфейсных линий. В зависимости от CPU может отличаться количество этих линий и версия интерфейса. Процессоры AMD Ryzen последних поколений и интеловские «камни» могут полноценно обеспечить видеокарту этими «дорожками» для доставки данных.
Если же по какой-то причине нет возможности обеспечить видеокарту всеми 16-ю линиями (например, к процессору подключен второй слот PCIe на материнской плате, и он задействован под какой-либо контроллер) и ей осталась только половина, то… ничего страшного не произойдет. Видеокарта будет прекрасно работать, и маловероятно, что вы вообще заметите какие-либо изменения.
Разъем(ы) питания
Но не только передачей данных занимается разъем PCIe. Через него подается питание на видеокарту. И все бы ничего, но есть проблема. Он не в состоянии обеспечить нормальное питание даже младшей в линейке моделей видеокарты. Почему?
Давайте взглянем на иллюстрацию, показывающую часть разъема PCIe, точнее, короткую его часть до перемычки. Здесь 22 контакта, часть занята для служебных нужд, а часть используется для подачи напряжений 12 В и 3.3 В.
Всего у нас есть пять 12-вольтовых контактов и три с напряжением 3.3 В. Согласно спецификациям на PCIe, максимальный ток для напряжения 3.3 В составляет 3 А, и 5.5 А для напряжения 12 В. Высчитать максимальную мощность теперь просто:
(5.5 (А) * 12 (В)) + (3 (А) * 3.3 (В)) = 75.9 Вт
Теперь вспомним, что для RTX 3060 максимальное потребление энергии указано равным 170 Вт, что более чем вдвое превышает возможности интерфейса PCIe. Где брать дополнительную мощность? Непосредственно от блока питания.
Для этого на видеокартах есть от одного до трех разъемов (с шестью или восемью контактами) для подключения шлейфа/ов от БП. И забывать об этом не следует. Блок питания вашего ПК должен обеспечить необходимое количество коннекторов.
Интерфейсные разъемы для подключения монитора/ов
Все эти чипы, радиаторы, вентиляторы – все это хорошо, но куда подключать монитор, чтобы что-то увидеть? Воспользоваться разъемами, которые располагаются на заднем торце видеокарты. В подавляющем большинстве случаев на современных видеокартах вы найдете один-два HDMI и пару-тройку DisplayPort.
Собственно, вот туда и подключайте, в зависимости от того, какой интерфейс у вашего монитора. Или нескольких, т. к. никто не запрещает использовать более одного средства отображения. В некоторых моделях видеокарт встречается еще и разъем USB Type-C, но это для специфических нужд.
Разъем для объединения видеокарт в режим SLI или CrossFire
Несколько лет назад тема объединения нескольких видеокарт для совместной работы с целью повысить производительность была очень популярна. NVidia представила технологию SLI, у AMD аналог обзывается CrossFire.
Сейчас это стало не столь интересно, т. к. такой режим работы не очень соответствовал ожиданиям. Затраты на покупку двух-трех видеокарт не оправдывают полученного прироста быстродействия.
Неудивительно, что в 3000-й серии видеокарт от NVidia поддержка SLI представлена ограниченно. Я бы сказал, что довольно мало моделей позволяет использовать их таким образом.
А вот видеокарты, например, 1000-й серии имеют такую поддержку. Чтобы задействовать технологию SLI необходимо, чтобы на видеокарте был специальный разъем на верхней грани.
На иллюстрации показан такой разъем для видеокарты Gigabyte GeForce GTX 1070 G1 Gaming. Чтобы объединить два графических адаптера, требуется использовать специальную перемычку, которая устанавливается в этот разъем.
Повторюсь, что современные модели видеокарт в большинстве своем такой функционал не поддерживают.
Что еще?
Я не останавливаюсь подробно на вспомогательных функциях видеокарт. Сюда можно отнести управление подсветкой, наличие небольшого дисплея для вывода служебной информации или пользовательских изображений.
Разве что стоит упомянуть наличие переключателя выбора одного из режимов работы видеокарты. Последние их поколения изначально имеют два BIOS. Первый ориентирован на тихую работу, что достигается снижением частоты работы GPU и оборотов вентиляторов. Второй – этакий «спорт-режим», который раскрывает все возможности видеокарты.
Ну почти все, т. к. пользователь также может самостоятельно устанавливать режимы работы видеокарты, заняться разгоном.
Заключение. Анатомия видеокарты – все для победы
Графический чип поменять нельзя, память доустановить нельзя, даже другое охлаждение смонтировать не так уж просто.
Мало того, следует помнить, что современные видеокарты для установки требуют как минимум 2 слота. Если у вас в материнскую плату уже установлены какие-либо адаптеры и контроллеры, посмотрите, а место для видеокарты есть?
При выборе графического адаптера придется разбираться с тем, какой чип, какая память стоит. Нелишним будет поинтересоваться, насколько мощная система питания, особенно если вы планируете поиграться с разгоном. То же самое относится и к системе охлаждения. В штатных режимах, конечно, справятся все, но вот при оверклокинге…
Полезно будет оценить, насколько выбранная видеокарта будет актуальна через год-два. При условии, конечно, что у вас нет привычки менять графическую плату сразу после появления нового семейства видеочипов.