Могут ли десктопные видеокарты сравниться с серверными?
Сравниваем десктопные и серверные видеокарты. Рассказываем про условия и задачи, в которых они показывают максимальную производительность.
В этом материале мы рассмотрим несколько профессиональных видеокарт NVIDIA, а также расскажем, в чем разница с их десктопными «аналогами». Поговорим о производительности, бюджетном тестировании и о том, как подобрать GPU под свой проект, чтобы не переплачивать.
Базовые отличия
Десктопные видеокарты устанавливаются в ноутбуки и персональные компьютеры. Их характеристики больше заточены под быстродействие в играх и частную работу с графикой.
Серверные видеокарты иногда даже не имеют разъемов (HDMI, DVI) для вывода видео. Еще у них не всегда есть своя версия DirectX, поэтому поиграть на таких устройствах не получится.
Серверные видеокарты помогают проводить большое количество вычислений при меньшем энергопотреблении. На длительных дистанциях это хорошо помогает экономить на оплате счетов за электричество. Такие видеокарты используются в ML-разработке, майнинге, кинопроизводстве, рендеринге и моделировании сложных объектов.
В чем еще разница
Говорить о том, насколько похоже или отличается десктопное и серверное железо можно на разных условных уровнях. В материале мы будем больше говорить про сравнение конкретных видеокарт, но для полноты картины должны дать больше контекста.
Верхний уровень. Производство и производительность
У каждой десктопной видеокарты есть множество версий от разных производителей: Asus, MSI, Gigabyte. Обычно NVIDIA и AMD передают технологии сторонним производителям, поэтому в магазинах можно наблюдать большой ценовой разброс на одни и те же модели видеокарт.
При этом NVIDIA и AMD всегда стремятся делать серверные видеокарты самостоятельно и никому не доверяют лицензии на производство такого железа.
Если говорить о производительности, самый важный параметр, от которого зависит и быстродействие, и долговечность, — это вопрос рабочей температуры.
Видеокарты по-разному решают проблему охлаждения. Системы вентиляции в дата-центрах способны продувать целые кластеры, а в помещении поддерживается комфортный микроклимат с мониторингом состава воздуха. Повторить такое на домашнем стенде проблематично, поэтому нормально, что в таких условиях серверные видеокарты нагреваются больше.
Средний уровень. Драйверы и программное обеспечение
Здесь можно говорить о прошивке и драйверах. Десктопные видеокарты ориентированы в основном на обеспечение высокого FPS в играх и простое моделирование. Серверные ориентируются на показатели стабильности в работе с массивными проектами. Поэтому приложения для серверных видеокарт всегда предусматривают возможность масштабирования и объединения графических процессоров в кластер для обработки больших данных.
Как следствие, драйверы от серверных видеокарт плохо сочетаются с десктопным железом и наоборот.
Нижний уровень. Архитектура и спецификация
На нижнем уровне можно говорить об архитектурных отличиях памяти.
Память серверных видеокарт работает с типом ECC (автоматическое исправление ошибок). ECC-память во многом зависит от объема и скорости оперативной памяти, потому что все время обращается к ней для исправления ошибок. Система экономит время на том, что процессы не приходится перезапускать и система работает стабильно.
Ошибки бывают двух типов: памяти и устройств. Причем вторые возникают достаточно часто как раз в десктопных видеокартах.
Игровые видеокарты менее приспособлены для сложного рендеринга как раз из-за ошибок устройств, которые возникают из-за электрических и магнитных возмущений внутри компьютера.
Игровые видеокарты используют non-ECC память, которая работает немного быстрее с простыми объектами, но хуже ведет себя, например, при построении ML-экспериментов. То есть, когда нужно работать с большими объемами данных и переменными.
Перейдем к разбору конкретных примеров.
3060 VS A2000
Построенную на архитектуре Ampere RTX А2000 можно считать одной из самых компактных серверных видеокарт. Она умещается даже в самые маленькие корпусы форм-фактора SFF. Еще один момент — карте не нужно дополнительное питание. Это одна из причин, почему ее так часто используют для майнинга.
RTX А2000 поддерживает даже трассировку лучей (реалистичный свет) и DLSS (сглаживание с алгоритмами глубокого обучения). Обычно таких возможностей ждут от игровых карт.
RTX А2000 построена на базе графического процессора GA106. Такой же используется в RTX 3050 и RTX 3060.
Количество шейдеров (потоковых процессоров) идет почти вровень с RTX 3060 и существенно опережает прошлую модель с показателем 2560.
С момента релиза А2000 прошло уже больше года, но видеокарта остается востребованной.
Характеристика | RTX 3060 | RTX A2000 |
---|---|---|
Количество потоковых процессоров | 3584 | 3328 |
Частота ядра | 1 320 МГц | 562 Мгц |
Частота в режиме Boost | 1 777 МГц | 1 200 МГц |
Количество транзисторов | 13 250 млн | 13 250 млн |
Технологический процесс | 8 нм | 8 нм |
Энергопотребление (TDP) | 170 Вт | 70 Вт |
Скорость текстурирования | 199.0 | 124.8 |
Тип памяти | GDDR6 | GDDR6 |
Максимальный объем памяти | 12 ГБ | 6 ГБ |
Ширина шины памяти | 192 бит | 192 бит |
Частота памяти | 15 000 МГц | 1 500 МГц |
Пропускная способность памяти | 360.0 ГБ/с | 288.0 ГБ/с |
Во многих параметрах RTX 3060 или немного опережает по характеристикам RTX А2000, или идет вровень. RTX A2000 заметно обходит соперника только в плане энергопотребления. В целом, нельзя сказать, что это принципиально разные видеокарты.
3070 VS A4000
RTX A4000 — это еще одна компактная однослотовая карта, которая во многом похожа на RTX 3070, но с полноценным чипом и неурезанными ядрами.
Обычно производители серверных видеокарт не уделяют много места системе охлаждения. Это обусловлено тем, что за их охлаждение отвечают системы дата-центра. В RTX А4000 удалось добиться относительно небольшого температурного разрыва с RTX 3070. Разница под нагрузкой составляет всего 7-9 градусов.
Несмотря на то, что видеокарты этого класса предназначены для работы с графикой и вычислениями, связанными с ИИ, на фоне дефицита в игровом сегменте они также получили широкое распространение.
О том, что А4000 еще долго не потеряет своей актуальности, говорит максимальный объем видеопамяти 16 ГБ. Пожалуй, лучший вариант для работы с анимацией в мидл-сегменте.
Характеристика | RTX 3070 | RTX A4000 |
---|---|---|
Количество потоковых процессоров | 5888 | 6144 |
Частота ядра | 1 500 МГц | 735 МГц |
Частота в режиме Boost | 1 725 МГц | 1 745 МГц |
Количество транзисторов | 17 400 млн | 17 400 млн |
Технологический процесс | 8 нм | 8 нм |
Энергопотребление (TDP) | 220 Вт | 140 Вт |
Скорость текстурирования | 317.4 | 299.5 |
Тип памяти | GDDR6 | GDDR6 |
Максимальный объем памяти | 8 ГБ | 16 ГБ |
Ширина шины памяти | 256 бит | 256 бит |
Частота памяти | 14 000 МГц | 1 750 МГц |
Пропускная способность памяти | 448.0 ГБ/с | 448.0 ГБ/с |
Несмотря на то, что RTX A4000 немного опережает свой десктопный аналог по части количества потоковых процессоров и максимального объема памяти — однозначного победителя здесь сложно выбрать.
3080 VS A5000
Основное различие между десктопной версией видеокарты и серверной версией в том, что RTX A5000 имеет 24 ГБ ЕСС-видеопамяти, тогда как RTX 3080 только 10 ГБ. В серверный корпус на 8 GPU можно поставить только две или три карты 3080, поскольку они занимают 2.5 слота. А5000 спокойно занимает все слоты корпуса.
В стандартных тестах Blender разница в рендеринге видна сразу: RTX A5000 справляется со всеми задачами на 1-3% быстрее. В более сложном рендеринге, например, в тестах Maya, эта разница еще заметнее и достигает 13%.
Пожалуй, в противостоянии RTX 3080 и RTX A5000 разница в производительности самая очевидная из всех пар.
Характеристика | RTX 3080 | RTX A5000 |
---|---|---|
Количество потоковых процессоров | 8704 | 8192 |
Частота ядра | 1 450 МГц | 1 170 МГц |
Частота в режиме Boost | 1 710 МГц | 1 695 МГц |
Количество транзисторов | 28 300 млн | 28 300 млн |
Технологический процесс | 8 нм | 8 нм |
Энергопотребление (TDP) | 320 Вт | 320 Вт |
Скорость текстурирования | 465.1 | 433.9 |
Тип памяти | GDDR6X | GDDR6X |
Максимальный объем памяти | 10 ГБ | 24 ГБ |
Ширина шины памяти | 320 бит | 384 бит |
Частота памяти | 19 000 МГц | 2 000 МГц |
Пропускная способность памяти | 760.3 ГБ/с | 768.0 ГБ/с |
Если в прошлых парах мы могли говорить о том, что серверные видеокарты потребляют меньше энергии, то здесь ситуация впервые уравнивается.
3090 VS A6000
Первое, что стоит заметить, приступая к сравнению этих видеокарт, — они созданы на базе одного кристалла GA102. Часть показателей полностью совпадает, поэтому неудивительно, что карты показывают почти одинаковое время рендеринга на стандартных моделях из Blender или Maya. Разница не более 1%.
Характеристика | RTX 3090 | RTX A6000 |
---|---|---|
Количество потоковых процессоров | 10 496 | 10 752 |
Частота ядра | 1 400 МГц | 1 410 МГц |
Частота в режиме Boost | 1 700 МГц | 1 800 МГц |
Количество транзисторов | 28 300 млн | 28 300 млн |
Технологический процесс | 8 нм | 8 нм |
Энергопотребление (TDP) | 350 Вт | 300 Вт |
Скорость текстурирования | 556.0 | 625.0 |
Тип памяти | GDDR6X | GDDR6X |
Максимальный объем памяти | 24 ГБ | 48 ГБ |
Ширина шины памяти | 384 бит | 384 бит |
Частота памяти | 19 500 МГц | 16 000 МГц |
Пропускная способность памяти | 936.2 ГБ/с | 768.0 ГБ/с |
Эту пару можно назвать битвой титанов, поскольку здесь сходятся топовые представители своих линеек. Видеокарты во многом похожи, но RTX А6000 единственная карта из списка серверных, которая обгоняет оппонента по скорости текстурирования.
В более сложных задачах, связанных с рендерингом целых киносцен в RedShift, RTX A6000 может работать в два раза быстрее. Дело здесь не только в самом объеме видеопамяти, но и в автоматической работе над ошибками.
Если объединить производительность двух RTX 3090 с использованием NVLink, в теории можно добиться близких показателей, но сэкономить на такой конструкции не получится.
Покупать или арендовать видеокарту?
Сфера использования серверов с GPU достаточно обширна:
- рендеринг фото и видео,
- построение 3D-моделей,
- обработка и аналитика больших данных,
- статистические расчеты,
- криптография.
Выгода от покупки собственного железа может быть сомнительной. Во многом это зависит от задач и предположительных сроков использования.
- Рынок испытывает проблемы из-за кризиса полупроводников и сложностей с логистикой.
- Это достаточно дорого и компаниям, и физическим лицам, которым нужны сервера с GPU, например, для проверки гипотез или ML-экспериментов.
- При таком сценарии придется самостоятельно поддерживать IT-инфраструктуру.
Проблема не ограничивается покупкой видеокарты. Нужна сборка, корпус, материнская плата, CPU, диски и нужно оплачивать электричество.
Цена и время
Если есть понимание, что машина нужна на годы вперед для несложных проектов, сценарий с покупкой стоит рассмотреть подробнее. Да, придется купить не только карту, но и комплектующие, собрать все это и обслуживать. Тем не менее так удастся сэкономить на дистанции. Например, для дизайнеров-фрилансеров это настоящая инвестиция в себя и свои проекты.
Если задачи проекта предполагают сессионный формат работы или объемные вычислительные процессы, то лучше использовать GPU в облаке. Такой подход поможет рассчитать, сколько ресурсов нужно проекту. Если первоначальная оценка не подтвердится, то можно легко масштабировать или оптимизировать IT-инфраструктуру проекта.