Арендуйте серверы с GPU для любых задач
NVIDIA H200
Для инференса больших LLM с длинным контекстом и мультимодальных моделей.
| Память | 141 ГБ HBM3e |
| Пропускная способность | до 4,8 ТБ/с |
| CUDA-ядра | 16 896 |
NVIDIA H100
Для обучения крупных LLM, распределенных вычислений, HPC-задач.
| Память | 80/94 ГБ HBM2e |
| Пропускная способность | до 4 ТБ/с |
| CUDA-ядра | 14 592 |
NVIDIA® RTX™ 6000 PRO
Для корпоративного AI, рендеринга, data science с большими датасетами.
| Память | 96 ГБ GDDR7 |
| Пропускная способность | до 1,8 ТБ/с |
| CUDA-ядра | 24 064 |
NVIDIA® RTX™ 4090
Для обучения средних моделей, компьютерного зрения, генерации контента.
| Память | 24 ГБ GDDR6X |
| Пропускная способность | до 1008 Гб/с |
| CUDA-ядра | 16 384 |
Преимущества облака для AI
Широкий выбор GPU
Стройте инфраструктуру с флагманскими GPU NVIDIA® H200, H100 и RTX™ 6000 Ada. Подберем оптимальное решение под вашу задачу и бюджет.
Быстрый запуск
Запускайте облачные серверы с GPU меньше чем за минуту, выделенные — от двух минут.
Готовые образы и модели
Используйте преднастроенные инструменты в AI-маркетплейсе и выбирайте LLM с приватным endpoint в Foundation Models Catalog.
Оплата по факту
Платите за фактически потребленные ресурсы в облачных серверах. Выделенные серверы оплачиваются за выбранный период: от 1 дня до 12 месяцев с накопительной скидкой.
Размещение в российских ЦОД
Размещайте инфраструктуру в 6 дата-центрах уровня Tier III в Москве и Санкт-Петербурге. Облачная платформа Selectel включена в реестр российского ПО.
Техподдержка 24/7
Эксперты Selectel помогут с настройкой инфраструктуры и решением технических задач круглосуточно — все это бесплатно.
Для чего подойдет облако для AI
- Инференс LLM
- Обучение нейросетей
- Компьютерное зрение
- Обработка естественного языка (NLP)
- Data Science и аналитика
- Генерация речи и аудио