Foundation Models Catalog

Сервис для запуска и управления LLM в облаке Selectel. Выберите модель, конфигурацию и получите готовый endpoint для работы с ней.

Private Preview Open AI API Большой выбор GPU Выделенный endpoint
Зарегистрируйтесь в панели
Управляйте 50+ продуктами в одном интерфейсе

Регистрируясь, вы соглашаетесь на обработку персональных данных в соответствии с политикой

Есть аккаунт? Войти

Как работает Selectel Foundation Models Catalog

fmc-scheme

Selectel Foundation Models Catalog позволяет быстро подключать крупные языковые и мультимодальные модели через готовый API. Вы  выбираете подходящую модель из каталога, а платформа сама разворачивает ее на подходящей инфраструктуре и выдает endpoint с токеном доступа. Интеграция и бизнес-логика остаются на вашей стороне.

Преимущества запуска моделей через Foundation Models Catalog

Снижение нагрузки на ML‑команды

Получите ссылку на endpoint для использования в своих сервисах без деплоя сложной инфраструктуры.

Размещение в российских дата-центрах

6 дата-центров уровня Tier III в Москве и Санкт-Петербурге. Облачная платформа Selectel включена в реестр российского ПО (№ 9884 от 25.03.2021).

API для интеграций

Модели легко интегрировать в ваши проекты и сервисы. Доступ к foundation models получите через публичный API, совместимый с OpenAI API. Можно использовать curl-запросы или чат-бот из AI-маркетплейса.

Прогнозируемые затраты на проект

Стоимость рассчитывается исходя из фактического времени потребления ресурсов (CPU, GPU, RAM, объем дисков). Бюджет проекта не зависит от неконтролируемого потребления токенов.

Быстрый старт на проверенной инфраструктуре

Мы заранее протестировали модели на разных конфигурациях и зафиксировали бенчмарки. Вам остаётся только выбрать подходящий вариант и сразу начать работу.

Модель работает в приватном endpoint

Ваши Inference-сервисы используют выделенную специально под них вычислительную инфраструктуру. Один Inference-сервис — одна или несколько нод кластера K8s.

Разные GPU всегда в наличии

У нас большой запас GPU в наличии: NVIDIA А2, А30, А100, А2000, А5000, Tesla Т4 и GTX 2080. Это значит, что вы сможете быстро выбрать конфигурацию с видеокартой под любую задачу.

Масштабирование под нагрузку

Inference-сервис сам подстраивается под изменения нагрузки: при росте запросов добавляются новые ресурсы, при снижении — лишние отключаются.

Сценарии использования Foundation Models Catalog

  • Протестировать LLM-модель под свой проект
    Быстро развернуть несколько моделей и сравнить, какая лучше справляется с вашими задачами.
  • Подобрать инфраструктуру для ожидаемой нагрузки
    Оценить бенчмарки модели на разных конфигурациях Inference-сервиса и подобрать необходимую.
  • Создать Inference-сервис под динамические изменяющиеся нагрузки
    Настроить параметры автоматического масштабирования вычислительных мощностей и подключить Inference-сервис к собственной системе через OpenAI API.

Как развернуть LLM из Foundation Models Catalog

  • Оставьте заявку на Private Preview
    Для этого отправьте тикет. Расскажите о задаче, которую хотите решить с помощью Foundation Models Catalog, и напишите, какая GenAI-модель вам интересна.
    В панель
  • Выберите модель
    В выборе помогут теги, система поиска и ссылки на описание моделей в Hugging Face.
  • Получите рекомендуемую конфигурацию
    Задайте ключевые параметры работы модели: тип данных, максимальную длину контекста, количество одновременных запросов. Система предложит рекомендуемую конфигурацию инфраструктуры и релевантные бенчмарки выбранной модели.
  • Задайте параметры Inference-сервиса
    Выберите параметры масштабирования: фиксированное количество инстансов или автоматическое масштабирование под нагрузку. Укажите тип диска.
  • Создайте Inference-сервис
    Вы получите endpoint для работы с моделью, пример curl-запроса для тестирования, API-ключ для авторизации. На этапе Private Preview сервис можно использовать только в синхронном режиме.

Разворачивайте модели на безопасной инфраструктуре

ГОСТ Р 57580

Инфраструктура соответствует требованиям Центрального банка России

ISO

Работаем в соответствии с регламентами ISO/IEC 27001, ISO/IEC 27017, ISO/IEC 27018

152-ФЗ до УЗ-1

Используйте на проектах, где собираются и обрабатываются персональные данные

PCI DSS

Можем хранить банковские данные без ограничений со стороны регуляторов

IAM-система

Разграничивайте доступ к ресурсам и данным, определяйте роли

Запустите LLM в облаке Selectel

Зарегистрируйтесь в панели управления, оставьте заявку на Private Preview и получите доступ к Foundation Models Catalog
24/7
Остались вопросы?
Свяжитесь с техподдержкой

Регистрируясь, вы соглашаетесь на обработку персональных данных в соответствии с политикой

Есть аккаунт? Войти

FAQ

  • Что такое Foundation Models?
  • Как тарифицируется сервис?
  • Какие ограничения есть при работе с Foundation Models?
  • Можно ли развернуть свою модель?
  • Можно ли развернуть модель в частной инсталляции?