Вебинар
Как сократить расходы на инференс LLM? Кейс компании «Актион»
Команда «Актион» сократила расходы на GPU на 60% и увеличила пропускную способность в 36 раз благодаря решению Compressa на инфраструктуре Selectel. Обсудили этот кейс и поговорили про способы оптимизации open-source LLM-моделей на своем сервере и преимущества использования облака для инференса LLM.
-
22 августа, 16:00
-
Онлайн-трансляция
Запись вебинара
Инструменты и технологии
- LLMOps
- LoRA fine-tuning
- Open-source LLM
Программа
-
Проблемы внешних API и open-source моделей «из коробки»
-
Способы оптимизации LLM-моделей на своем сервере
-
Сравнение производительности и стоимости токенов после оптимизации LLM
-
Инфраструктура Selectel для инференса LLM-моделей
-
Кейс «Актион» и Compressa. Оценка окупаемости решения и использование LLM в продакшене
-
Ответы на вопросы
Подарок для участников вебинара: бесплатный двухнедельный тест LLM-платформы Compressa на инфраструктуре Selectel с GPU
Кому будет полезно
-
ML- и MLOps-инженерам
-
Data Scientists и NLP-инженерам
-
CTO и менеджерам ML-проектов