Как сократить расходы на инференс LLM?
Вебинар

Как сократить расходы на инференс LLM? Кейс компании «Актион»

Команда «Актион» сократила расходы на GPU на 60% и увеличила пропускную способность в 36 раз благодаря решению Compressa на инфраструктуре Selectel. Обсудили этот кейс и поговорили про способы оптимизации open-source LLM-моделей на своем сервере и преимущества использования облака для инференса LLM.

  • 22 августа, 16:00
  • Онлайн-трансляция

Запись вебинара

Инструменты и технологии

  • LLMOps
  • LoRA fine-tuning
  • Open-source LLM

Программа

  • Проблемы внешних API и open-source моделей «из коробки»
  • Способы оптимизации LLM-моделей на своем сервере
  • Сравнение производительности и стоимости токенов после оптимизации LLM
  • Инфраструктура Selectel для инференса LLM-моделей
  • Кейс «Актион» и Compressa. Оценка окупаемости решения и использование LLM в продакшене
  • Ответы на вопросы

Подарок для участников вебинара: бесплатный двухнедельный тест LLM-платформы Compressa на инфраструктуре Selectel с GPU

Спикеры

  • Владислав Кирпинский

    Владислав Кирпинский

    Директор по облачной интеграции, Selectel

  • Алексей Гончаров

    Алексей Гончаров

    CEO и founder, Compressa

  • Валентин Шишков

    Валентин Шишков

    ML Product Manager, Compressa

  • Владимир Хаванских

    Владимир Хаванских

    Chief Data Scientist, «Актион»

Кому будет полезно

  • ML- и MLOps-инженерам

    ML- и MLOps-инженерам

  • Data Scientists и NLP-инженерам

    Data Scientists и NLP-инженерам

  • CTO и менеджерам ML-проектов

    CTO и менеджерам ML-проектов