ML для бизнеса: тренды 2026 года - Академия Selectel

ML для бизнеса: тренды 2026 года

Софья Шпак
Софья Шпак Продуктовый редактор
23 марта 2026

C коллегами из GlowByte и Data Sapience мы проанализировали, в какую сторону будет направлен вектор развития искусственного интеллекта в наступившем году.

Изображение записи

В течение нескольких лет бизнес экспериментировал с внедрением искусственного интеллекта, а в 2025 году перешел от гипотез к действиям. Дальше темпы будут только нарастать: в ближайшие два-три года ожидается массовый переход к активной интеграции ML в бизнес-процессы, а к 2030 году, по оценкам экспертов, это станет индустриальным стандартом. 

Компании понимают, что AI приносит пользу, но она пока не измерена и не формализована. Рынок начинает переход от эксперимента к MVP — созданию конкретных инструментов под реальные задачи, которые уже несут ценность для бизнеса.  

Массовое применение ML пока в «серой зоне» — в основном его используют для  чат-ботов, автоматизации рутинных задач, генерации отчетов. Поговорим о том, как ситуация будет меняться в ближайшем будущем.

Общие тренды

Использование платформенных решений

Одно из основных препятствий для внедрения искусственного интеллекта в бизнес — нехватка специалистов и дефицит прикладной экспертизы. Со стороны железа или регуляторики ограничений практически нет. Оборудование для инференса есть в доступе, его можно приобрести или арендовать у провайдера. А вот с человеческим ресурсом дела обстоят значительно сложнее.

На этом фоне активно растут стартапы, которые создают востребованные решения и получают инвестиции. Но спрос на квалифицированные кадры сильно превышает предложение, а команд, способных внедрить AI «под ключ», совсем мало. И быстро восполнить этот дефицит не представляется возможным. Компании часто учатся внедрять нейросети на практике, на ходу, и это замедляет масштабирование решений. 

В связи с дефицитом собственной экспертизы компании готовы платить за платформенные сервисы — например, преднастроенные сервисы для инференса и обучения AI-моделей. Использование платформенных решений снижает барьеры для внедрения новых технологий, позволяют компаниям быстрее выводить AI-продукты на рынок. Обычно такие решения предоставляют крупные инфраструктурные провайдеры.

Как построить AI-платформу: преимущества мультивендорских решений

Приглашаем на закрытую встречу для предпринимателей, руководителей и ML-специалистов. Будет интересно всем, кто планирует автоматизировать бизнес-процессы с помощью AI и хочет разобраться, с чего начать.

Организаторы: Selectel, GlowByte и Data Sapience.

Проектов на основе GenAI в России станет больше

Порог входа в новые технологии для бизнеса за последнее время значительно снизился. Качественные open-source AI-модели, включая отечественные, можно развернуть внутри собственной IT-инфраструктуры или на арендованных серверах. Это упрощает и делает дешевле проведение экспериментов, позволяет компаниям быстрее и безопаснее запускать пилотные проекты. 

Дополнительный драйвер развития GenAI в российских организациях — Shadow AI, так называемый теневой искусственный интеллект. Он формируется в ситуациях, когда сотрудники компании случайно сообщают публичным LLM и открытым сторонним AI-сервисам корпоративные данные. Чтобы сохранить контроль над информацией и обеспечить безопасность, компании уже создают собственные защищенные GenAI-среды и обучают сотрудников корректной работе с нейросетями.

Кроме того, стоимость и сроки внедрения таких проектов сокращаются: то, что раньше могло потребовать нескольких месяцев работы и привлечения больших команд, сегодня можно протестировать за недели. Это делает AI доступным даже для средних и небольших компаний.

Наконец, растет число AI-native проектов, в которых искусственный интеллект — основа бизнес-идеи и базовая компетенция у специалистов. Компании понимают: без развития в области GenAI они теряют скорость, гибкость и конкурентоспособность.

Эти факторы делают рост числа проектов с генеративным AI в 2026 году практически неизбежным. Можно сказать, что в ближайшем будущем владение GenAI станет таким же базовым навыком для специалистов, как владение ПК в 2000-х. 

AI-агенты не заменят человека полностью

Прежде всего, дело в отсутствии правовой определенности по этому вопросу и понятной схемы ответственности. Сегодня за любое решение в бизнесе отвечает человек — оператор, менеджер, руководитель. Без него непонятно, кто возьмет на себя ответственность за возможные ошибки автономной системы. Как минимум, пока регуляторика этого не решила, автономия в критичных процессах невозможна.

На практике, вероятнее, будут развиваться системы поддержки принятия решений (СППР): они анализируют данные, предлагают варианты и автоматизируют рутинные операции, но не принимают финальное решение за человека. Например, система на базе AI может автоматически оформить заказ бумаги или картриджей при низком остатке на складе. Но это скорее автоматизация стандартного процесса по заранее заданным правилам, чем настоящее самостоятельное принятие решений.

Инфраструктура

Аренда железа выгоднее покупки

Железо для запуска моделей стоит достаточно дорого, а ROI для многих компаний неочевиден. В конце концов, рискованно тратить десятки или даже сотни миллионов на то, что совсем не гарантирует сопоставимого увеличения прибыли.

Поскольку сложившихся индустриальных стандартов внедрения AI еще не появилось, компаниям тяжело спрогнозировать нагрузку на оборудование: для GPU-серверов зачастую нет такой статистики и исторических данных. Сложно предсказать, что конкретно понадобится и в какой момент времени.

Многие компании уже обожглись: закупили железо, а потом поняли, что переплатили и им столько не нужно. Либо, наоборот, купленное оборудование оказалось неподходящим для поставленной задачи. На фоне неопределенности проще арендовать мощности и быстро масштабировать их или отказаться — в зависимости от актуальных целей.

Дорогое железо, длительные циклы поставок и риск ошибиться с выбором оборудования стимулируют спрос на облака. Если при покупке оборудования компания совершит ошибку в сайзинге, то либо заморозит много денег, либо проект будет стоять и ждать новых поставок. Облако же позволяет не замораживать капитал, а подбирать ресурсы под задачу, быстро менять конфигурации, избегать переплат. Ситуация напоминает начало 2010-х: инфраструктура снова стала слишком дорогой, и экономическая логика работает в пользу OPEX. 

OPEX (от англ. Operating Expenditure) — операционные расходы, повседневные текущие затраты компании на поддержание своей деятельности, в том числе IT-инфраструктуры. Этот тип затрат учитывает только ежемесячный расход на предоставление IT-инфраструктуры — например, аренду вычислительных мощностей: выделенных серверов, облака, S3-хранилища.

Бизнесу далеко не всегда нужны самые большие модели и самое дорогое железо. Зачастую для инференса достаточно более простых систем. Покупка самого топового оборудования ради неиспользуемой мощности — распространенная ошибка.

В тренде не гонка за максимальной мощностью, а поиск баланса. С учетом экономической ситуации и общей неопределенности компании ищут умеренные решения: не отставать технологически, но и не переплачивать. Провайдеры могут закрывать этот спрос, подбирая оптимальную конфигурацию под конкретный кейс. У нас в Selectel есть такая услуга — подбор инфраструктуры для AI- и ML-задач. В рамках нее мы рекомендуем подходящее вам по соотношению цена/производительность оборудование и подсказываем более доступные альтернативы дорогим GPU без потери в мощности. Кроме того, с помощью нашего FMC (Foundation Models Catalog) вы можете попробовать различные готовые модели, не тратя время на их ручное развертывание.

Александр Тугов Директор по AI-вертикали

Корпоративная среда

Рынок корпоративного AI стремительно эволюционирует. Если еще год назад компании экспериментировали с отдельными кейсами, то в 2026 году мы наблюдаем формирование устойчивых паттернов внедрения. Разберем пять главных трендов, которые определяют ландшафт GenAI в enterprise-сегменте.

Корпоративные порталы для доступа к LLM

Хаотичное использование LLM уходит в прошлое. Модель, где каждый сотрудник использует свою подписку, сменяется централизованным подходом, в рамках которого бизнес внедряет единый корпоративный портал с ролевой моделью, биллингом, квотами и так далее.

Сотрудники уже давно применяют LLM в работе, чтобы обеспечивать более продвинутые сценарии — например, работу с внутренними документами или интеграцию в корпоративные системы.

Разработка корпоративного портала с гибридным доступом как к on-premise, так и к облачным моделям, становится необходимой.

On-premise модели

Работа с конфиденциальными корпоративными данными требует локального развертывания моделей. Речь идет о целом наборе моделей для разных задач:

  • LLM/VLM-модели,
  • эмбеддинг-модели (алгоритм, который преобразует абстрактные данные в числовые векторы), 
  • OCR-модули,
  • STT/ASR.

В зависимости от количества пользователей весь этот стек размещается на 2-4 серверных GPU. Получается полностью автономный контур для работы с корпоративными документами.

RAG как commodities

Retrieval-Augmented Generation (генерация, дополненная поиском) превратилась в хорошо освоенную практику. Это модель, которая подключается к определенной базе знаний и ищет в ней ответ на запрос пользователя. Такой подход очень удобен, например, для чат-ботов поддержки или HR-помощников. 

Теперь продвинутый поиск внедряется там, где раньше это казалось недостижимым: корпоративные базы знаний, личные архивы документов, презентационные материалы.
При этом формируется четкое разделение:

  • промышленные коллекции — бизнес-критичные системы, алгоритмы для которых разрабатывают специалисты по LLM;
  • временные коллекции — пользователи самостоятельно загружают документы через стандартные интерфейсы платформ. 

Агентность

Простое взаимодействие с LLM уже многие освоили. Теперь запрос смещается в сторону более сложных решений — агентных систем, которые:

  • открывают принципиально новые сценарии использования;
  • полностью автоматизируют целые процессы (например, документооборот).

Агенты становятся частью корпоративных порталов. У пользователя появляется готовый набор инструментов (toolbox) для эффективного решения задач — без необходимости разбираться в технических деталях. Подробнее о развитии этой технологии мы еще поговорим ниже. 

Новые стандарты разработки и внедрения

Компании двигаются в сторону развития внутрикорпоративных фреймворков, коммерческих продуктов или собственной разработки. С ростом количества агентов и интереса бизнеса к разработке новых решений возникает потребность в переиспользовании кода и компонентов. Компании идут двумя путями:

  • кастомизация OSS — надстройки над существующими open-source решениями. Правда, даже для LangFlow или n8n приходится писать собственные модули под специфику бизнеса;
  • собственные фреймворки — разработка с нуля под внутренние стандарты в части как прототипов, так и сервисных компонентов (трассировка, логирование etc) и CI/CD-процессов внедрения (LLMOps). 

Эти тренды показывают, что корпоративный GenAI переходит из фазы экспериментов в фазу промышленной эксплуатации.

AI-агенты

Эпоха хаотичных экспериментов с LLM «на коленке» завершилась. Сегодня бизнесу нужны масштабируемые, безопасные и предсказуемые инструменты, ведь AI-агент в продакшене — это такой же объект инженерной разработки, как микросервис или база данных. Он требует мониторинга жизненного цикла и жестких рамок управления. 

Разработка AI-решений смещается в сторону индустриальных платформ аналитики данных, машинного обучения и LLM/MLOps для enterprise-сегмента. К ним относится и решение Kolmogorov AI вендора Data Sapience. 

Перечислим требования к AI-агентам, которые будут актуальны в 2026 году.

Enterprise-readiness

Основные требование к платформе сегодня — полная прозрачность и управляемость.

Платформа должна размещаться так, как удобно заказчику, в том числе on-premise. Поддержка Kubernetes, масштабирование серверных компонентов и возможность развертывания агентов как через серверную часть, так и в качестве отторгаемых от платформы изолированных компонентов — минимальные требования для современного решения.

Гибкая настройка ролевой модели (RBAC) с настройкой доступа до конкретной модели или агента и аудита также становится необходимым условием. Доступ должен разграничиваться не только на уровне пользователей-разработчиков, но и на уровне пользователей-потребителей.

Кроме того, требуется поддержка аналитики затрат на использование моделей и агентов в разрезе департаментов, проектов и даже отдельных агентов. Платформы 2026 года позволяют выставлять лимиты на токены и вызовы API, предотвращая неконтролируемые расходы.

Жизненный цикл агента теперь идентичен циклу ПО. Платформа должна поддерживать версионность не только кода, но и промтов, настроек графов исполнения и конфигураций моделей. Важно, чтобы переход со стейджа в продакшен осуществлялся через автоматизированные пайплайны.

Разработчик должен иметь доступ к каждому узлу графа и каждому системному сообщению. Любое улучшение качества за счет платформы должно быть явным, настраиваемым и соответствовать принципу тотальной прозрачности.

Универсальность

Одно из ключевых требований к платформе сегодня — поддержка различных компонентов, фреймворков и моделей, а также независимость от конкретного вендора. Разработчик агента должен иметь возможность имплементировать кастомную логику в любую функцию агента. В этом ключе важны два момента.

  • Унификация моделей — прямое подключение к любым провайдерам (OpenAI, Anthropic, Google) или локальным моделям (через vLLM) по единому стандарту. Смена базовой модели для агента должна происходить «одним переключателем» без переписывания логики. 
  • Работа с данными (Vector DB Agnostic). Платформа должна предоставлять абстрактный слой для работы с векторными хранилищами. Будь то qDrant, Milvus или pgvector — интерфейс взаимодействия (индексация, поиск, гибридный поиск) остается неизменным.

Новые функциональные требования

Главным вызовом 2026 года становится возможность оценить качество агента на этапе разработки и эксплуатации. Чтобы одновременно предоставлять полную кастомизацию и давать возможность настройки управляемых параметров (в первую очередь, изменения промптов), необходима поддержка как No-code, так и Low-сode сценариев.
Во время эксплуатации требуются встроенные фреймворки для прогона сценариев через «агентов-судей» (LLM-as-a-judge) — моделей, которые автоматически проверяют агента. Также важным элементом является продвинутая трассировка, которая обеспечивает возможность просмотреть каждый шаг агента для отладки в каждом узле исполнения.
Некоторые агентские функции становятся не просто кубиками платформы, а целыми графами. Чтобы обеспечить преемственность разработки внутри команды, необходима поддержка каскадных вызовов агентов. В свою очередь, продвинутые архитектуры агентов (ReAct, Plan-and-execute) требуют поддержки цикличных связей. Все это накладывает дополнительные требования к функционалу платформы.

Доставка до потребителя: агент как сервис

Разработка агента требует бесшовного пути к конечному пользователю. В 2026 году платформа берет на себя роль не только инструмента, но и, в том числе, inference-хаба для запуска моделей. Мгновенная доставка агентов во внутренние интерфейсы для тестирования внутри платформы (playground-интерфейсы), а также бесшовная интеграция с пользовательскими порталами (как специализированными для работы с LLM, так и с существующими корпоративными чат-порталами) снижают time-to-production для агентских функций, тем самым ускоряя доступ к новым решениям. 

Каждый созданный агент автоматически получает документированный API-эндпоинт, превращаясь в микросервис, который могут вызывать другие конечные системы.

Заключение

Развитие рынка AI происходит стремительно, появляются первые кейсы, стандарты, практики. Чтобы оставаться в тренде и успевать за развитием прогресса, важен надежный партнер, обладающий экспертизой и способный стать проводником бизнеса – помочь ему решить задачу с помощью современных технологий эффективно, надежно и быстро.

Selectel в партнерстве с AI-вендорами уже помогает заказчикам решать их задачи. Цель — приземлить абстрактные запросы клиентов на конкретные инфраструктурные и платформенные решения. AI-вендоры, как правило, умеют эффективно решать бизнес-кейсы, а инфраструктура провайдера протестирована и успешно работает с этими решениями.