От утёнка к лебедю: локальные LLM
глазами экспертов
и в реальных кейсах
Как локальные языковые модели решают задачи бизнеса
и где они уже работают
Рынок искусственного интеллекта сегодня развивается так же стремительно, как ИТ-отрасль в начале нулевых. Технологии обновляются ежемесячно, компании экспериментируют, создают пилоты, тестируют новые подходы. В такой динамике невозможно ориентироваться только по новостям — слишком много шума и слишком мало проверенной практики.

Поэтому единственный надежный способ понимать, куда движется индустрия, — вести прямой диалог с рынком. Слушать тех, кто внедряет ИИ в реальных бизнес-процессах: интеграторов, разработчиков, промышленные предприятия, банки. Только в разговоре с ними становится ясно, какие задачи стоят перед бизнесом, какие решения он выбирает и почему.

Первый срез мнений мы получили на ЦИПР: тогда стало очевидно, что интерес к локальным языковым моделям огромен, но крайне неоднороден. После этого мы опубликовали сравнительный анализ локальных и облачных LLM — и увидели, что тема вызывает много вопросов у бизнеса:
  • какие модели эффективнее в реальных сценариях,
  • где локальные LLM действительно оправданы,
  • какие барьеры мешают внедрению,
  • и главное — что выбирает сам рынок сегодня.
Чтобы получить честные ответы, мы продолжили диалог и собрали мнения представителей ключевых ИТ-компаний, интеграторов и разработчиков на Kazan Digital Week 2025.
Цель этой статьи — показать живой срез рынка: как бизнес видит локальные LLM, в каких процессах находит им применение и что лучше — локальные модели или коммерческие.
Мы стоим на пороге фундаментального сдвига: нынешняя волна генеративного ИИ дает человечеству доступ к практически неограниченному когнитивному ресурсу. В условиях кадрового голода, который испытывает российский рынок, это не просто хайп, а реальный драйвер для экономического роста страны. Мы наконец-то можем масштабировать экспертность там, где раньше упирались в человеческий фактор.

Однако важно снять розовые очки. Технологии LLM сегодня — это всё ещё «подросток»: амбициозный, талантливый, но пока не до конца предсказуемый. Они еще не доросли до полноценного инженерного уровня зрелости (engineering grade). Мы находимся в фазе активных экспериментов, и рынку предстоит пройти «долину разочарования», научиться управлять «галлюцинациями» и встраивать вероятностные алгоритмы в жесткие корпоративные регламенты.

Поэтому сегодня разговор про LLM должен уйти от абстрактного сравнения бенчмарков («Чья модель лучше сдает экзамен по биологии?») к прагматике. Бизнесу не нужна «самая умная» модель в вакууме. Ему нужна модель, которая дешево и предсказуемо закрывает конкретный участок работы.
Максим Семёнкин, CEO CodeInside, Founder Docora AI.

Раздел 1. Почему локальные LLM становятся выбором бизнеса?

Когда мы с клиентами обсуждаем локальные LLM, часто возникает сравнение с крупными коммерческими моделями — ChatGPT, Gemini, DeepSeek и т.д. На их фоне локальные модели действительно выглядят «гадкими утятами»: они меньше, имеют ограниченный доступ к данным и в целом не могут конкурировать с гигантами в универсальности и масштабируемости. Но все эксперты, с которыми мы поговорили, подчеркивают: это сравнение некорректно по сути.
Локальные LLM — не уменьшенные копии облачных моделей и не их упрощенные версии. Это отдельный класс инструментов, создаваемых для совершенно других задач.
Из интервью вырисовывается единый вывод: бизнес выбирает локальные модели не из-за ограничений, а потому что они лучше закрывают конкретные процессы — там, где важны безопасность, предметная точность, дообучение и предсказуемость.

Причина №1: потому что они созданы для других задач — локальных и прикладных

Первое, что отмечают эксперты — локальные LLM и глобальные коммерческие модели — это разные инструменты, и каждый из них создавался под свой класс задач.
С тем, что локальные LLM — «гадкий утёнок» по сравнению с облачными, я не согласен. Это упрощённая метафора, которая скрывает суть: разные инструменты решают разные задачи. Облачные модели — универсальный инструмент, общего назначения. Он хорош там, где нужна масштабируемая генерация знаний и широкий охват контентных сценариев. Локальные модели — это целенаправленное, контролируемое решение для конкретных бизнес-задач. Где требуется точность, повторяемость и предсказуемость. Для компании важнее соответствие бизнес-требованиям, а не «размер в миллиарды параметров».
Евгений Сомов, руководитель проектов, ТИМ ФОРС.
Александр Лебедев продолжает эту мысль и использует простую метафору, которая показывает разницу в назначении:
Но всё-таки, заслуженно ли локальную LLM называют «гадким утёнком»? Это странно. Одно дело — модель на 3, 7, 14, 30, 800 миллиардов параметров: это разные вещи. Больше — выше обобщающая способность; меньше — сложнее схватывать все связи. Поэтому это просто инструмент: у вас есть молоток и есть кувалда — они для разных задач.
Александр Лебедев, инженер машинного обучения, Innostage.
Похожую точку зрения имеет Егор Ворогушин, но через более технологическую аналогию — оркестра и ансамбля:
Я абсолютно не согласен с метафорой «гадкий утёнок». Локальные и облачные LLM я бы скорее сравнил с музыкой: большие облачные модели — это огромный академический оркестр, а локальные on-prem — камерный ансамбль из нескольких инструментов.
И оркестр, и ансамбль могут сыграть красивую музыку, которая запомнится и к которой захочется возвращаться. Поэтому говорить, что одно лучше, а другое хуже, неправильно. Вопрос в том, какая именно «музыка» нужна бизнесу в конкретный момент.
Егор Ворогушин, директор департамента бизнес-решений и цифровой трансформации, Софтлайн Решения.
Кирилл Серов указывает на разницу в стратегиях развития технологий:
В российских реалиях сегодня особенно заметно, что локальные модели все чаще и больше находят применения в прикладных задачах. Пока западные компании концентрируются на мегамоделях в облаке, мы учимся извлекать максимум из локальных решений.
Кирилл Серов, технический директор, PIX Robotics.
Идея Кирилла расширяет контекст: локальные LLM — это не «альтернатива из необходимости», а отдельный путь развития, который идёт параллельно глобальному тренду на крупные модели.
Смысл становится еще яснее, если посмотреть на то, как локальные и облачные модели используются в бизнесе.
На сегодняшний день локальные LLM превратились из «игрушки энтузиастов» в мощный инструмент для развития бизнеса. Почему? Облачные LLM решают массовые задачи, развивают саму технологию и продвигают искусственный интеллект в массы. Локальные же чаще используются бизнесом для специфических задач.
Денис Романов, директор департамента профессиональных сервисов, Базис.
Это одно из ключевых объяснений: облачные LLM — про универсальность, локальные — про прикладную эффективность. Такой взгляд полностью совпадает с позицией Романа Садрисламова. Он подчеркнул, что история локальных LLM действительно начиналась с попыток догнать облачные модели, но сегодня дорожки разошлись, и локальные LLM формируют собственный функциональный класс:
Раньше, когда облачные системы только начали активно развиваться и локальные подтягивались за ними, метафора “гадкий утенок” была бы уместна. Но сегодня это просто разные классы систем. Если говорить метафорой, то это как Ferrari и трактор — оба нужны, но для разных задач. Причём в ряде случаев локальные модели даже дают компании преимущество по сравнению с облачными.
Роман Садрисламов, директор производственного направления, Девелоника (ГК Softline).
Игорь Никитин подчеркивает ключевую мысль: в бизнесе важнее не самый яркий инструмент, а подходящий под задачу.
Рядом с глобальными гигантами вроде ChatGPT, Gemini или DeepSeek локальные модели выглядят как маленькие братья: их словарь уже, их reasoning слабее, а упаковка не вызывает восторгов инвесторов. Но в бизнес-архитектуре утенок часто нужнее, чем павлин.
Игорь Никитин, CEO, WMT Group.
А Павел Гриневич подтверждает:
Я бы не сказал, что локальные LLM — это «гадкий утенок». Скорее — альтернатива, с собственными сильными сторонами и ограничениями. Зависит от задачи, требований и ресурсов.
Павел Гриневич, технический директор, ГК «Цифра».

Причина №2: потому что обеспечивают контроль данных и безопасность

Если спросить бизнес, что сильнее всего ограничивает применение глобальных моделей, ответ будет касаться не самих моделей, а данных. Компании, работающие с КИИ, персональными данными, коммерческой тайной, закрытыми технологическими процессами, просто не могут позволить себе использовать внешние сервисы — даже самые мощные. Именно поэтому тема безопасности стала главным фактором, определяющим архитектуру корпоративных AI-решений.
Локальные модели выигрывают по следующим критериям: контроль данных и соответствие требованиям безопасности и комплаенса; возможность целевой дообучаемости на собственных корпусах данных, что повышает точность в специфических задачах; предсказуемость поведения и отсутствие неожиданных «галлюцинаций» при корректной настройке; экономия на операционных рисках и задержках при работе в закрытых контурах.
Евгений Сомов, ТИМ ФОРС.
Здесь собраны ключевые аргументы, которые бизнес ставит выше «размера модели»:
  • контроль над операционным контуром,
  • соответствие регуляторным нормам,
  • стабильность и управляемость поведения модели.
Павел Гриневич фиксирует важную мысль: для значительной части российского рынка облачные LLM просто недоступны по определению — роль безопасности усиливается из-за отраслевых требований:
Выбор коммерческой языковой модели далеко не всегда является оптимальным. В ряде случаев локальное решение оказывается предпочтительнее. Например, если есть строгие требования законодательства или регулирования — локализация и защита персональных данных, условия госконтрактов или задачи импортозамещения.
Павел Гриневич, ГК «Цифра».
Аналогию между безопасностью и «персональным транспортом» проводит Игорь Никитин:
Большие коммерческие модели действительно сильные. Они напоминают глобальные аэропорты: подключился — и сразу доступ ко всему миру. Но у таких хабов есть минус: вы зависите от расписания чужих рейсов, от их правил и тарифов. Локальная LLM — это скорее личный вертолёт. Он не улетит в Австралию за пять минут, но доставит вас именно туда, куда нужно, быстро, безопасно и без лишних свидетелей.
Игорь Никитин, WMT Group.
Роман Садрисламов подчеркивает важность локального исполнения не только для защиты данных, но и для скорости работы систем:
Кроме того, локальные модели работают on-premise. Это скорость и безопасность, которые невозможно обеспечить в облаке. Пример: LLM может находиться полностью в закрытом контуре без доступа к интернету, что исключает риск утечек. Это критически важно для госсектора и крупных корпораций.
Роман Садрисламов, Девелоника (ГК Softline).
Сочетание безопасности и операционной скорости становится одним из самых частых аргументов внедрения локальных моделей. Но даже там, где облачные модели формально можно использовать, компании все чаще выбирают локальные. Причина проста: корпоративные задачи требуют точных предметных ответов. Именно здесь локальные LLM демонстрируют своё ключевое преимущество — способность работать с доменными знаниями.

Причина №3: потому что дают точность и возможность дообучения под домен

Если безопасность объясняет, почему компании не могут использовать облачные модели, то следующий ключевой фактор объясняет, почему они не хотят.

Корпоративные процессы редко требуют универсального интеллекта. Им нужны модели, которые понимают специфику отрасли, документации, внутренней терминологии и способны работать с текстами, которые отсутствуют в открытом доступе. Для бизнеса точность в узких задачах оказывается не менее важной, чем безопасность. Здесь локальные LLM раскрывают свою силу — их можно дообучать под доменные данные, превращая в узкоспециализированный инструмент.

Александр Лебедев объясняет почему «меньшая модель» часто лучше подходит для конкретной задачи, чем большая:
Малые модели могут немного проигрывать в метриках (если смотреть бенчмарки), но в узких задачах их прелесть в том, что их можно дообучать под конкретные вещи — это более гибкий инструмент. Плюс при локальном развертывании у нас больше контроля над происходящим.
Александр Лебедев, Innostage.
То, что кажется недостатком для универсальных сценариев, становится преимуществом в прикладных. Компании получают модель, которая не пытается быть всем сразу, а делает одну задачу, но делает её точно и стабильно. Кирилл Серов подчеркивает, что современные малые и средние модели при правильной интеграции могут давать результаты, сравнимые с облачными:
Современные модели вроде Llama 70B, Mistral Small, Qwen показывают результаты, сопоставимые с облачными моделями в специализированных задачах. И вот поиск таких специализированных задач — это основная цель при внедрении. Особенно это заметно в RAG-сценариях: локальные модели обеспечивают достоверность на уровне 85-90% при правильной настройке, что для множества корпоративных задач более чем достаточно.
Кирилл Серов, PIX Robotics.
Кирилл вносит важное уточнение: локальные модели получают конкурентоспособность именно в связке с корпоративными данными — через RAG, тонкую настройку, дообучение. И это основная причина, почему на российском рынке появляются десятки проектов, где локальные LLM становятся ядром внутренних систем знаний.
Тему специализации продолжает Роман Садрисламов:
Облачные работают на больших датасетах, они универсальны: ими могут пользоваться маркетологи, разработчики, аналитики, HR и так далее. Локальные же модели всё чаще затачиваются под конкретные задачи: разработку, тестирование и другие специфические направления. За счёт этого они начинают выигрывать.
Роман Садрисламов, Девелоника, Softline.
От него же исходила важная мысль из предыдущего раздела: локальные LLM — это трактор, а не Ferrari. Именно здесь эта метафора раскрывается полностью: в операционных задачах трактор работает лучше.

Точность и доменное знание делают локальные модели эффективными в прикладных задачах, однако компании смотрят еще шире. Следующий вопрос, который поднимают практически все эксперты, — как выбор архитектуры влияет на стоимость владения системой в долгосрочной перспективе.

Причина №4: потому что они экономически оправданы в долгосрочной перспективе

Именно на этом этапе локальные решения начинают выигрывать даже у самых продвинутых облачных моделей: корпоративные сценарии предполагают высокий объем запросов, сложную инфраструктуру и необходимость гарантировать стабильный доступ.

В такой логике стоимость API коммерческих LLM начинает расти пропорционально масштабированию бизнеса, в то время как локальная модель остается фиксированным активом, который можно оптимизировать, контролировать и использовать столько, сколько необходимо без неожиданного роста затрат.
Иногда выбор коммерческой языковой модели оказывается дороже, чем развертывание локальной модели. Например, если ежегодные затраты на использование внешней модели сопоставимы со стоимостью собственного сервера и команды для поддержки локального решения, то инвестиции в собственную инфраструктуру могут окупиться за несколько лет.
Андрей Беляев, руководитель направления консалтинга в области данных и аналитики, Рексофт.
Однако речь не только о снижении расходов на API, но и о том, что локальные модели убирают сетевые задержки, повышают стабильность и уменьшают вероятность ошибок из-за внешних факторов. В Софтлайн Решения (ГК Softline) объяснили, что современные модели могут работать даже на относительно простой инфраструктуре — а значит, порог входа в локальные LLM снижается:
Сегодня уже есть модели с десятками миллионов параметров, которые запускаются даже на обычных CPU и справляются с узкими задачами. Это очень экономично и полезно для автоматизации.
Егор Ворогушин, Софтлайн Решения.
Эксперты едины во мнении: локальные LLM нельзя рассматривать как уменьшенную версию больших моделей. Они развиваются в самостоятельный класс решений, который выигрывает в прикладных корпоративных задачах. Вместо универсальности компании выбирают инструменты, которые:
  • лучше соответствуют требованиям процессов,
  • дают предсказуемые результаты,
  • и интегрируются в инфраструктуру компании без рисков.

Это отражает переход рынка от экспериментальной стадии к прагматичной. Если раньше компании смотрели на LLM через призму «кто мощнее», то сейчас в фокусе оказывается вопрос: «Какая модель эффективнее решает мою конкретную задачу?».

Если отбросить маркетинг и размер моделей, остается набор конкретных критериев: точность, предсказуемость, безопасность, возможность дообучения, стоимость владения.
Диаграмма выше показывает, по каким параметрам компании чаще выбирают локальные модели, а где по-прежнему логично опираться на облачные LLM. Фактически это срез того, как рынок реально принимает архитектурные решения, когда речь идет не о демо, а о продуктивных системах.

Раздел 2. Практика применения: как локальные LLM решают прикладные задачи в компаниях

Интервью с экспертами показали: локальные LLM лучше всего проявляют себя в прикладных задачах — там, где нужны точные ответы, опора на закрытую базу знаний и воспроизводимость результатов. Такие сценарии, как правило, связаны не с универсальной генерацией текста, а с поддержкой конкретных бизнес-процессов: поиском информации, работой с документацией, инженерными и регламентными материалами.
Я уверен, что локальная модель на ограниченном ее задачами корпусе данных будет работать быстрее, чем облачная. Инвестиции в собственные, хорошо подготовленные для работы модели делают локальные LLM доступными и экономически оправданными для большинства отраслевых задач.
Евгений Сомов, ТИМ ФОРС.
В CodeInside мы видим ту же тенденцию на практике: проекты показывают, что наибольший эффект достигается тогда, когда LLM применяется адресно — для решения четко сформулированных задач внутри компании, а не как универсальный ассистент «на все случаи жизни».

Рассмотрим несколько сценариев из практики CodeInside. Все они реализованы на базе платформы Docora AI, но относятся к разным отраслям и задачам — именно это позволяет показать, как один и тот же продукт применяется в различных прикладных контекстах.
Прежде чем перейти к кейсам, давайте зададим себе ключевой вопрос: «Зачем нам это на самом деле нужно?»

Искусственный интеллект — это не «волшебная таблетка» от всех проблем, а мощный инструмент для решения конкретных задач. Внедрение ИИ оправдано и даёт реальный ROI там, где есть:
  • чёткая бизнес-боль — рутинные операции, потребность в анализе больших объёмов неструктурированных данных,
  • качественная информация, отражающая реальные процессы,
  • измеримый критерий успеха — например, снижение времени обработки на 30% или повышение точности прогноза.

Ожидания бизнеса чаще всего завышены, когда ИИ воспринимают как «чёрный ящик», который:
  • работает без чёткой постановки задачи и интеграции в существующие процессы,
  • принимает стратегические решения «с нуля», без участия эксперта,
  • мгновенно решает проблемы, накопленные годами, без этапа интеграции и адаптации.

Следующие кейсы покажут, как выбор между On-Premise и Cloud LLM зависит именно от этих базовых принципов: конкретной задачи, требований к данным и готовности бизнеса к изменениям. Это поможет вам оценить, на каком этапе находитесь вы и какой подход станет для вас оптимальным фундаментом.
Варвара Попова, исполнительный директор, CodeInside.
Химическая промышленность
ИИ-ассистент инженера
для работы с архивными
и проектными данными
В инжиниринговой компании НИИК накоплен огромный массив архивных данных — проектная документация, расчеты, методики и результаты исследований за 70 лет.
Команда нуждалась в инструменте, который позволит быстро проанализировать имеющиеся архивные данные, аппроксимировать их, сравнить ранее принятые решения по набору критериев, при этом достаточно точный и достоверный.
Подробнее о кейсе
  • Дано
    Информация представлена в разных форматах: текстовые документы, численные данные, временные ряды, графики.
    Поиск и сопоставление данных вручную требовали значительных временных затрат и высокой вовлеченности экспертов.
    1
  • Решение
    В рамках проекта был реализован сценарий «личного ассистента инженера», который позволяет быстро находить и анализировать информацию в архивных материалах, сопоставлять данные и проверять решения по заданным критериям.
    2
  • Результат
    В результате время поиска информации сократилось в четыре раза, выросли точность и полнота найденных данных, а за счет локального развертывания удалось полностью минимизировать риски утечки информации.
    3
государственные услуги
Систематизация знаний в системе исполнения электронных регламентов с помощью AI-ассистента
Требовалось создать интеллектуальное решение для поиска информации внутри корпоративного контура, которое обеспечивало бы высокую точность, полную безопасность данных и удобство для пользователей. Важно было учесть требования к скорости, локальному развертыванию, персонализации и интеграции в действующую ИТ-инфраструктуру компании.
Подробнее о кейсе
  • Дано
    В компании Эволента сотрудники и служба поддержки работают с разнородными данными из множества региональных источников и форматов. Детальный ручной поиск нужной информации замедлял обработку обращений и напрямую влиял на качество обслуживания.
    1
  • Решение
    Для решения этой задачи был реализован сценарий «цифрового эксперта» — интеллектуального поиска по внутренней базе знаний, работающего в периметре компании и учитывающего сложность и неоднородность данных.
    2
  • Результат
    По итогам внедрения время поиска информации сократилось в три раза, нагрузка на службу поддержки снизилась вдвое, а среднее время обработки обращений также сократилось в два раза.
    3
Логистика
AI-ассистент внутренней логистики для поддержки операций и работы с регламентами
В логистической компании сотрудники ежедневно работают с большим объемом нормативной и операционной информации.
Запрос: создать инструмент, который снимет с сотрудников рутинные расчеты и ручное оформление, обеспечит прозрачность внутреннего перемещения ТМЦ и снизит затраты на логистику.
Подробнее о кейсе
  • Дано
    Значительная часть запросов носит повторяющийся характер, при этом требует точных формулировок и учёта контекста конкретной ситуации. Ручной поиск информации и консультации с коллегами замедляли процессы и увеличивали нагрузку на ключевых специалистов.
    1
  • Решение
    Для решения этой задачи был реализован сценарий логистического ассистента — интеллектуального поиска по внутренним документам и регламентам, адаптированного под специфику логистических процессов. Ассистент помогает сотрудникам быстро находить релевантные ответы, ориентироваться в правилах и принимать решения на основе актуальных данных.
    2
  • Результат
    В результате удалось сократить время обработки типовых запросов, снизить нагрузку на экспертов и повысить единообразие принимаемых решений в логистических операциях.
    3
С технической стороны этот эффект объясняется не выбором «правильной» модели, а качеством архитектуры и данных.
Безусловно, архитектура и качество данных важнее выбора конкретной модели. Даже самая мощная модель выдаст галлюцинации на «шумных» данных, в то время как небольшая модель с чистым, структурированным контекстом покажет отличный результат. В продакшене выигрывает тот, кто выстроил правильный пайплайн подготовки данных, а саму модель в этой архитектуре можно менять как батарейку. Качественные данные позволяют «малышам» работать на уровне гигантов.
Олег Ведерников, руководитель R&D направления, CodeInside.

Раздел 3. Смена парадигмы: от PoC к внедрению

Отраженные выше мнения экспертов показывают: локальные LLM перестают восприниматься как экспериментальная технология и все чаще рассматриваются как рабочий инструмент для корпоративных задач. Это в свою очередь, говорит о том, что рынок входит в фазу, где фокус смещается от PoC (англ. Proof of Concept, PoC — доказательство реализуемости концепции, обозначает этап тестовых испытаний, пилотирований) к внедрению и первой промышленной эксплуатации.
На этапе перехода от PoC к эксплуатации всё чаще встаёт вопрос не о возможностях моделей, а о стратегических последствиях архитектурного выбора — прежде всего о том, где и как обрабатываются данные.
Выбор коммерческой модели оправдан, когда нужен быстрый старт, прототипирование, или задача не касается чувствительной информации. Но как только речь заходит о создании устойчивого конкурентного преимущества, основанного на уникальных данных и процессах компании, коммерческая модель становится уязвимым звеном.
Антон Юдин, руководитель продуктового направления «Инфраструктура ИИ Скала^р» Группы Rubytech.
Если на раннем этапе обсуждение локальных LLM строилось вокруг сравнения с крупными коммерческими моделями и оценки их возможностей, то сегодня диалог все чаще смещается в практическую плоскость. Компании обсуждают не столько возможность использования языковых моделей, сколько способы их встраивания в реальные бизнес-процессы и существующую ИТ-архитектуру. На этом этапе особенно заметен интерес к специализации и прикладному применению.
Мой взгляд: будущее — за узкоспециализированными моделями. Мы будем адаптировать и тренировать модели под конкретные домены (юрист, экономист, врач). То, что мы видим — снижение числа параметров при сохранении качества, — это «обтёсывание» огромных универсальных моделей до узких. Эти модели будут маленькими, шустрыми, отлично разбирающимися в своем домене, но не обязательно обобщающими. Такой класс точно появится и будет сосуществовать с гигантами «на все случаи».
Александр Лебедев, Innostage.
Речь идет не о попытке конкурировать с универсальными облачными моделями, а о формировании отдельного класса решений, ориентированных на конкретные функции и задачи бизнеса. Системный характер этого сдвига подчеркивает Павел Гриневич:
Локальные решения будут нарастать и станут серьезной частью экосистемы — не просто «дополнением», а конкурентом во многих сегментах. Они не вытеснят полностью коммерческие модели, но станут полноценным конкурентом в нужных нишах: там, где важен контроль, конфиденциальность, адаптация, локализация, эффективность. Можно ожидать, что через пару лет мы увидим, как такие решения «взрослеют» и берут на себя всё более сложные задачи, особенно внутри отраслей с особыми требованиями.
Павел Гриневич, ГК «Цифра».
В этих оценках важно не противопоставление локальных и облачных моделей, а фиксация изменения подхода: локальные LLM всё чаще рассматриваются как долгосрочный элемент цифровой архитектуры, а не как временное или вынужденное решение.

Совокупность экспертных оценок позволяет говорить о том, что рынок локальных LLM на текущем этапе проходит фазу взросления. После волны пилотных проектов и экспериментов компании начинают переход к первой эксплуатации решений в реальных процессах, с учетом требований безопасности, интеграции и поддержки.

Этот этап еще нельзя назвать массовым внедрением, однако он выходит за рамки PoC и формирует новый запрос — на устойчивые архитектуры, понятные сценарии использования и масштабируемые подходы. Именно эти вопросы во многом определят дальнейшую траекторию развития локальных LLM.

Раздел 4. Что дальше: вектор движения рынка локальных LLM

Как показывает диалог с рынком, дальнейшее развитие локальных решений определяется не одним фактором, а сочетанием направлений — доступности инфраструктуры, зрелости архитектурных подходов, требований безопасности и доменной экспертизы. При этом, компании всё чаще приходят к гибридным архитектурам, распределяя задачи между локальными и облачными моделями.
На уровне инженерной реализации этот тренд уже приобретает вполне конкретные очертания.
Будущее за гибридными системами (Hybrid AI) и децентрализацией. Мы движемся к сценарию, где 90% задач решаются локально: на устройствах пользователей или on-premise серверах крутятся оптимизированные малые модели, обеспечивая приватность и мгновенный отклик. В «большой интернет» к облачным гигантам системы будут ходить только за «советом» в особо сложных, нестандартных ситуациях, подобно эскалации на старшего специалиста. Это снижает косты и драматически повышает надежность системы.
Олег Ведерников, CodeInside.
Сейчас компании всё чаще строят гибридную архитектуру: подключают несколько локальных моделей для точных и защищенных задач, а облачные решения используют там, где важны широкий охват, аналитика и исследовательская работа. Такой подход позволяет сочетать точность, безопасность и при этом получать доступ к более масштабному контексту.
Сергей Карпович, заместитель руководителя Т1 ИИ (ИТ-холдинг Т1).

Оптимизация моделей и доступность железа

Один из главных драйверов — снижение «порога входа» для локального запуска. Андрей Беляев прямо связывает рост on-prem внедрений с удешевлением и доступностью специализированных процессоров:
Росту использования локальных LLM может поспособствовать повышение доступности и снижение стоимости используемых специализированных процессоров: GPU, TPU и аналогов.
Андрей Беляев, Рексофт.
Параллельно развивается и «оптимизационная» траектория — уменьшение требований к ресурсам через сжатие и адаптацию моделей. С инфраструктурной точки зрения этот сдвиг уже хорошо заметен: локальные LLM становятся не только технологически реализуемыми, но и экономически оправданными.
Мы видим, что рынок уходит от гонки за максимальным числом параметров. Используются модели с открытыми весами в диапазоне 7–13 млрд параметров, которые за счёт оптимизации, квантования и правильной архитектуры показывают высокое качество при умеренных аппаратных требованиях. Такие модели можно глубоко адаптировать под специфику бизнеса и использовать в корпоративном контуре с полным контролем над данными и жизненным циклом решения.
Антон Юдин, «Инфраструктура ИИ Скала^р» Группа Rubytech.
В России требования к безопасности стимулируют развитие LLM. Основные направления — снижение ресурсных требований для их развертывания on-premise и дообучение под специфику бизнеса. Снижение требований достигается квантованием: сжатые модели требуют меньше ресурсов. А дообучение (например, с помощью LoRA) позволяет адаптировать модель под отрасль — медицину, строительство и другие. В результате точность ответов возрастает, и модель лучше соответствует задачам компании.
Роман Садрисламов, Девелоника (ГК Softline).
При этом зрелость локальных внедрений определяется не только характеристиками моделей и доступностью железа, но и архитектурными подходами к работе с данными.
Ключевой технологией, которая «приземляет» LLM и делает их полезными для бизнеса, является RAG (Retrieval-Augmented Generation). Он нужен для того, чтобы снабжать модель актуальными данными (документы, базы знаний), повышать точность ответов, предоставляя проверенные факты из внутренних источников компании, а также снижать количество галлюцинаций, так как модель основывает ответ на конкретных документах.
Антон Юдин, «Инфраструктура ИИ Скала^р» Группа Rubytech.

Прикладные сценарии, RAG и агентные архитектуры

Еще один вектор — развитие не «самой модели», а архитектур, которые делают локальные LLM полезными в реальных процессах. В Just AI подчеркивают роль RAG и агентной оркестрации:
Сегодня это достигается не только за счет мощностей, но и благодаря правильным архитектурным решениям, таким как RAG (Retrieval-Augmented Generation) и агентной оркестрации. Эти подходы позволяют даже компактным моделям решать сложные задачи, используя внутренние данные компании. Индустрия уже закрепила новый стандарт: вместо разрозненных проектов компании внедряют единые enterprise-платформы. Такие решения делают локальные внедрения быстрыми, понятными и эффективными, позволяя бизнесу получать реальную ценность от ИИ здесь и сейчас.
Антон Саушкин, руководитель направления GenAI-решений, Just AI.
Схожую линию продолжает Роман Садрисламов, говоря о распределении процессов между несколькими моделями и агентами:
Еще один вектор развития — это агенты, которые взаимодействуют сразу с несколькими небольшими локальными моделями. У компании много процессов, и каждая модель может обслуживать отдельный этап. В итоге качество решений в совокупности будет значительно выше, чем при использовании облачных моделей.
Роман Садрисламов, Девелоника (ГК Softline).

Безопасность, регуляторика и закрытые контуры

Для части отраслей ключевой ограничитель — не качество генерации, а допустимость использования публичных моделей. Арсен Благов формулирует это максимально прямолинейно:
В закрытую организацию с КИИ или с персональными данными никогда не поставят большую публичную LLM.
Арсен Благов, ИТ-экосистемы «Лукоморье», РТК ИТ Плюс.
Одновременно он фиксирует прагматичный подход: иногда бизнесу достаточно более простых инструментов — и это тоже часть зрелости рынка.
Все зависит от того, насколько данные закрытые, какие требования к цене и инфраструктуре. Локальный LLM всегда требует отдельного контура. И иногда проще вообще не использовать ИИ, а применить классические математические модели. Для некоторых задач этого вполне достаточно, и по ресурсам это будет дешевле.
Арсен Благов, ИТ-экосистемы «Лукоморье», РТК ИТ Плюс.

Стандартизация и «единый стек» как условие масштабирования

Если речь о массовом внедрении, рынок упирается в управляемость стека на всех этапах. Just AI называет ключевым ответом именно стандартизацию:
Главный ответ — это стандартизация. Чтобы не отставать, необходимо уходить от «зоопарка» технологий. Наличие одного стека и одной платформы, которая объединяет все этапы — от обучения до запуска и мониторинга, позволяет достичь единой скорости внедрения. Это дает возможность видеть все метрики в одном месте и оперативно управлять проектами.
Антон Саушкин, Just AI.
Похожий набор факторов — доступность железа, стандартизация и рост прикладных сценариев — отмечает и PIX Robotics:
Точно будет больший акцент на российские модели и несколько трендов могут значительно в этом помочь: увеличение доступности железа, стандартизация (появление универсальных платформ инференса) и развитие базы прикладных сценариев. В этих направлениях вся практика сейчас и развивается.
Кирилл Серов, PIX Robotics.

Локальные платформы и продукты

Наконец, по мере роста числа сценариев фокус смещается от «отдельной модели» к продукту и роли ИИ внутри компании. С инженерной точки зрения это означает переход от разрозненных экспериментов к полноценной AI-инфраструктуре.
Наша задача — как разработчика программно-аппаратных комплексов (ПАК) — не просто в том, чтобы взять готовую модель из открытых источников, а в качественном ее исполнении. Мы создаём полноценную инфраструктуру, включая мощные GPU-серверы, чтобы обеспечить максимальную производительность и минимальные задержки, а также предоставляем инструменты для полного управления жизненным циклом модели.
Антон Юдин, «Инфраструктура ИИ Скала^р» Группа Rubytech.
На следующем этапе этот сдвиг выходит за рамки технологий и инфраструктуры и затрагивает уже организационный уровень — место ИИ внутри компании и его роль в бизнес-процессах.
Настоящая сила появится там, где локальные LLM начнут мыслить не как «утенок для экспериментов», а как новый цифровой сотрудник — с задачами, KPI и местом в оргструктуре. Тогда гадкий утенок превратится не просто в лебедя, а в целый новый вид сотрудников, которые умеют делать то, что раньше было недоступно ни человеку, ни машине.
Игорь Никитин, WMT Group.

Заключение

В начале разговора локальные LLM действительно выглядят «гадкими утятами» — на фоне крупных коммерческих моделей они уступают по масштабу, универсальности и объему доступных данных. Если смотреть на них только через призму мощности, результат сравнения кажется очевидным.

Однако диалог с рынком и анализ реальных сценариев показывают: метафора работает лишь на первом уровне. По мере погружения становится понятно — локальные LLM развиваются не в сторону универсальности, а в сторону применимости. Их ценность раскрывается в умении решать конкретные задачи внутри ограниченного контекста, с понятными правилами и предсказуемым результатом.
За последние 1–2 года ситуация изменилась. Сегодня локальные LLM работают на том же уровне качества, а иногда и лучше. Они более тематически направленные и лучше настроены под конкретные бизнес-задачи. А компании как раз и заинтересованы в том, чтобы модель решала конкретные задачи и приносила конкретный бизнес-эффект.
Сергей Карпович, Т1 ИИ (ИТ-холдинг Т1).
Практики сходятся в одном: локальные модели перестают быть «утёнком, который должен дорасти». Они формируют собственный класс решений — прикладных и управляемых. Именно в этом смысле происходит переход от метафоры к реальности: не превращение в лебедя, а осознание своей роли.

Реальные кейсы показывают, что в корпоративной среде важнее не максимальная универсальность, а точное соответствие задаче. Там, где ИИ работает с внутренними знаниями, регламентами и повторяющимися операциями, локальные LLM оказываются не компромиссом, а оптимальным выбором.

Таким образом, путь «от утёнка к лебедю» — это не история про рост параметров и гонку за лидерами, а про смену критериев оценки. И в этой системе координат локальные LLM уже заняли своё место — как осознанный инструмент для бизнеса.
При этом неизменным остается ключевой элемент — человек-эксперт. Почти во всех сценариях работы с LLM необходим специалист, который сможет настроить модель, оценить качество ее выводов, исправить ошибки и интегрировать ее в бизнес-процессы. Именно эти эксперты, вооруженные локальными LLM, позволят компаниям выйти на новый уровень — не просто автоматизировать задачи, а по-настоящему «подняться над проблемами», ясно увидеть стратегические цели и двигаться к ним с помощью осмысленных, контролируемых и безопасных AI-помощников, а не полагаться на безликий «универсальный чёрный ящик».
Евгений Сомов, ТИМ ФОРС.
Цель не в том, чтобы просто «догнать» облако по параметрам, а в том, чтобы максимизировать ценность для конкретного бизнеса.
Евгений Сомов, ТИМ ФОРС.
Если смотреть на этот переход в более широком контексте, он выходит за рамки отдельных проектов и технологий.

Путь «от утенка к лебедю» — это не просто красивая метафора эволюции технологий. Для российского рынка это вопрос выживания и цифрового суверенитета. Геополитические факторы и изоляция от западных вендоров больше не оставляют нам выбора «облако или on-prem». Недавние блокировки доступа к OpenRouter для пользователей из РФ — лишь очередное подтверждение того, что курс на локализацию был стратегически верным.

Мы вынуждены искать свой путь, и в этом наше парадоксальное преимущество. Пока мир пользуется готовыми API гигантов, в России накапливается уникальный инженерный опыт «приземления» открытых моделей на локальное железо. Мы учимся выжимать максимум из ограниченных ресурсов, дообучать модели на специфических данных и обеспечивать безопасность там, где облака бессильны.

Я убежден: именно этот вынужденный опыт позволит российским компаниям стать мировыми лидерами в создании автономных, защищенных корпоративных AI-систем. Локальные LLM перестали быть уделом энтузиастов. Теперь это осознанный выбор зрелого бизнеса, который не хочет, чтобы его критическая инфраструктура была отключена по щелчку рубильника за океаном.
Максим Семёнкин, CEO CodeInside, Founder Docora AI.
CodeInside уже реализует эти принципы через Docora AI — платформу, которая превращает корпоративные данные в интеллектуальный ресурс компании.
Если вы хотите понять, какие процессы вашей компании можно автоматизировать с помощью локальных LLM, команда CodeInside проведет оценку сценариев и поможет запустить пилотный проект.

Напишите нам на getai@codeinside.ru — покажем как может работать Docora AI на ваших данных и построим подходящую карту пилота.
© 2025 все права защищены
Обсудить разработку:
Остальные вопросы:
Штаб-квартира:
г. Пенза, Суворова 66