AI-агенты, MCP и суровая реальность больших языковых моделей: итоги семинара в «РОССИННО»

21 января 2026 года в офисе компании «РОССИННО» состоялся семинар, посвященный одной из самых горячих тем в ИТ-отрасли – использованию больших языковых моделей (Large Language Models, LLM) и созданию на их основе интеллектуальных AI-агентов.

Специалистам известно, что большие языковые модели, такие как GPT от OpenAI, Gemini от Google, Grok от xAI, Claude от Anthropic или китайская DeepSeek, представляют собой глубокие нейронные сети трансформерной архитектуры, обученные на колоссальных массивах текстовых данных. Ключевой принцип работы LLM – не просто поиск информации в некоторой базе знаний, а предсказание следующего наиболее вероятного слова (токена) в последовательности на основе выявленных в данных статистических закономерностей и паттернов (patterns).

Ключевые компоненты архитектуры LLM:

  1. Векторные эмбеддинги (embeddings): слова и фразы преобразуются в числовые векторы, отражающие их смысловую близость.
  2. Механизм внимания (attention): позволяет модели «фокусироваться» на разных частях входного текста при генерации каждого нового слова, улавливая сложные контекстуальные зависимости.
  3. Многослойные декодеры/энкодеры (decoders/encoders): обрабатывают последовательности векторов, извлекая абстракции все более высокого уровня.

Такая вероятностная природа лежит в основе как достоинств LLM (креативность, способность к обобщению), так и главных слабостей, о которых говорилось на семинаре: недетерминированность, склонность к «галлюцинациям» – генерации правдоподобного, но фактически неверного или выдуманного контента.

Участники семинара, среди которых были архитекторы, инженеры и технические эксперты «РОССИННО», отталкивались от этого понимания, чтобы перейти к практическим аспектам интеграции соответствующих технологий в реальные бизнес-процессы. В центре внимания оказались концепции промпт-инжиниринга, архитектуры AI-агентов и протокола MCP (Model Context Protocol, «протокол контекста модели»).

В ходе мероприятий был заслушан доклад, подготовленный AI-командой компании. Доклад стартовал с фундамента – общих концепций LLM, промпт-инжиниринга и работы с базами знаний; отмечено, что качественно составленный промпт превращает модель в «эксперта», а интеграция с актуальной базой знаний резко снижает количество галлюцинаций. Вместе с тем, поиск информации в базе (retrieval) – это совсем не осмысление (reasoning). AI-модель лишь предсказывает текст на основе найденных паттернов, но не понимает его сути.

Более глубокое погружение раскрыло архитектуру современного AI-агента – надстройки над LLM, которая умеет действовать автономно:

  • ядро (LLM): сама языковая модель, которая интерпретирует запрос, генерирует план действий
  • планировщик: декомпозирует общий план на конкретные, выполнимые задачи
  • память: хранит историю диалога, промежуточные результаты и контекст
  • инструменты (tools): «руки» AI-агента – API, плагины, веб-поиск и т.д., через которые происходит взаимодействие с внешними системами

Для координации агентов используется протокол MCP, который стандартизирует обмен данными и доступ к инструментам, позволяя создавать сложные системы, где разные агенты выполняют специализированные роли (анализ данных, работа с SAP, обработка медиа и др.).

На семинаре были обозначены не только возможности, но также риски и фундаментальные проблемы, вытекающие из архитектуры LLM, в том числе уже отмеченную недетерминированность, отсутствие истинного понимания (неспособность осознавать свои ошибки), ограничения контекста, безопасность, высокие стоимость и требования к инфраструктуре.

После завершения доклада общая дискуссия перешла к практике с обсуждением конкретных примеров и возможностей использования LLM, в частности, для прогнозирования параметров ЦОД, оснащения системы мониторинга цифровых инфраструктур «дополнительным разумом» для понимания логической модели системы, анализа трендов в развивающихся процессах и т.п.

Основные выводы по итогам семинара свелись к тому, что несмотря на высокую популярность темы, индустрия переходит от ажиотажа к прагматичной оценке. AI-агенты на основе LLM – это мощный, но в некоторых сценариях рискованный инструмент: они открывают двери для автоматизации нетривиальных задач, но требуют глубокого понимания их природы (начиная с базовой архитектуры и принципов работы), серьезных инженерных надстроек и тщательного управления рисками, особенно в области предсказуемости.

Будущее видится за гибридными системами, где каждый компонент, будь то детерминированный алгоритм, статистическая модель или языковой агент, решает свою часть общей задачи и используется строго по назначению.