Почему крупные компании не переходят на умных помощников

Мы собираем практику и смыслы продакт-менеджмента: от CustDev и JTBD до бэклога, онбординга и роста метрик. Даем простые чек-листы, рабочие примеры и разборы, чтобы вы быстрее принимали продуктовые решения. Без воды и хайпа — только то, что помогает делать продукт и карьеру сегодня.

on-premiseFSTEKRAG

Или топ-5 причин, почему крупные компании ещё не заменили чат-боты на умных помощников 😏

  1. Безопасность персональных данных и коммерческой тайны

    В крупных компаниях очень строго относятся к безопасности данных. ИБ строго трактуют требования законодательства (например, предписания ФСТЭК), что практически исключает использование облачных решений. Только свои серверы (on premise) считаются надёжными, и даже если облако разрешают, то там нельзя хранить персональные данные (обязательно маскирование перс.данных от клиента) и коммерческую тайну. Вот почему многие умные помощники работают с ограничениями или вообще не переходят в облако.

  2. Технические ограничения

    Для полноценной реализации AI-ассистентов внутри крупных структур требуется развертывание мощной on premise платформы, обеспечивающей быстрые ответы (например, в пределах 5 секунд для клиентских сценариев). С учётом нагрузки колл-центра и количества обращений это требует значительных вычислительных ресурсов и повышенных расходов. Создание собственной платформы на базе GenAI в корпоративном контуре — длительный проект, который обычно занимает год или более.

  3. Архитектурные особенности

    Многие корпоративные чаты для клиентов и операторов основаны на готовых решениях различных вендоров. Ограниченная гибкость таких систем не всегда позволяет интегрировать гибридные сценарии (например, совместную работу чат-бота с NLU и продвинутого ассистента), из-за чего переход на более интеллектуальные решения затруднён.

  4. Качество и полнота данных

    Базы знаний большинства компаний требуют существенных доработок, чтобы они стали пригодны для сценариев Retrieval-Augmented Generation (RAG). Сложности возникают с обработкой информации в изображениях, сложных схемах, а также из-за противоречий и неполноты данных. Для того чтобы умный помощник был действительно надёжным, доля корректных ответов должна превышать 95%, в то время как при использовании баз знаний «как есть» этот показатель часто не превышает 80–85%.

  5. “Галлюцинации” LLM

    Даже при строго ограниченной креативности моделей (низком параметре “temperature”) остаётся вероятность ошибок: языковые модели иногда могут выдавать некорректные или заведомо неверные ответы. Для крупных компаний, где цена ошибки высока, этот риск по-прежнему остаётся критическим фактором, препятствующим масштабному внедрению подобных решений.

По мере того как компании накапливают опыт и создают собственные on premise AI-платформы, можно ожидать, что в ближайшие 1–2 года появятся масштабные внедрения умных помощников, которые будут работать в гибридном формате с классическими чат-ботами.

Успешно внедрившие умных помощников компании завоюют сердечки 🫶 клиентов и получат конкурентное преимущество.

Ждём, а пока.. бот, кожаного позови! 😁

Автор: 🐈‍⬛ Юля Яковлева 🐈‍⬛, веду канал AI or not AI?! (реальные кейсы, инсайты и советы по продуктовому управлению, AI и CX от AI Product lead'а)

Мужчина за ноутбуком, в облачке слева красными буквами надпись «Кожаного позови!». Мем‑иллюстрация раздражения на чат‑ботов.
Иллюстрация: человек за ноутбуком и надпись «Кожаного позови!» — шутливый мем о чат‑ботах.

Дискуссия

Как искать работу в 2026 | duckofdoom
позови человека!
Продакт поехал | Илья Лягушенко
Как искать работу в 2026 | duckofdoom
позови человека!
чего надо
AI or not AI ⁉️ Юля Яковлева
Так то самая частотная фраза для вызова сотрудника: "Оператор"
Присоединиться к обсуждению →