Или топ-5 причин, почему крупные компании ещё не заменили чат-боты на умных помощников 😏
Безопасность персональных данных и коммерческой тайны
В крупных компаниях очень строго относятся к безопасности данных. ИБ строго трактуют требования законодательства (например, предписания ФСТЭК), что практически исключает использование облачных решений. Только свои серверы (on premise) считаются надёжными, и даже если облако разрешают, то там нельзя хранить персональные данные (обязательно маскирование перс.данных от клиента) и коммерческую тайну. Вот почему многие умные помощники работают с ограничениями или вообще не переходят в облако.
Технические ограничения
Для полноценной реализации AI-ассистентов внутри крупных структур требуется развертывание мощной on premise платформы, обеспечивающей быстрые ответы (например, в пределах 5 секунд для клиентских сценариев). С учётом нагрузки колл-центра и количества обращений это требует значительных вычислительных ресурсов и повышенных расходов. Создание собственной платформы на базе GenAI в корпоративном контуре — длительный проект, который обычно занимает год или более.
Архитектурные особенности
Многие корпоративные чаты для клиентов и операторов основаны на готовых решениях различных вендоров. Ограниченная гибкость таких систем не всегда позволяет интегрировать гибридные сценарии (например, совместную работу чат-бота с NLU и продвинутого ассистента), из-за чего переход на более интеллектуальные решения затруднён.
Качество и полнота данных
Базы знаний большинства компаний требуют существенных доработок, чтобы они стали пригодны для сценариев Retrieval-Augmented Generation (RAG). Сложности возникают с обработкой информации в изображениях, сложных схемах, а также из-за противоречий и неполноты данных. Для того чтобы умный помощник был действительно надёжным, доля корректных ответов должна превышать 95%, в то время как при использовании баз знаний «как есть» этот показатель часто не превышает 80–85%.
“Галлюцинации” LLM
Даже при строго ограниченной креативности моделей (низком параметре “temperature”) остаётся вероятность ошибок: языковые модели иногда могут выдавать некорректные или заведомо неверные ответы. Для крупных компаний, где цена ошибки высока, этот риск по-прежнему остаётся критическим фактором, препятствующим масштабному внедрению подобных решений.
По мере того как компании накапливают опыт и создают собственные on premise AI-платформы, можно ожидать, что в ближайшие 1–2 года появятся масштабные внедрения умных помощников, которые будут работать в гибридном формате с классическими чат-ботами.
Успешно внедрившие умных помощников компании завоюют сердечки 🫶 клиентов и получат конкурентное преимущество.
Ждём, а пока.. бот, кожаного позови! 😁
Автор: 🐈⬛ Юля Яковлева 🐈⬛, веду канал AI or not AI?! (реальные кейсы, инсайты и советы по продуктовому управлению, AI и CX от AI Product lead'а)

Дискуссия