На практике сценарии делятся на три слоя: жёсткий скрипт, база знаний, и языковая модель - только если понятны границы, логи, маскирование PII и эскалация к человеку. Если границ нет - вы купили рулетку, а не продукт.
Когда хватает сценариев
Статус оплаты, ссылка на счёт, инструкция «куда нажать» - дешевле и надёжнее конечным автоматом. LLM тут добавляет стоимость токенов и риск галлюцинаций без выигрыша.
Когда LLM действительно помогает
Суммаризация тикета, извлечение сущностей, черновик ответа для проверки человеком, поиск по внутренним заметкам с цитатами. Ответ клиенту - после модерации или шаблон.
Безопасность и дисциплина
Лимиты токенов, fallback при таймауте провайдера, запрет на утечку секретов в промпт. Если этого нет - вы не «внедряете AI», вы устраиваете лотерею.
Архитектуру под нагрузку и отрасль можно разобрать в контактах: где модель уместна, а где лучше классика.