Реальность vs хайп
В 2024-2025 ITSM-вендоры массово анонсировали «AI-powered ServiceDesk». К 2026 году пыль осела, и стало понятно где LLM реально помогает, а где — маркетинговая обёртка.
Главные ограничения LLM в техподдержке:
- Hallucination — модель может уверенно дать неверный ответ. В техподдержке это критично: оператор предоставит клиенту неправильную инструкцию.
- Стоимость токенов — для 10000 заявок/мес платить за GPT-4 разумно, для 100/мес — нет.
- Latency — 3-5 секунд на ответ. Для авто-классификации ОК, для real-time чата с клиентом — на грани.
- Юр. вопросы — отправка клиентских ПДн в OpenAI/Anthropic нарушает ст. 18 152-ФЗ. Для РФ нужны локальные LLM или промежуточный анонимайзер.
7 сценариев где LLM реально работает
1. Авто-классификация входящих заявок
Заявка приходит → LLM определяет тип (incident/request/change), приоритет, направление (1С/AD/сеть). Точность 85-92% на типовых сценариях. Оператору остаётся проверить, не классифицировать с нуля. Экономия времени: 30-60 сек/заявка.
2. Авто-маршрутизация по компетенциям
Анализ текста заявки → определение команды (frontend / backend / DBA). Работает лучше rule-engine для размытых текстов «у меня что-то не открывается». Точность зависит от качества обучающих данных.
3. Чат-бот первой линии (FAQ)
Клиент пишет вопрос → бот ищет в базе знаний → выдаёт ответ с цитатой источника. Эффективен для 30-50% типовых вопросов («Как сбросить пароль», «Где скачать VPN»). Снимает с операторов рутину.
4. Генерация черновика ответа
Оператор открыл заявку → жмёт «Сгенерировать ответ» → LLM пишет черновик. Оператор редактирует и отправляет. Скорость ответа +30-40%. Качество выше у опытных моделей (GPT-4, Claude, Gigachat-Pro).
5. Суммаризация длинной переписки
Заявка с 50 комментариями → одна кнопка «Краткая выжимка» → LLM в 100 словах объясняет суть и текущий статус. Незаменимо при передаче заявки между сменами или эскалации.
6. Извлечение action items из переписки
LLM выявляет в тексте «нужно сделать X к дате Y» → создаёт подзадачи или напоминания. Особенно полезно в проблем-менеджменте.
7. Анализ настроения клиента (sentiment)
Поток входящих → автоматическое выделение «недовольных» заявок → приоритет на эскалацию. Помогает не упустить недовольство до того, как клиент уйдёт.
Где LLM не работает
- Технические инциденты с уникальными ошибками — LLM придумает правдоподобную, но неверную причину. Доверять диагнозу нельзя.
- Решения требующие данных в реальном времени — статус сервера, остатки на складе, доступы. LLM не знает текущее состояние без интеграций.
- Сложные юридические/финансовые вопросы — стоимость ошибки выше пользы.
- Конфиденциальная информация — передача ПДн в облачную LLM без on-premise/локальной модели = риск.
Как выбрать LLM-провайдера для РФ
Варианты с учётом локализации ПДн:
- GigaChat (Сбер) — российский LLM, серверы в РФ, есть в Реестре ПО. Качество приближается к GPT-3.5 на русском. Бесплатный лимит 1M токенов/мес для физлиц.
- YandexGPT — российский, серверы в РФ. API через Yandex Cloud. Качество сопоставимо с GigaChat.
- Локальные модели — Llama 3, Qwen, Saiga (русскоязычная). Развёртывание на собственном GPU (8 GB VRAM минимум). Полная приватность.
- OpenAI/Anthropic API — самое лучшее качество, но не подходит для ПДн в РФ. Использовать только с анонимизацией.
Стоимость и ROI
Расчёт для команды 10 операторов, 5000 заявок/мес:
| Сценарий | Стоимость/мес | Экономия времени |
|---|---|---|
| Авто-классификация | ~3 тыс ₽ | 40 ч оператора |
| Черновик ответа | ~10 тыс ₽ | 60 ч |
| Чат-бот FAQ | ~8 тыс ₽ | 30% входящего потока |
| Суммаризация | ~2 тыс ₽ | 20 ч |
Окупаемость — 1-3 месяца при средней стоимости часа оператора 500-800 ₽.
Вывод
LLM в ServiceDesk-2026 — не «революция», а полезный инструмент для конкретных задач. Не пытайтесь автоматизировать всё. Начните с одного-двух сценариев (классификация + суммаризация) — самый низкий риск, быстрый ROI. Чат-боты первой линии — добавляйте позже, после отладки основного процесса.
Попробуйте TIQQET в деле
Российская on-premise ServiceDesk-система с полным циклом заявок, SLA-контролем и мобильными приложениями.
Частые вопросы
Можно ли использовать ChatGPT для российских клиентов?
Только с анонимизацией ПДн до отправки в API. Прямая отправка email/ФИО клиентов в OpenAI нарушает ст. 18 152-ФЗ.
Какой минимум данных нужен для авто-классификации?
1000-2000 размеченных заявок с правильными категориями. Это пара недель работы аналитика. Без них модель будет ошибаться больше чем человек.
LLM может заменить оператора первой линии?
На 30-50% типовых запросов — да. На сложные кейсы — нет. Полная замена возможна только в очень специфичных доменах с предсказуемым входом.
Безопасно ли давать LLM доступ к базе знаний?
Да, если БЗ публичная или внутренняя. Не пускайте LLM в БД с ПДн — utang это запросы из чата с клиентом, всё может попасть в чужие ответы.
Сколько стоит запуск LLM-функций в ServiceDesk на старте?
Базовая авто-классификация через GigaChat/YandexGPT — от 5 тыс ₽/мес. С чат-ботом и черновиками — 15-25 тыс ₽/мес для команды 10-20 операторов.