Решение проблемы галлюцинаций LLM в диалоговых системах, ориентированных на взаимодействие с клиентами

Недавно я оказался на встрече с техническими руководителями крупного предприятия. Мы обсуждали Parlant как решение для создания беглых, но строго контролируемых диалоговых агентов. Обсуждение шло хорошо — пока кто-то не задал вопрос, который меня совершенно озадачил: «Можно ли использовать Parlant, отключив при этом генерацию?»

Сначала я подумал, что это недоразумение. Генеративный ИИ-агент… без генерации? Звучало парадоксально. Но я остановился и задумался. И чем больше я размышлял, тем больше вопрос начинал иметь смысл.

Высокие ставки в сфере клиентского ИИ

Эти команды не просто экспериментировали с демонстрациями. Их ИИ-агенты были предназначены для производства — прямого взаимодействия с миллионами пользователей в месяц. В таких условиях даже ошибка в 0,01% неприемлема. Одно неудачное взаимодействие из десяти тысяч — это слишком много, когда речь идёт о нарушениях соответствия, юридических рисках или ущербе для бренда.

На таком уровне «достаточно хорошо» — это недостаточно хорошо. И хотя LLM прошли долгий путь, их генерация в свободной форме всё ещё вносит неопределённость — галлюцинации, непреднамеренный тон и отклонение от фактов.

Так что нет, вопрос был не абсурдным. Он был ключевым.

Смена перспективы

Позже ночью я продолжал думать об этом. Вопрос имел больше смысла, чем я сначала понял, потому что у этих организаций были не только ресурсы, но и экспертиза.

На самом деле у них в штате были штатные дизайнеры диалогов. Это профессионалы, обученные разработке агентского поведения, созданию взаимодействий и написанию ответов, которые идеально соответствуют голосу бренда и юридическим требованиям, а также заставляют клиентов взаимодействовать с ИИ.

Они не просили отключить генерацию из страха — они просили отключить её, потому что хотели и могли взять контроль в свои руки.

Именно тогда меня осенило: мы неправильно понимаем, что такое «генеративные ИИ-агенты».

Они не обязательно связаны с открытой генерацией токенов. Они адаптивны: реагируют на входные данные в контексте, с интеллектом. Независимо от того, поступают ли эти ответы напрямую, по токенам, от LLM или из банка курируемых ответов, на самом деле это не имеет значения. Важно то, насколько они уместны: соответствуют требованиям, контекстуальны, ясны и полезны.

Скрытый ключ к решению проблемы галлюцинаций

Все ищут решение проблемы галлюцинаций. Вот радикальная мысль: мы думаем, что оно уже есть.

Дизайнеры диалогов.

Имея в команде дизайнеров диалогов (как это уже делают многие предприятия), вы не просто минимизируете галлюцинации на выходе, вы готовы устранить их полностью.

Они также вносят ясность во взаимодействие с клиентами, намеренность, привлекательный голос. И они создают более эффективное взаимодействие, чем могут LLM, потому что LLM (сами по себе) всё ещё звучат не совсем правильно в сценариях, ориентированных на клиента.

Так что вместо того, чтобы пытаться модернизировать генеративные системы с помощью временных решений, я понял: почему бы не внедрить это в Parlant с самого начала? В конце концов, Parlant — это всё о дизайне, авторитете и контроле. Речь идёт о предоставлении нужным людям инструментов для формирования поведения ИИ в мире. Это было идеальным совпадением — особенно для этих корпоративных сценариев использования, которые могли бы получить гораздо больше от адаптивных разговоров, если бы им можно было доверять в работе с реальными клиентами.

От инсайта к продукту: сопоставление высказываний

Это был прорывной момент, который привёл нас к созданию шаблонов высказываний в Parlant.

Шаблоны высказываний позволяют дизайнерам предоставлять гибкие, учитывающие контекст шаблоны для ответов агентов: ответы, которые кажутся естественными, но полностью проверены, версионированы и управляются. Это структурированный способ сохранить адаптивность, подобную LLM, сохраняя при этом контроль над тем, что на самом деле сказано.

В основе работы шаблонов высказываний лежит трёхэтапный процесс:

1. Агент составляет гибкое сообщение на основе текущей ситуационной осведомлённости (взаимодействия, рекомендации, результаты работы инструментов и т. д.).
2. На основе черновика сообщения он находит наиболее подходящий шаблон высказывания в вашем хранилище высказываний.
3. Механизм отображает соответствующий шаблон высказывания (в формате Jinja2), используя замены переменных, предоставленные инструментом, где это применимо.

Мы сразу поняли, что это будет идеально работать с гибридной моделью Parlant: она даёт разработчикам программного обеспечения инструменты для создания надёжных агентов, а бизнес-экспертам и специалистам по взаимодействию — возможность определять поведение этих агентов. И ребята из этого предприятия сразу поняли, что это тоже будет работать.

Заключение: расширение прав и возможностей нужных людей

Будущее диалогового ИИ — не в том, чтобы исключать людей из процесса. Это о расширении прав и возможностей нужных людей для формирования и постоянного улучшения того, что и как говорит ИИ.

С Parlant ответ может быть таким: люди, которые лучше всего знают ваш бренд, ваших клиентов и ваши обязанности.

И единственное, что оказалось абсурдным, — это мой первоначальный ответ. Отключение — или, по крайней мере, жёсткий контроль — генерации во взаимодействиях с клиентами: это не было абсурдным. Скорее всего, так и должно быть. По крайней мере, на наш взгляд!

Примечание: взгляды и мнения, выраженные в этой гостевой статье, принадлежат автору и не обязательно отражают официальную политику или позицию Marktechpost.

Источник

Оставьте комментарий