Проблема обновления знаний в LLM
Большие языковые модели (LLM) демонстрируют выдающиеся результаты в различных задачах благодаря обширному предварительному обучению на больших наборах данных. Однако эти модели часто генерируют устаревшую или неточную информацию и могут отражать предвзятость при использовании, поэтому их знания необходимо постоянно обновлять.
Традиционные методы точной настройки дороги и подвержены катастрофическому забыванию. Это стало стимулом для разработки непрерывного редактирования моделей, которое эффективно и локально обновляет знания моделей.
Для генерации правильных прогнозов каждое редактирование требует надёжности, обобщающей способности и локализации. Непараметрические методы достигают точных локальных правок, но имеют плохую обобщающую способность, в то время как параметрические методы предлагают лучшее обобщение, но страдают от катастрофического забывания.
Ограничения предшествующих методов редактирования моделей
В ранних работах исследовались разреженные нейронные активации в непрерывном обучении, при этом такие методы, как PackNet и Supermasks-in-Superposition, выделяли непересекающиеся подмножества параметров для каждой задачи.
Градиентные подходы, такие как GPM и SPARCL, повышают эффективность за счёт ортогональных обновлений, но ограничены контекстом непрерывного обучения. Параметрические подходы, такие как ROME, MEMIT и WISE, модифицируют веса с помощью стратегий поиска и редактирования или вспомогательных модулей, но страдают от забывания при расширенных последовательностях правок.
Непараметрические методы, такие как GRACE и LOKA, хранят знания во внешней памяти для сохранения исходных весов, что позволяет выполнять точные локальные правки. Однако эти методы полагаются на точное соответствие входных данных, что ограничивает их обобщающую способность.
Представление MEMOIR: структурированный подход к редактированию моделей
Исследователи из Федеральной политехнической школы Лозанны (EPFL), Лозанна, Швейцария, предложили MEMOIR (Model Editing with Minimal Overwrite and Informed Retention), который достигает оптимального баланса между надёжностью, обобщающей способностью и локальностью для крупномасштабных правок.
MEMOIR вводит модуль памяти, состоящий из полностью связанного слоя в пределах одного блока преобразователя, где все правки происходят. MEMOIR решает проблему катастрофического забывания, выделяя отдельные подмножества параметров для каждой правки и извлекая их во время логического вывода, чтобы активировать только соответствующие знания для конкретных запросов.
Кроме того, метод использует структурированную разреженность с масками, зависящими от выборки, во время редактирования, активируя только подмножества параметров, специфичных для запроса. Он распределяет новые знания по всему пространству параметров, уменьшая перезапись и минимизируя катастрофическое забывание.
Оценка и экспериментальные результаты
MEMOIR работает через механизм остаточной памяти во время логического вывода, где отредактированный вывод объединяет исходные выходные данные слоя с выходными данными остаточной памяти. Он оценивается по сравнению с базовыми показателями, такими как GRACE для хранения внешних знаний, DEFER для маршрутизации во время логического вывода, методы причинной трассировки, такие как ROME, MEMIT и ALPHAEDIT, и методы на основе памяти, такие как WISE.
Эксперименты проводятся на четырёх авторегрессионных языковых моделях: LLaMA-3-8B-Instruct, Mistral-7B, LLaMA-2-7B и GPT-J-6B, что обеспечивает всестороннюю оценку различных моделей и масштабов для демонстрации эффективности и обобщающей способности MEMOIR.
На наборе данных для ответов на вопросы ZsRE MEMOIR достигает среднего показателя 0,95 на LLaMA-3 с 1000 правками, превосходя все предыдущие методы с отрывом в 0,16. Аналогичные результаты наблюдаются с Mistral, где этот метод снова достигает наивысшего среднего балла, подчёркивая его надёжность и эффективность для различных LLM.
Более того, MEMOIR поддерживает оптимальную сбалансированную производительность при увеличении объёма правок для исправления галлюцинаций с использованием набора данных SelfCheckGPT. MEMOIR поддерживает насыщенные оценки локальности в наиболее сложном сценарии с 600 правками, достигая показателей перплексии на 57% и 77% ниже, чем у WISE, второго по эффективности метода, на LLaMA-3 и Mistral соответственно.
Заключение и перспективы
В заключение, MEMOIR — это масштабируемый фреймворк для непрерывного редактирования моделей, который эффективно балансирует надёжность, обобщающую способность и локальность с помощью инновационных методов разреженности.
Метод извлекает соответствующие обновления посредством сравнения разреженных шаблонов активации, позволяя правкам обобщаться на перефразированные запросы, сохраняя при этом поведение модели по несвязанным запросам. Однако существуют определённые ограничения, такие как модификация только одиночных линейных слоёв, которые могут ограничивать обработку длинных правок или знаний, требующих более широких изменений модели.
Будущие направления включают расширение подхода на несколько слоёв, иерархические стратегии редактирования и применение к мультимодальным или энкодер-декодерным моделям помимо текущей ориентации на трансформеры с декодером.
Ознакомьтесь с [документом](ссылка на документ). Вся заслуга в этом исследовании принадлежит исследователям этого проекта. Также подписывайтесь на нас в [Twitter](ссылка на Twitter) и присоединяйтесь к нашему [ML SubReddit](ссылка на SubReddit) с более чем 100 тысячами участников и подписывайтесь на [наш информационный бюллетень](ссылка на информационный бюллетень).