От 100 000 до менее 500 меток: как ИИ Google сокращает данные для обучения больших языковых моделей на порядки
Исследователи из Google представили инновационный метод тонкой настройки больших языковых моделей (БЯМ), который сокращает объём необходимых данных для обучения до 10 000 раз, сохраняя или даже улучшая качество модели. Этот подход основан на активном обучении и сосредоточении усилий экспертов по разметке на наиболее информативных примерах — «пограничных случаях», где модель наиболее неопределённа. Традиционные узкие места … Читать далее