Исследователи ByteDance представляют ProtoReasoning: улучшение обобщения больших языковых моделей с помощью логических прототипов
Почему междоменное рассуждение важно для больших языковых моделей (LLM) Недавние прорывы в LRM, особенно тех, что обучены с использованием техник Long CoT, показывают, что они могут впечатляюще обобщаться в разных областях. Интересно, что модели, обученные на таких задачах, как математика или кодирование, часто показывают хорошие результаты в несвязанных областях, таких как логические головоломки или творческое … Читать далее