Топ-10 локальных больших языковых моделей (2025): сравнение контекстных окон, целей по VRAM и лицензий
В 2025 году локальные большие языковые модели (LLM) быстро развивались. Семейства с открытым весом, такие как Llama 3.1 (длина контекста 128K), Qwen3 (Apache-2.0, плотный + MoE), Gemma 2 (9B/27B, 8K ctx), Mixtral 8×7B (Apache-2.0 SMoE) и Phi-4-mini (3.8B, 128K ctx), теперь предлагают надёжные характеристики и первоклассные локальные средства запуска (GGUF/llama.cpp, LM Studio, Ollama), что делает … Читать далее