Выжать больше из локальных LLM. Ollama медленнее llama.cpp в 3 раза. UD_Q4_K_XL лучше чем Q4_K_M, а вес тот же и т.д +65 23.04.2026 22:13 Shannon 25 Искусственный интеллект
Запускаем настоящую DeepSeek R1 671B на игровом ПК и смотрим вменяемая ли она на огромном контексте (160к) +128 29.06.2025 08:46 Shannon 58 Искусственный интеллект