Выжать больше из локальных LLM. Ollama медленнее llama.cpp в 3 раза. UD_Q4_K_XL лучше чем Q4_K_M, а вес тот же и т.д +54 23.04.2026 22:13 Shannon 22 Искусственный интеллект
Сборка дешевого домашнего вычислительного кластера на двух процессорах и 6 «почти» RTX3080 +29 07.04.2026 11:45 tr0llcr4ck 16 Компьютерное железо Серверная оптимизация Локализация продуктов
Запускаем настоящую DeepSeek R1 671B на игровом ПК и смотрим вменяемая ли она на огромном контексте (160к) +128 29.06.2025 08:46 Shannon 58 Искусственный интеллект
Представлена языковая модель Mistral Large 2 размером 123B. Как запускать. Локальный Сopilot. Открытый конкурент GPT-4o 25.07.2024 06:21 Shannon 12 Программирование Искусственный интеллект