DeepSeek взорвал рынок ИИ, и китайскую нейросеть уже наверное попробовал каждый.
Однако из-за перегрузки чаще всего Дипсик не работает. Нейросеть не отвечает, отправляя ошибки типа:
The server is busy. Please try again later.
Deepseek network error. Please try again later.
В этой статье разбираем 4 способа получить доступ к Дипсик, даже если он не отвечает. Во второй части статьи посмотрим, как установить DeepSeek локально на компьютер, что дает возможность использовать его вообще без Интернета!
1. Простой способ решить проблему Deepseek service is busy
Самый банальный, но рабочий способ – поставить приложение от сторонних разработчиков. Такие приложения используют API Дипсик, которое меньше подвержено проблемам, в отличие от официального сайта и мобильного приложения. Таких уже много:
Мобильные приложения для смартфонов (варианты для iOS и Android)
Также есть большое число Telegram-ботов.
На компьютере: используем приложения для браузера или читаем еще один вариант ниже.
2. Решаем проблему через OpenRouter (в качестве бонуса будет доступ к API DeepSeek)
OpenRouter – это еще один классный сторонний сервис. Но при этом, через него можно программно подключиться к API DeepSeek, причем бесплатно!
Также он работает и через обычный интерфейс чат-бота:

Для подключения просто переходим на эту страницу OpenRouter и нажимаем на кнопку Chat (кстати, сервис, работает без VPN):

Однако если серверам DeepSeek будет совсем тяжело, то упасть могут не только официальные приложения, но и API.
Поэтому переходим к самому интересному: поставим Дипсик локально.
3. Скачиваем Дипсик локально через LM Studio
Если кратко, LM Studio — это платформа, позволяющая развернуть DeepSeek R1 и другие модели нейросети прямо на вашем компьютере. Это позволяет пользоваться нейросетью бесплатно и без Интернета.
Смотрим, как установить DeepSeek локально:
Идем на на официальный сайт LM Studio.
Устанавливаем и запускаем LM Studio (работает на Windows, MacOS и Linux).
-
Отправляемся в раздел Discover:
-
Там находим модели DeepSeek R1:
Для выбора будет 2 модели: DeepSeek R1 Distill (Qwen 7B) и DeepSeek R1 Distill (Llama 8B).
Загружаем одну из 2 моделей (может занять от 10 минут до часа).
После скачивания нажимаем Use in new chat.
Общаемся с DeepSeek даже без Интернета.
На всякий случай: в описании моделей заявлено, что необходимо минимум 16 ГБ оперативной памяти, однако у меня оно заработало даже при 8 ГБ.
4. Установить DeepSeek Coder локально через Jan.ai
Также развернуть Дипсик локально можно с помощью Jan.ai. Этот способ позволяет поставить DeepSeek Coder – который особенно полезен при программировании разработчикам.
-
Устанавливаем Jan.ai:
-
Переходим на официальный сайт Jan.ai и скачиваем версию для своей ОС (Windows, macOS, Linux).
Устанавливаем стандартно, следуя инструкциям. Запускаем.
-
-
Скачиваем языковую модель DeepSeek:
-
Открываем Jan.ai и переходим в раздел "Модели":
-
Вводим в строку поиска DeepSeek и выбираем одну из 2 моделей в зависимости от мощности железа (чем больше вес модели, тем более сложные задачи модель может решать, но при этом она требует больше вычислительных ресурсов):
Выбираем модель и начинаем скачивание (может занять от нескольких минут до пары часов).
-
-
Настраиваем DeepSeek для работы локально:
-
После загрузки переходим в Thread:
-
Выбираем DeepSeek и настраиваем параметры (память, температура вывода и т. д.):
Сохраняем изменения.
-
-
Запускаем и тестируем:
-
Переходим в настройки и нажимаем "Запустить модель", ждем инициализации:
Вводим тестовый запрос и получаем ответ без подключения к Интернету.
-
Устанавливая Дипсик локально, мы получаем такие преимущества:
Нет зависимости от китайских серверов — работает в оффлайне, в поездке – где угодно.
Бесплатно – даже если когда-нибудь Дипсик станет платным, локально установленная модель все равно будет беслпатной.
Конфиденциальность — все данные чата остаются на компьютере и не отправляются в Интернет.
Поделитесь своими способами использования DeepSeek локально в комментариях. Будем добавлять в статью.
Комментарии (30)
TomskDiver
15.02.2025 16:55Громкий заголовок. Но пользы ноль. Надеюсь вы просто хотели похайпиться и всё таки понимаете что DeepSeek R1 Distill это совсем не DeepSeek R1. Ну а Coder всегда можно было запустить, как и многие другие опесорс модели на куче разных фреймворках (vllm, sglang, ollama, etc).
fgeo
15.02.2025 16:55Неизвестное расширение для API (которое может оказаться каким-то скамом или хулиганить с куками, например. Не точно, что оно это делает, но может делать в будущем). Рекомендация поставить локально дистиллированную версию без малейшего упоминания о том, что это существенно более слабое решение (совет пойти на Qwen / Grok / ChatGPT пока лежит DeepSeek и то был бы полезнее).
Предположу, что статья набрана нейронкой не более чем с 30B. Жалею, что кармы не наработал ещё для выражения своего отношения к подобному спаму на Хабре.Vedomir
15.02.2025 16:55>Неизвестное расширение для API
Не совсем понял про неизвестно расширение для API автор же предлагает поставить настольные оболочки и загрузить в них дистиллированные модели или я чего-то не понял?
Про ущербность дистиллированных моделей справедливо замечено.
fgeo
15.02.2025 16:55Подозреваю, что статью сильно подредактировал автор. Когда оставил коммент, одним из способов предлагалось поставить какое-то левое расширение для браузера, якобы дающее доступ к DeepSeek API.
kryvichh
15.02.2025 16:55У вас же уже была подобная статья про DeepSeek. Или скачивание дистиллята R1 чем-то принципиально отличается от V3?
DonnaG Автор
15.02.2025 16:55Собрал дополнительную фактуру про Jan.ai и решил написать более полную версию, в котором разобрать еще один способ, т.к. он пользуется популярностью и многим может быть интересен. Хочу собрать все способы локальной работы и сделать исчерпывающий материал на эту тему
kryvichh
15.02.2025 16:55Тогда добавьте для Jan.ai не забыть установить Prompt template в параметрах модели, для DeepSeek:
<|begin▁of▁sentence|>{system_prompt}<|User|>{prompt}<|Assistant|><|end▁of▁sentence|><|Assistant|>
Чтобы LLM не путала где чьи реплики, и правильно выделяла блок размышления.
По умолчанию стоит promt template как для Llama.
alan008
15.02.2025 16:55Разрабы DeepSeek кстати обновили свой template во всех моделях на HuggingFace, добавив в него <think>. Я не понял, это бага у них была или как:
Upd. Хотя это вроде не prompt template....
kryvichh
15.02.2025 16:55Тегом <think> модель помечает размышление. Непосредственно ответ на вопрос она выдаёт после этого блока. Иногда интересно почитать, как она пришла к тому или иному выводу.
s00d
15.02.2025 16:55Вы сами их пробовали? Они глупые до безобразия, это вообще не DeepSeek, лучше бесплатным openai пользоваться, чем смотреть на англо-китайско-узбексие ответы от Distill моделей
Чтобы не быть голословным, вот как оно работает
kryvichh
15.02.2025 16:552 момента:
Дистиллированная DeepSeek'ом Llama 8B, которую вы скачали, это ни о чём. Более-менее приличный результат можно получить на моделях от 14 млрд параметров и выше. Качайте максимальную модель, которая войдёт в видеопамять вашего адаптера. Меньшие модели - низкое качество, большие - запаритесь ждать ответа.
DeepSeek всё же больше заточен на математику, программирование, логику. Тем не менее, я попробовал ваш промт на локальной DeepSeek-R1-Distill-Qwen-14B-Q5_K_L, получилось на мой невзыскательный взгляд довольно интересное эссе на тему "Природа: гармония и разрушение". Кое-где попадаются китайские слова вместо русских, но тут ничего не поделаешь: локальная LLM квантованная, часть знаний о словах пропала во время квантования.
Зато очевидные плюсы: ты ни от кого не зависишь, спрашивай сколько угодно не думая о деньгах, ты ни кому не сливаешь свои исходники, Интернет не нужен - запускай LLM где угодно.
MikUrrey
15.02.2025 16:55А почему способы "хитрые"? Кого именно здесь обхитрили?
Есть другой "хитрый" бесплатный способ: OpenRouter. Там бесплатно доступна DeepSeek предыдущего поколения, но даже она будет умнее и быстрее чем то, что можно запустить локально.
landedK
15.02.2025 16:55Так это от авторов-почитателей "Нужен простой советский...".
Кликбейт "Дипсик не работает", а ниже десятый текст по запуску даже не собственно дипсика в терабайте памяти (таких тоже пара-тройка статей уже). И конечно ссылки на телегу, сокращатель ссылок, и в оригинале до правки ещё про какое-то расширение браузера, которое потом убрали.
Moog_Prodigy
15.02.2025 16:55Есть еще один "хитрый" метод поработать с дипсиком бесплатно и без busy, спойлер: использовать дипсик запущенный другими компаниями, например NVIDIA. Там правда нельзя отправить файлы, и придется немного поколдовать через F12, чтобы чат нормально отображало, но зато уже нормальное, полноразмерное и без тупления.
Только тс-с-ссс!
gun_dose
15.02.2025 16:55Если диксик не отвечает, самое время забить на него и воспользоваться qwen.
За пару недель использования понял, что теперешний dicksick глючит ещё сильнее, чем глючил ChatGPT два года назад. Недавно вообще прикол был, редактировал картинку в Inkscape и появилась у меня проблема с инструментом Shape tool, решил спросить у диксика, как решить или обойти проблему, так он мне на полном серьёзе стал втирать, что такого инструмента в Inkscape нет. Только с третьего раза, когда я ему сказал, что у меня есть кнопка с таким названием и я её прямо сейчас перед собой вижу, он согласился, что кнопка есть, но посоветовал всё равно что-то невпопад. Тогда пошёл спросил у qwen и он мне с ходу выдал решение моей проблемы.
KonstantinTokar
15.02.2025 16:55В некоторых случаях dipseek лучше оказался чем gptchat. Последний очень сильно фантазирует, например задаю вопрос о устройстве А, даёт ответ похожий на правду. Задаю вопрос тут же о устройстве Б - даёт тоже вроде правиоьной ответ, но в нём упоминается устройство А и в прямо противоположном первому ответу смысле.
KonstantinTokar
15.02.2025 16:55Локально dipseek щапускать практически невозможно. А вот mistral или qwen вполне, они и подобные у меня скоро будут строить переведённое с китайско-английского дерево issue с гитхаба. Каждому инструменту своя ниша.
Albert-X
15.02.2025 16:55Большинство DeepSeek ботов, которые удалось найти через глобальный поиск, либо ограничены (например, дают короткие ответы), либо V3, а не R1
ELForcer
15.02.2025 16:55OpenRouter – это еще один классный сторонний сервис. Но при этом, через него можно программно подключиться к API DeepSeek, причем бесплатно!
Тем временем:
По-моему там всё таки не DeepSeek.
softaria
А через API такое позвать можно?
alan008
Можно. Только Distill модели это вообще не DeepSeek, это его имитация на основе LLAMA и QWEN. Как крабовое мясо ) Настоящий DeepSeek 671 миллиард параметров и запускается на количестве VMEM начиная от 1.3 Терабайт (около 20 ускорителей Tesla A100 по 80 ГБ VMEM в каждом).
riky
Дипсик в fp8...
alan008
Спасибо за замечание, не знал, думал fp16. Ну значит затраты падают в 2 раза )))
На Ollama модель 671b приведена с квантизацией Q4_K_M и занимает 404 ГБ. Уже не выглядит чем-то нереальным :-) Но всё ещё тяжеловато, ждем пару лет, чтобы железо подкачалось.