DeepSeek взорвал рынок ИИ, и китайскую нейросеть уже наверное попробовал каждый.

Однако из-за перегрузки чаще всего Дипсик не работает. Нейросеть не отвечает, отправляя ошибки типа:

  • The server is busy. Please try again later.

  • Deepseek network error. Please try again later.

В этой статье разбираем 4 способа получить доступ к Дипсик, даже если он не отвечает. Во второй части статьи посмотрим, как установить DeepSeek локально на компьютер, что дает возможность использовать его вообще без Интернета!

1. Простой способ решить проблему Deepseek service is busy

Самый банальный, но рабочий способ – поставить приложение от сторонних разработчиков. Такие приложения используют API Дипсик, которое меньше подвержено проблемам, в отличие от официального сайта и мобильного приложения. Таких уже много:

  1. Мобильные приложения для смартфонов (варианты для iOS и Android)

  2. Также есть большое число Telegram-ботов.

  3. На компьютере: используем приложения для браузера или читаем еще один вариант ниже.

2. Решаем проблему через OpenRouter (в качестве бонуса будет доступ к API DeepSeek)

OpenRouter – это еще один классный сторонний сервис. Но при этом, через него можно программно подключиться к API DeepSeek, причем бесплатно!

Также он работает и через обычный интерфейс чат-бота:

Для подключения просто переходим на эту страницу OpenRouter и нажимаем на кнопку Chat (кстати, сервис, работает без VPN):

Однако если серверам DeepSeek будет совсем тяжело, то упасть могут не только официальные приложения, но и API.

Поэтому переходим к самому интересному: поставим Дипсик локально.

3. Скачиваем Дипсик локально через LM Studio

Если кратко, LM Studio — это платформа, позволяющая развернуть DeepSeek R1 и другие модели нейросети прямо на вашем компьютере. Это позволяет пользоваться нейросетью бесплатно и без Интернета.

Смотрим, как установить DeepSeek локально:

  1. Идем на на официальный сайт LM Studio.

  2. Устанавливаем и запускаем LM Studio (работает на Windows, MacOS и Linux).

  3. Отправляемся в раздел Discover:

  4. Там находим модели DeepSeek R1:

    Для выбора будет 2 модели: DeepSeek R1 Distill (Qwen 7B) и DeepSeek R1 Distill (Llama 8B).

  5. Загружаем одну из 2 моделей (может занять от 10 минут до часа).

  6. После скачивания нажимаем Use in new chat.

  7. Общаемся с DeepSeek даже без Интернета.

На всякий случай: в описании моделей заявлено, что необходимо минимум 16 ГБ оперативной памяти, однако у меня оно заработало даже при 8 ГБ.

4. Установить DeepSeek Coder локально через Jan.ai

Также развернуть Дипсик локально можно с помощью Jan.ai. Этот способ позволяет поставить DeepSeek Coder – который особенно полезен при программировании разработчикам.

  1. Устанавливаем Jan.ai:

    • Переходим на официальный сайт Jan.ai и скачиваем версию для своей ОС (Windows, macOS, Linux).

    • Устанавливаем стандартно, следуя инструкциям. Запускаем.

  2. Скачиваем языковую модель DeepSeek:

    • Открываем Jan.ai и переходим в раздел "Модели":

    • Вводим в строку поиска DeepSeek и выбираем одну из 2 моделей в зависимости от мощности железа (чем больше вес модели, тем более сложные задачи модель может решать, но при этом она требует больше вычислительных ресурсов):

    • Выбираем модель и начинаем скачивание (может занять от нескольких минут до пары часов).

  3. Настраиваем DeepSeek для работы локально:

    • После загрузки переходим в Thread:

    • Выбираем DeepSeek и настраиваем параметры (память, температура вывода и т. д.):

    • Сохраняем изменения.

  4. Запускаем и тестируем:

    • Переходим в настройки и нажимаем "Запустить модель", ждем инициализации:

    • Вводим тестовый запрос и получаем ответ без подключения к Интернету.

Устанавливая Дипсик локально, мы получаем такие преимущества:

  1. Нет зависимости от китайских серверов — работает в оффлайне, в поездке – где угодно.

  2. Бесплатно – даже если когда-нибудь Дипсик станет платным, локально установленная модель все равно будет беслпатной.

  3. Конфиденциальность — все данные чата остаются на компьютере и не отправляются в Интернет.

Поделитесь своими способами использования DeepSeek локально в комментариях. Будем добавлять в статью.

Комментарии (30)


  1. softaria
    15.02.2025 16:55

    А через API такое позвать можно?


    1. alan008
      15.02.2025 16:55

      Можно. Только Distill модели это вообще не DeepSeek, это его имитация на основе LLAMA и QWEN. Как крабовое мясо ) Настоящий DeepSeek 671 миллиард параметров и запускается на количестве VMEM начиная от 1.3 Терабайт (около 20 ускорителей Tesla A100 по 80 ГБ VMEM в каждом).


      1. riky
        15.02.2025 16:55

        Дипсик в fp8...


        1. alan008
          15.02.2025 16:55

          Спасибо за замечание, не знал, думал fp16. Ну значит затраты падают в 2 раза )))

          На Ollama модель 671b приведена с квантизацией Q4_K_M и занимает 404 ГБ. Уже не выглядит чем-то нереальным :-) Но всё ещё тяжеловато, ждем пару лет, чтобы железо подкачалось.


  1. TomskDiver
    15.02.2025 16:55

    Громкий заголовок. Но пользы ноль. Надеюсь вы просто хотели похайпиться и всё таки понимаете что DeepSeek R1 Distill это совсем не DeepSeek R1. Ну а Coder всегда можно было запустить, как и многие другие опесорс модели на куче разных фреймворках (vllm, sglang, ollama, etc).


  1. fgeo
    15.02.2025 16:55

    Неизвестное расширение для API (которое может оказаться каким-то скамом или хулиганить с куками, например. Не точно, что оно это делает, но может делать в будущем). Рекомендация поставить локально дистиллированную версию без малейшего упоминания о том, что это существенно более слабое решение (совет пойти на Qwen / Grok / ChatGPT пока лежит DeepSeek и то был бы полезнее).

    Предположу, что статья набрана нейронкой не более чем с 30B. Жалею, что кармы не наработал ещё для выражения своего отношения к подобному спаму на Хабре.


    1. Lev3250
      15.02.2025 16:55

      В вашем случае не карма нужна, а публикации


      1. fgeo
        15.02.2025 16:55

        Больше десяти лет читаю Хабр, но комментировать только недавно начал. Думаю, что в следующие десять лет публикации тоже появятся :)


    1. Vedomir
      15.02.2025 16:55

      >Неизвестное расширение для API

      Не совсем понял про неизвестно расширение для API автор же предлагает поставить настольные оболочки и загрузить в них дистиллированные модели или я чего-то не понял?

      Про ущербность дистиллированных моделей справедливо замечено.


      1. fgeo
        15.02.2025 16:55

        Подозреваю, что статью сильно подредактировал автор. Когда оставил коммент, одним из способов предлагалось поставить какое-то левое расширение для браузера, якобы дающее доступ к DeepSeek API.


  1. kryvichh
    15.02.2025 16:55

    У вас же уже была подобная статья про DeepSeek. Или скачивание дистиллята R1 чем-то принципиально отличается от V3?


    1. DonnaG Автор
      15.02.2025 16:55

      Собрал дополнительную фактуру про Jan.ai и решил написать более полную версию, в котором разобрать еще один способ, т.к. он пользуется популярностью и многим может быть интересен. Хочу собрать все способы локальной работы и сделать исчерпывающий материал на эту тему


      1. kryvichh
        15.02.2025 16:55

        Тогда добавьте для Jan.ai не забыть установить Prompt template в параметрах модели, для DeepSeek:

        <|begin▁of▁sentence|>{system_prompt}<|User|>{prompt}<|Assistant|><|end▁of▁sentence|><|Assistant|>

        Чтобы LLM не путала где чьи реплики, и правильно выделяла блок размышления.

        По умолчанию стоит promt template как для Llama.


        1. alan008
          15.02.2025 16:55

          Разрабы DeepSeek кстати обновили свой template во всех моделях на HuggingFace, добавив в него <think>. Я не понял, это бага у них была или как:

          https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B/commit/6602cadec947dbb53e64f3d8d6425320b2197247

          Upd. Хотя это вроде не prompt template....


          1. kryvichh
            15.02.2025 16:55

            Тегом <think> модель помечает размышление. Непосредственно ответ на вопрос она выдаёт после этого блока. Иногда интересно почитать, как она пришла к тому или иному выводу.


    1. cadmi
      15.02.2025 16:55

      Вскоре автор найдёт ещё Msty и мы увидим на Хабре продолжение статьи, будет написано, чем лучше Jan.ai :-)


  1. s00d
    15.02.2025 16:55

    Вы сами их пробовали? Они глупые до безобразия, это вообще не DeepSeek, лучше бесплатным openai пользоваться, чем смотреть на англо-китайско-узбексие ответы от Distill моделей

    Чтобы не быть голословным, вот как оно работает


    1. kryvichh
      15.02.2025 16:55

      2 момента:

      1. Дистиллированная DeepSeek'ом Llama 8B, которую вы скачали, это ни о чём. Более-менее приличный результат можно получить на моделях от 14 млрд параметров и выше. Качайте максимальную модель, которая войдёт в видеопамять вашего адаптера. Меньшие модели - низкое качество, большие - запаритесь ждать ответа.

      2. DeepSeek всё же больше заточен на математику, программирование, логику. Тем не менее, я попробовал ваш промт на локальной DeepSeek-R1-Distill-Qwen-14B-Q5_K_L, получилось на мой невзыскательный взгляд довольно интересное эссе на тему "Природа: гармония и разрушение". Кое-где попадаются китайские слова вместо русских, но тут ничего не поделаешь: локальная LLM квантованная, часть знаний о словах пропала во время квантования.

      Зато очевидные плюсы: ты ни от кого не зависишь, спрашивай сколько угодно не думая о деньгах, ты ни кому не сливаешь свои исходники, Интернет не нужен - запускай LLM где угодно.


  1. MikUrrey
    15.02.2025 16:55

    А почему способы "хитрые"? Кого именно здесь обхитрили?

    Есть другой "хитрый" бесплатный способ: OpenRouter. Там бесплатно доступна DeepSeek предыдущего поколения, но даже она будет умнее и быстрее чем то, что можно запустить локально.


    1. landedK
      15.02.2025 16:55

      Так это от авторов-почитателей "Нужен простой советский...".

      Кликбейт "Дипсик не работает", а ниже десятый текст по запуску даже не собственно дипсика в терабайте памяти (таких тоже пара-тройка статей уже). И конечно ссылки на телегу, сокращатель ссылок, и в оригинале до правки ещё про какое-то расширение браузера, которое потом убрали.


    1. Moog_Prodigy
      15.02.2025 16:55

      Есть еще один "хитрый" метод поработать с дипсиком бесплатно и без busy, спойлер: использовать дипсик запущенный другими компаниями, например NVIDIA. Там правда нельзя отправить файлы, и придется немного поколдовать через F12, чтобы чат нормально отображало, но зато уже нормальное, полноразмерное и без тупления.

      Только тс-с-ссс!


  1. Tim_23
    15.02.2025 16:55

    Не надо ничего устанавливать..ждёте пару тройку минут, и нажимаете кнопку перезагрузка в дип пик и он начинает обрабатывать ваш запрос. Зависания эти регулярные, но не долгие


    1. landedK
      15.02.2025 16:55

      Да, но поди растяни это на целую статью и два хитрых способа.


  1. tkovacs
    15.02.2025 16:55

    Сравнил конечно, я бы за такое банил


    1. landedK
      15.02.2025 16:55

      кликбейт - не нарушение (видимо)


  1. gun_dose
    15.02.2025 16:55

    Если диксик не отвечает, самое время забить на него и воспользоваться qwen.

    За пару недель использования понял, что теперешний dicksick глючит ещё сильнее, чем глючил ChatGPT два года назад. Недавно вообще прикол был, редактировал картинку в Inkscape и появилась у меня проблема с инструментом Shape tool, решил спросить у диксика, как решить или обойти проблему, так он мне на полном серьёзе стал втирать, что такого инструмента в Inkscape нет. Только с третьего раза, когда я ему сказал, что у меня есть кнопка с таким названием и я её прямо сейчас перед собой вижу, он согласился, что кнопка есть, но посоветовал всё равно что-то невпопад. Тогда пошёл спросил у qwen и он мне с ходу выдал решение моей проблемы.


    1. KonstantinTokar
      15.02.2025 16:55

      В некоторых случаях dipseek лучше оказался чем gptchat. Последний очень сильно фантазирует, например задаю вопрос о устройстве А, даёт ответ похожий на правду. Задаю вопрос тут же о устройстве Б - даёт тоже вроде правиоьной ответ, но в нём упоминается устройство А и в прямо противоположном первому ответу смысле.


  1. KonstantinTokar
    15.02.2025 16:55

    Локально dipseek щапускать практически невозможно. А вот mistral или qwen вполне, они и подобные у меня скоро будут строить переведённое с китайско-английского дерево issue с гитхаба. Каждому инструменту своя ниша.


  1. Albert-X
    15.02.2025 16:55

    Большинство DeepSeek ботов, которые удалось найти через глобальный поиск, либо ограничены (например, дают короткие ответы), либо V3, а не R1


  1. ELForcer
    15.02.2025 16:55

    OpenRouter – это еще один классный сторонний сервис. Но при этом, через него можно программно подключиться к API DeepSeek, причем бесплатно!

    Тем временем:

    По-моему там всё таки не DeepSeek.