В течение нескольких дней я потратил значительную часть своего времени на то, чтобы опробовать новый китайский ИИ-чатбот Deepseek R-1. За последние несколько дней он привлек к себе много внимания, и на то есть веские причины: чатбот действительно способный - иногда даже лучше, чем ChatGPT. И он дешевый. Очень дешевый.
Несмотря на то, что он появился относительно недавно, он уже успел зарекомендовать себя в сфере ИИ как рассуждающая модель с открытым исходным кодом. По многим показателям производительность находится на одном уровне с моделью o1 от OpenAI, а стоимость постоянного использования чата и API значительно ниже, чем у конкурентов.
Как человек, который любит пробовать новейшие ИИ-инструменты, я сразу же приступил к работе и пользовался Deepseek R-1 в течение нескольких дней. Удивительно, но он ни разу не завис, не тормозил и, что еще более удивительно, ни разу не попросил меня купить подписку и не сказал, что я превысил свой ежедневный лимит использования.
Что такое Deepseek R-1?
Deepseek R-1 - это новейшая рассуждающая модель от китайской ИИ-лаборатории DeepSeek. Она имеет полностью открытый исходный код, то есть любой желающий может взять базовую кодовую базу, адаптировать ее и даже доработать под свои нужды.
С технической точки зрения Deepseek R-1 (или просто R1) базируется на большой базовой модели под названием DeepSeek-V3. Затем лаборатория усовершенствовала эту модель с помощью комбинации контролируемой тонкой настройки (SFT) на высококачественных данных с человеческими метками и обучения с подкреплением (RL).
Также они представили такие вариации, как R1-Zero, которая обходится без данных тонкой настройки с человеческими метками и пытается научиться «рассуждать» исключительно с помощью RL и «вычислений в тестовом времени».
Тот факт, что Deepseek обнародовала эти модели и подробный технический отчет, говорит о желании поделиться полученными знаниями, что делает их интригующим примером для других ИИ-лабораторий, которые держат внутренние исследования под строгим секретом.
Что еще более удивительно, так это то, что эта модель на самом деле появилась как побочный проект, чтобы использовать дополнительные графические процессоры.
Если серьезно, то эти инженеры безумно хороши. Побочный проект, который теперь конкурирует с языковыми моделями стоимостью в миллиард долларов? Это не просто впечатляет, это гениально. Это тот вид изобретательности, который заставляет задуматься, подают ли в их кафетерии креатив на завтрак.
Как Deepseek R-1 по сравнению с o1
Итак, как же Deepseek R-1 конкурирует с o1 от OpenAI и другими ведущими моделями?
Короткий ответ: очень хорошо.
Собственные бенчмарки Deepseek показывают, что R1 и o1 находятся примерно на одном уровне во многих категориях, от математики (например, бенчмарк AIME) до задач программирования (например, Codeforces) и даже продвинутых наборов QA, таких как GPQA Diamond. На самом деле, разница в производительности часто составляет всего несколько процентных пунктов.
Другие крупные игроки, такие как Gemini 2.0 от Google и Claude 3.5 от Anthropic, также вступают в борьбу. Некоторые тесты показывают, что эти модели находятся на одном уровне производительности с o1, но преимущество R1 в стоимости и доступность открытого исходного кода делают ее сильным соперником.
Если учесть, что цена токена R1 в 30 раз дешевле, чем у o1, многие разработчики и опытные пользователи обратили на нее пристальное внимание.
Вот сравнение моделей DeepSeek-R1-Zero и OpenAI o1 в бенчмарках, связанных с рассуждениями.
Когда в бенчмарке AIME используется мажоритарное голосование, производительность DeepSeek-R1-Zero возрастает с 71,0 до 86,7 %, превышая показатели OpenAI-o1-0912.
Подробнее о технических характеристиках DeepSeek R1 можно узнать здесь.
R1 - это очень дешево
За все время, что я пробовал чатбота на chat.deepseek.com, я ни разу не столкнулся с оплатой или лимитом использования. Возможно, у Deepseek есть скрытый лимит использования, но если это так, то я его не достиг.
Кроме того, он совсем не тормозил. Многие ИИ-чаты могут снижать производительность, если вы пытаетесь слишком сильно их нагрузить или входите в систему в часы пик. R1 работал быстро от начала и до конца.
Но предположим, что вы разработчик или основатель стартапа, желающий интегрировать большую языковую модель в свой продукт. Пока что модели OpenAI серии o1 или GPT стоят первыми в списке лучших вариантов, но стоимость API может быстро увеличиться. Согласно данным Deepseek, вы можете использовать API R1 за сумму, в разы меньшую, чем вы заплатите OpenAI.
? $0,14 за миллион входных токенов (попадание в кэш)
? $0,55 за миллион входных токенов (пропуск кэша)
? $2,19 за миллион выходных токенов
Токен вывода почти в 30 раз дешевле, чем токены вывода o1 стоимостью 60 долларов за миллион. Это огромное сокращение расходов для компаний, занимающихся крупномасштабными ИИ-операциями.
Посмотрите на это визуальное сравнение моделей R1 от DeepSeek и OpenAI.
Время покажет, долго ли продержатся бесплатные предложения Deepseek для постоянных пользователей чата. Большой наплыв новых пользователей может создать большую нагрузку на серверы, и типичная бизнес-логика подскажет: «Теперь нужно монетизировать». Но пока R1 остается бесплатной для повседневного использования.
Доступ к API DeepSeek R1
Перед тем как выдать ответ, модель генерирует цепочку мыслей (CoT), чтобы повысить точность своих ответов. API позволяет пользователям получить доступ к этому содержимому CoT, что дает возможность просматривать, отображать и анализировать процесс рассуждений, лежащий в основе ответов модели.
Вот пример на Python, показывающий, как использовать API для одно- и многораундовых бесед:
from openai import OpenAI
# Initialize the client
client = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.deepseek.com")
# Round 1
messages = [{"role": "user", "content": "9.11 and 9.8, which is greater?"}]
response = client.chat.completions.create(
model="deepseek-reasoner",
messages=messages
)
# Access the reasoning and final answer
reasoning_content = response.choices[0].message.reasoning_content
content = response.choices[0].message.content
# Print outputs
print("Reasoning:", reasoning_content)
print("Answer:", content)
# Round 2
messages.append({'role': 'assistant', 'content': content})
messages.append({'role': 'user', 'content': "How many Rs are there in the word 'strawberry'?"})
response = client.chat.completions.create(
model="deepseek-reasoner",
messages=messages
)
# Access and print results for Round 2
reasoning_content = response.choices[0].message.reasoning_content
content = response.choices[0].message.content
print("Reasoning:", reasoning_content)
print("Answer:", content)
Прежде чем использовать DeepSeek-Reasoner, убедитесь, что у вас установлена последняя версия OpenAI SDK:
pip3 install -U openai
Вот параметры API:
max_tokens (входной параметр) устанавливает максимальную длину финального ответа после генерации CoT. По умолчанию - 4 000 токенов, максимум - 8 000 токенов.
reasoning_content (выходной параметр) - процесс рассуждения (CoT), доступный как часть выводимой структуры.
content (выходной параметр) - окончательный ответ, выданный моделью.
Что касается длины контекста, API поддерживает максимальную длину контекста в 64 000 токенов. Однако содержимое reasoning_content не учитывается в этом лимите, что позволяет проводить обширные рассуждения без ущерба для контекста.
Следует иметь в виду несколько моментов:
Чтобы обеспечить бесперебойную работу API, при отправке нового запроса удалите поле reasoning_content из входных сообщений.
CoT позволяет пользователям получить более глубокое представление о процессе рассуждений модели, что делает его ценным инструментом для исследований и анализа.
В целом DeepSeek R-1 - мощная, быстрая и дешевая - это качества, которые могут изменить рынок и вызвать появление совершенно новых видов продуктов на базе ИИ. Помимо непосредственного восторга от появления нового способного чатбота, появление R1 подчеркивает более глубокий и сложный сюжет в ИИ-сообществе: гонка за ИИ и меняющийся баланс между Китаем и США.
Недавно Сэм Альтман столкнулся с обратной реакцией. Он, как известно, колеблется между тем, чтобы превозносить AGI как следующее большое экзистенциальное событие, и тем, чтобы призвать всех успокоиться, потому что AGI не появится так быстро, как мы думаем.
Однако темпы прорыва ИИ, похоже, не позволяют успокоиться. С выходом Deepseek R-1 мы видим, насколько непредсказуема эта область. Не только «большая тройка» (OpenAI, Google, Anthropic) может создавать высококлассные модели. Более мелкие или менее известные игроки могут появиться из ниоткуда и выпустить на рынок модель уровня o1.
Соперничество между Китаем и США в области развития ИИ также становится все более интригующим. Deepseek показала, что возможно при более открытом и прозрачном подходе. Является ли эта прозрачность и дешевизна модели стратегическим бизнес-ходом, философской позицией в отношении ИИ как общественного блага или политическим преимуществом, пока неясно.
Вы можете бесплатно пообщаться с DeepSeek R-1 на chat.deepseek.com или изучить документацию по API здесь. Бенчмарки, технические подробности и файлы для загрузки моделей можно найти в репозитории на GitHub.
Друзья, буду рад, если вы подпишетесь на мой телеграм-канал про нейросети, чтобы не пропускать анонсы статей, и про генерацию изображений - я стараюсь делиться только полезной информацией.
Комментарии (65)
Airat007
27.01.2025 18:241 трлн потеря рынка в США на фоне этой новости. НВидеа упала бллее чем на 15%, деньги голосуют
CBET_TbMbI
27.01.2025 18:24Нвидиа так раздута, что эти 15% теряются на общем фоне. Чтобы вернуться к курсу, который был год назад, им ещё в 2 раза надо упасть. А чтобы вернуться к курсу 2-летней давности надо упасть в 5 раз
opusmode
27.01.2025 18:24Nvidia уже второй или третий раз за год упала более чем на 15%. При этом за два года выросла более чем в 2 раза.
Не переоценивайте, они отрастут обратно и в гору пойдут. Сама же nvidia буквально в сентябре падала почти на 10%, установив рекорд за одну торговую сессию. И с того момента выросла почти в 1.5 раза.
Все делают вид, будто произошло что-то невероятное, хотя просто посмотрите на графики, рынок колбасит, там раз в месяц такие падения. Сейчас они на уровне 2024 года
А вот что реально важно, так это то, что у них через месяц отчётность за последний квартал 2024 года. Если там всё норм, то они дальше попрут. А ведь это даже без Blackwell 2.0, которые только вышли
Hardcoin
27.01.2025 18:24Цена основана на ожиданиях. Если китайцы смогут сделать свое оборудование для чипов на уровне, nvidia станет одной из многих.
blaze79
27.01.2025 18:24они тренировали ее на оборудовании nvidia, оптимизировав софт с уменьшением обмена между gpu. потратили 6 лямов на обучение
unreal_undead2
27.01.2025 18:24Только как появление софтовой модели связано c производством чипом и литографией?
SevAnt
27.01.2025 18:24Есть мнение что теперь чипов надо будет меньше, или китайцы будут отдавать предпочтение своим чипам
unreal_undead2
27.01.2025 18:24Чипы всё равно купят все, которые есть на рынке, просто использовать будут больше. Китайские чипы - отдельная тема, но по ним пока таких громких новостей нет.
Okeu
27.01.2025 18:24может проблема в инвестициях? Инвесторов кормят тем что "вот прямо сегодня надо ввалить сумму, чтоб завтра нарастить чипов, без которых сверхИИ невозможен" и тут китайцы за копейку вываливают опенсурс)
Т.е. продавать обещания становится сложнее.
opusmode
27.01.2025 18:24Вы говорите о классическом рынке. В последние 5 лет цена основана ни на чём, это казино. И рынком очень неплохо магипулируют.
Ну и про «если» - да, верно, если Китайцы сделают. Если Вася сделает чип из зубочисток, размером со спичечный коробок, который будет выдавать мощности топовых суперкомпьютеров, он поработит мир. Проблема в том, что Китайцы в реальности всё никак не выкатят хоть чего-то стоящего или даже сопоставимого
Ingref
27.01.2025 18:24У NVIDIA заказов на чипы - на годы вперёд. И те, кто это понимает, сейчас с ухмылкой потирает руки и скупает временно подешевевшие акции. Народ не догоняет, что ребята из DeepSeek просто спарсили ответы о1 и засунули их в Reinforcement Learning. Потому что СМИ это подают как "супер-пупер китайские технологии". Короче, цирк :)
Pilotv
27.01.2025 18:24Я так понимаю у товарищей с цитатами внизу не хватило в отличие от Вас познаний в предметной области и поэтому они купились на дешевый цирк. Спасибо что открываете глаза сообществу.
Джим Фань, старший научный сотрудник Nvidia, назвал отчет DeepSeek о результатах прорывом. Он написал в X, что она напомнила ему о ранних новаторских программах, которые научились играть в шахматы «с нуля, без подражания человеческим гроссмейстерам».
Зак Касс, бывший руководитель в OpenAI, отметил, что прогресс DeepSeek, несмотря на американские ограничения, «подтверждает более общий урок: нехватка ресурсов часто побуждает креативность».
Ingref
27.01.2025 18:24Прорыв в том, что RL даёт результаты. Вот только этот RL было бы не на чем осуществлять, если бы не было о1. Прорыв в улучшении эффективности. И это никак не бросает тень ни на OpenAI, ни уж тем более на NVIDIA. Потому что дефицит вычислительных мощностей от этого прорыва никуда не делся. Просто китайцы сделали то, что они умеют делать лучше всего, - скопировали уже созданное с чуть похуже качеством, но существенно дешевле.
Hardcoin
27.01.2025 18:24Дело не в тени на nvidia, а в том, где покупатели GPUs будут брать деньги на покупку. Интересно было бы взглянуть на объемы платных запросов к OpenAI, как быстро они падают.
logran
27.01.2025 18:24Прорыв в том, что RL даёт результаты. Вот только этот RL было бы не на чем осуществлять, если бы не было о1.
Да-да. Обучили путем RL на рассуждениях, взятых из o1. Вот только о1 не выдает рассуждений, лишь ответы (примерно как старые модели). Упс...
CoT для этих ответов кто-то писал. И основная синтетика в DeepSeek идет от Claude (благодаря чему он пишет не настолько адски уныло как GPT).
Про перечень заметных (и весьма значимых) архитектурных улучшений в сравнении с другими модельками (включая ClosetAI) конечно же тоже забудем, иначе в устаревшие байки про копирование не впишется...Ingref
27.01.2025 18:24Честно говоря, я когда тот коммент писал, то предполагал, что о1 выдаёт рассуждения. Сейчас проверил - оказывается он выдаёт не рассуждения, а краткий пересказ этих рассуждений (если нажать на плашку с временем генерации).
В общем, китайцы сделали так:
1) Обучили базовую модель DeepSeek-V3 на ответах GPT-4. Как только модель зарелизили, она отвечала, что "это GPT-4 от OpenAI" (забыли почистить).
2) Применили к базовой модели RL с таким шаблоном:
3) Получили промежуточную рассуждающую модель DeepSeek-R1-Zero.
4) Сгенерировали этой моделью 800 000 рассуждающих ответов (почистив от мусора).
5) Запустили файнтюнинг DeepSeek-V3 на полученных в предыдущем шаге ответах.
6) Применили к полученной модели RL и получили итоговый DeepSeek-R1.
Hardcoin
27.01.2025 18:24Что мешает openAI "спарсить" свои же ответы и сделать свое апи в 30 раз дешевле? Как они будут окупать следующую разработку, если для прорыва им нужно 100 миллиардов (первый этап старгейта), а китайцы за миллиард и два месяца "спарсят ответы"?
kenomimi
27.01.2025 18:24Будут урезать бонусы топов до уровня китайцев, маркетинговые расходы, бюрократию, диверсити, и прочую дребедень, которая бессмысленно выжирает львиную долю бюджета. Ровно та же история, что с Маском, который показал, что ракета летает и без ежемесячной покупки логотипов на майке футболиста за миллион евро каждый... Добро пожаловать на открытый рынок, хватит сидеть в теплом загончике.
ionicman
27.01.2025 18:24Народ не догоняет, что ребята из DeepSeek просто спарсили ответы о1 и засунули их в Reinforcement Learning
А что-ж тогда сами OpenAI "просто" не спарсили свои собственные ответы и не засунули их туда же?
А если уж обвинять - так и Open AI точно также парсерил все, да чего мог дотянуться.
Я не очень понимаю смысла с обвинениями китайцев в этом разрезе.
Они реально сделали крутую сеть, забравшись на ступеньку выше и, в отличии от OpenAI, дали возможность использовать ее локально.
ИМХО - молодцы.
gfiopl8
27.01.2025 18:24Дали возможность использовать ее локально тому у кого есть 400гб лишней видеопамяти, то есть примерно никому вообще?
ionicman
27.01.2025 18:24Серьёзные вещи требуют серьёзной техники в айти, и это нормально.
Во-первых сетка только заработала и ее тюнят, вполне возможно что после тюнинга, тем более это можно делать с открытыми продуктами куда эффективней - требования понизятся.
Во-вторых сама возможность это сделать куда лучше полностью закрытого контура.
В-третьих кому нужно будет - запустят, не волнуйтесь.
xsevenbeta
27.01.2025 18:24На околотоп видеокарте можно запустить на 32b, которая как пишут в комментах уже вполне рабочая и которая оперативно отвечает.
Сетка на 70b тоже вполне уровень ИИ энтузиаста - две топ.видеокарты.Moog_Prodigy
27.01.2025 18:24Запускал 70b на cpu и 64gb ram. Жутко медленно. Но работает!
Хотя для оперативности мне пока хватает 14b, 70b - это заранее подготовленный промт и идти спать. По меньшей мере клиент-серверное приложение "простой мессенджер для локалки" оно накарябало мне за 10 часов. Не то, чтобы в этом была необходимость, просто хотел сравнить качества ответов разного размера моделек именно для локального применения.
logran
27.01.2025 18:24Дали возможность использовать ее локально тому у кого есть 400гб лишней видеопамяти, то есть примерно никому вообще?
Куче частных мелких AI-лаб и лаб при университетах. Куче хостящих модели стартапов. Да и просто челики с 4x A100 и 8x A40/A6000 сборками дома в подвале на реддите тоже не редкость.
400 гб это на самом деле всего лишь 5 A100 т.е примерно около 100к USD, что по факту не так уж и неподъемно даже для частнтго лица (для организации и подавно). А модель ведь можно и квантованную запускать + она MoE т.к сама по себе не прожорливая и для не многопользовательских нужд вполне потерпит и частичный оффлоадинг в 12-канальную DDR5 с сохранением на GPU активных экспертов.
Ingref
27.01.2025 18:24А что-ж тогда сами OpenAI "просто" не спарсили свои собственные ответы и не засунули их туда же?
Они так и сделали, когда спарсили GPT-4 и сделали из него GPT-4o (у которого рабочее название было "gpt2-chatbot"). И техдир Майкрософта открыто говорил о резком удешевлении:
Просто в этот раз то же самое сделали китайцы. И да, они молодцы. Но только не в том смысле, в котором об этом трубят в СМИ.
kody_maverick
27.01.2025 18:24Есть кто-нибудь кто пробовал пополнять API у DeepSeek? Просит номер телефона иностранной карты, в отличие от OpenAI
rezdm
27.01.2025 18:24Просто оставлю это тут:
bulatsir
27.01.2025 18:24На русском забыли зацензорить (пример ниже вчерашнего ответа, чат которого сегодня был удален), иногда отвечает, но иногда срабатывает цензура и отвечает как комсомолец
>После подавления протестов в Китае была усилена цензура, а многие участники демонстраций были арестованы или подверглись преследованиям. События на площади Тяньаньмэнь стали символом борьбы за демократию и свободу в Китае, но также и примером жесткого подавления инакомыслия со стороны властей.
RRRRRR7
27.01.2025 18:24Ёмко )) только что повесил чат задавая вопросы по онкологии )) просто перестал отвечать, пришлось перезапустить ))
Dynasaur
27.01.2025 18:24Китайцы внезапно уравняли всех в доступе к ИИ
Hardcoin
27.01.2025 18:24Не кажется ли вам стыдным просто копировать сюда неправильный ответ, не проверяя его самостоятельно?
Dynasaur
27.01.2025 18:24Не кажется ли вам конструктивнее предложить свой правильный ответ, чем переходить на скандальный тон? У меня нет свободной NVIDIA A100, чтобы проверить самостоятельно, как вы хотите.
Постыдного в копировании чужого ответа нет ничего, я же не выдаю его за свой. Чужое мнение может быть и не правильным.
Hardcoin
27.01.2025 18:24Постыдное в копировании чужого мнения как раз есть. Вы ведь не посмеялись над странным ответом, а стали на него ориентироваться. Если вы будете пересказывать другим чужое мнение, что гомеопатия работает, а Землёй управляют рептилоиды, разве это не будет стыдно? Будет конечно.
Везде каждый раз повторяют, что верить нейросетям на слово нельзя, а вы взяли и с первого чиха поверили.
NVIDIA A100 вам не нужна для проверки.
Я не буду поддерживать позицию "напишу неправильно, кто-то обязательно опровергнет и скажет ответ". Если бы вам было нужно, вы бы спросили или поискали. Если хотите, можете верить всему подряд, дело ваше.
unreal_undead2
27.01.2025 18:24Китайцы внезапно уравняли всех в доступе к ИИ
Но при этом в первую очередь советуют железо от NVIDIA.
Elpi
27.01.2025 18:24Любят у нас раздувать ажиотаж. Возможно, по техническим параметрам это хорошая модель. Но мне без разницы, мне важна способность не врать и как-то имитировать рассуждения.
*
Два дня общался с этой моделью (с включенным режимом DeepThink). Сравниваю для себя с Perplexity, с которой общался на эти же темы.
*
По ощущениям DS получше будет. Бойкая до наглости, быстро меняет стиль общения. Но по сути, к сожалению, не лучше. В философско-психологической тематике на уровне начетчика. Шпарит длиннющие тексты (без указания источников) на уровне церковно-приходской школы.
*
Имеет твердые идеологические рамки и исходные аксиомы. Например, доказывала мне, что важно быть нахрапистым и наглым в битве за доступ к кормушке. Ценность, мол, базовая.
*
Этот "ход мыслей" (СоТ) ценностью не является. Убогое изложение общих лозунгов на примитивном уровне.
*
С апломбом говорит глупости (по сути дела). И в порядке шутки уверяет, что "абсолютно уверен" (!).
*
Т.е. качественного прорыва не увидел. То, что процессы быстро развиваются - это хорошо. Будем посмотреть.
amazingname
27.01.2025 18:24Помню, для сравнения моделей придумал абсолютно левый случайный вопрос, на который модели вряд-ли сильно обучались:
"Что будет, если в полость цилиндра двигателя внутненнего сгорания поместить достаточно объемный посторонний предмет так, чтобы он не мешал движению поршня или работе свечи?"
До сих пор все модели кроме GPT 4/4o были не сильно на высоте. Был в шоке, что deepseek отвелила лучше чем 4o.
Neconas
27.01.2025 18:24Народ, а что за баг с deepseek. Пытаясь понять какой версией пользуюсь, спрашивал ее точное название. И в одном диалоговом окне оно утверждает что является chatgpt от open ai. В других что он deepseek. Пробовал и в браузере и в приложении в этом диалоговом окне снова переспрашивать. Упорно отвечает, что является chatgpt. У нее самой идей мало почему так, от возможности левого скачанного приложения(что точно не так) до использования deepseek api от open ai. Мне просто повезло на баг наткнутся или тут что то не так?
kekusprod
27.01.2025 18:24Это не баг, просто тренировка, судя по всему, проводилась на ответах чатгпт.
Версию можно посмотреть на гитхабе
kekusprod
27.01.2025 18:24Не знаю, почему его ставят в один ряд с о1, входной промпт, скажем, код в 500 строк режет безбожно, как то рандомно выбирает несколько коротких кусков из всего кода, и на основе этого выдает не менее урезанный ответ. Даже если просто попросить его сделать программу, которая делает красиво по нажатию одной кнопки, если в этой программе будет больше двух функций - начинает резать. А если нужно что-то не совсем уж примитивное сгенерировать, то я даже не знаю, это и не запустить тут же, потому что огромного куска кода ДС предпочел просто не писать, и для себя нового не подчеркнуть, по той же причине. При этом уверенно утверждает, что выдал полный код) И это несмотря на заявления, что он на вход может 128к токенов принимать!!
Разницы в локалке(32b) и через их сайт - не увидел, разве что в качестве ответа. o1 же на их фоне способен за раз обрабатывать большой код, давал ему на 2000 строк, задавал промпт, и он мне выдавал рабочий результат, даже не сойдя с ума!
Так что хайп вокруг модели очень сомнительный. Дешёвый? Да. Открытый? Да. Молодцы. Однако в остальном он проигрывает. Все эти тесты как будто ничего общего с реальностью не имеют, если в этих тестах конечно не совсем уж простые и примитивные задачи..
ash_lm
27.01.2025 18:24За все время, что я пробовал чатбота на chat.deepseek.com, я ни разу не столкнулся с оплатой или лимитом использования. Возможно, у Deepseek есть скрытый лимит использования, но если это так, то я его не достиг.
Да собственно про все ограничения можно его и спросить. Он отвечает. Даже советует как обходить лимиты.
Zoizenhofer
27.01.2025 18:24Не могу сравнить с платными и крутыми LLM, но это первая из доступных, которая сказала, что не может мне помочь с поиском стоп крана на мусорном баке, потому что обычно они таким не оснащены. А в размышлениях усомнилась, что я задаю адекватный вопрос
Marsezi
27.01.2025 18:24А где инструкция скачать в докере в 1 клик и использовать как api локально ?
Сколько она весит ?
halted
уже завален запросами
NeyroEntuziast Автор
За ночь починят. Китайцы - работящие и старательные. Думаю, они сами не ожидали такого резонанса и наплыва пользователей
avshkol
Он с субботы испытывает перегрузки трафика... по крайний мере, при работе с большими pdf постоянно получал такой ответ...
Advisory
За последние 18 часов ничего не изменилось. Но иногда срабатывает в другой сессии, если отключить «рассуждения».
Alex82901
У них Новый Год..