Я протестировал 3 китайские LLM — теперь боюсь, что GPT в опасности.

Отличительная особенность большинства китайских моделей, что они бесплатные. Сегодня я хочу провести субъективный обзор трёх главных китайских моделей и понять, что лучше использовать и в каких задачах.

⚠️ Это не научная статья, а честный отзыв пользователя

Кто эти ребята вообще?

Кратко про сегодняшних бойцов:

  • DeepSeek‑R1 — стартап‑ракета с архитектурой MoE (Модель состоит из тысяч "экспертов" - на каждый запрос активируется только часть из них), обучался за $5.6 млн, open-source, мощный reasoning.

  • Qwen 2.5/3 — разработка от Alibaba, максимально стабильная, отлично пишет код и решает задачи, поддержка 29 языков (сам генерил на 8 языках, лучше Gemini справляется).

  • Baidu ERNIE 4.5 / X1 — мультимодальный босс, который умеет думать, видеть, слушать (как заявляет производитель).

Сравнительная таблица

Модель

Архитектура

Параметры

Контекст

Open-source

? Тупость

DeepSeek‑R1

MoE

685B / 37B актив

128K

? бывает

Qwen 3

MoE

235B / 22B актив

128K

? низкая

Baidu ERNIE X1

MoE

424B / 47B актив

до 128K

? бывает

Вывод: Все три модели — мощные и open-source с большим контекстом (128K), но Qwen выигрывает по стабильности: у него меньше «тупости» и более предсказуемое поведение из коробки. DeepSeek и ERNIE — сильные, но могут залипать.

Реальный опыт (моё тестирование)

ИИ‑модели — это, конечно, архитектура, бенчмарки и графики…
Но в проде тебе важно другое: умеет ли она кодить, решать задачи и хотя бы не тупить на базовые запросы.

Поэтому я протестировал каждую модель на трёх типовых сценариях (везде использовал reasoning):

  1. Генерация кода: попросил написать Python‑функцию с рекурсией (на примере вычисления факториала).

  2. Решение задачки: дал логическую или арифметическую задачу («У Пети было 12 яблок. Он дал 3 яблока Васе, но потом Вася вернул ему половину того, что получил. После этого Петя купил ещё 4 яблока в магазине, но по дороге домой потерял. Затем он решил поделить оставшиеся яблоки поровну между собой и своим братом. Сколько яблок досталось брату?»). Правильный ответ - 5,25 яблок

  3. Креатив: сгенерировать пост для Telegram‑канала (на заданную тему, с тоном и стилем).

    Фиксировал:

    • как быстро отвечает

    • насколько результат осмыслен

    • были ли тупняки / залипания / отказы

    • и конечно: удивил или разочаровал?

Deepseek

Генерация кода

Модель справилась уверенно:

  • мгновенный отклик

  • рекурсивная функция написана верно

  • комментарии на русском (!), с пояснениями и примерами

Python-функция от DeepSeek
Python-функция от DeepSeek

Решение логической задачи

Вот тут интереснее. Задача была с подвохом — правильный ответ 5.25 яблока. DeepSeek сначала впал в ступор:

 Первая попытка — залипание в рассуждениях
Первая попытка — залипание в рассуждениях

Но на второй попытке выдала всё правильно — с пояснениями и расчётами:

Правильное решение от DeepSeek
Правильное решение от DeepSeek

Креативная задача

Попросил сделать пост в формате SMM-креатива про нейросети в digital-маркетинге.

Результат:

Открывашка бодрая, формат соблюдён, эмодзи расставлены (многовато), абзацы структурированы.
Даже мемчики в конце подогнал.
Единственное, слишком длинный текст для такого поста (хотя я говорил 2-3 абзаца)
— Честно? Сходу можно публиковать, но я бы доработал промпт или текст руками

TG-пост от DeepSekk
TG-пост от DeepSekk

Вывод по DeepSeek: Reasoning чувствуется. Код — уверенно. Посты — на 4. Иногда впадает в «рассуждательную петлю» и уходит в абстракции. В целом - доволен.

Qwen

Генерация кода

Ответ — быстрый, уверенный и приятно оформленный.
Модель сразу выдала корректную рекурсивную функцию с проверкой на отрицательные значения.

Особенно понравилось:

  • краткий и читаемый комментарий

  • вывод через f-строку — мелочь, а приятно (хотя не просил об этом)

Python-функция от Qwen
Python-функция от Qwen

Решение логической задачи

Увы, тут Qwen не справился.

Модель явно не хотела работать с дробями и округлила в пользу целых чисел, в результате получив 6 вместо 5.25.


Она буквально написала:

«Для получения целого числа в ответе логично предположить…»

Ошибка в решении логической задачи от Qwen
Ошибка в решении логической задачи от Qwen

Не то чтобы тупняк — скорее, отказ от сложной логики в пользу «поскорей сдать ответ». → Подходит ли это для reasoning? Вряд ли.

Креативная задача

Вот тут Qwen порадовал. Пост средней длины, структурный. Хорошо понял тональность: digital‑вайб, маркетинг, человеческий стиль.

Пост для Telegram от Qwen
Пост для Telegram от Qwen

Вывод по Qwen: Модель подходит для повседневных задач — генерить текст, писать код, делать шаблоны. Но если задача нестандартная (дроби, логика, подковырки) — лучше перепроверить или в промпте задать примеры.

Baidu ERNIE

Генерация кода

Функция факториала — классика, и ERNIE с ней справилась спокойно. Выдала правильный код, аккуратный формат, корректная обработка исключений. Без комментариев, но всё работает.

Python-функция от Baidu
Python-функция от Baidu

Решение логической задачи

И вот тут ERNIE неожиданно порадовал: единственная модель, которая справилась с первого раза и выдала корректный ответ — 5.25 яблока — с пошаговым объяснением и чистой логикой.

Решение логической задачи от Baidu с reasoning
Решение логической задачи от Baidu с reasoning

Креативная задача

Тут, увы, Baidu справился хуже всех.

  • Пост получился слишком длинным,

  • почти каждое предложение — с обязательным «нейронные сети» (ощущение, что он продвигает их по KPI)

  • читается тяжело, нет ритма и акцентов, хотя вроде старается быть «маркетинговым»

Пост для Telegram от Baidu
Пост для Telegram от Baidu

Вывод по Qwen: ERNIE — это логик, а не креатор. Отлично подойдёт для аналитических задач, структурных расчётов, но если ты ищешь помощника по копирайтингу — ERNIE из коробки не вывозит.

Бенчмарки

Что показывают официальные метрики:

Модель

MMLU (логика)

GSM8K (арифметика)

HumanEval (код)

DeepSeek‑R1

90.8%

95.03%

65.9%

Qwen 3

83.7%

95–96% (4B, 8B)

~82%

Baidu ERNIE X1

86.5%

До 92%

92.1%

Если смотреть только на метрики:

  • DeepSeek‑R1 показывает топовый уровень по логике (MMLU) и арифметике, но проседает по коду.

  • Qwen 3 уверенно лидирует в кодинге (HumanEval) и на равных по GSM8K, хотя логика чуть слабее.

  • Baidu ERNIE X1 — неожиданно сильный по HumanEval (код!), но остальное на среднем уровне.

Но! Метрики ≠ удобство. На практике всё зависит от задач и того, как ты общаешься с моделью.

Что выбрать в 2025?

DeepSeek

  • Удобный интерфейс

  • Есть мобильное приложение

  • Бесплатный

  • Работает стабильно

Qwen

  • Тоже бесплатный и удобный

  • Есть мобилька

  • Самое главное — можно выбрать модель под задачу: от лёгких до больших (2B → 72B)

  • Универсальный вариант: от кода до креатива, работает как швейцарский нож среди ИИ.

Baidu ERNIE

  • Интерфейс по умолчанию на китайском ? Можно переключить на английский

  • Модель понимает русские промпты

  • Крутой reasoning и код, но UX хромает. Не для всех.


? Личное мнение:

Мои два фаворита — Qwen и DeepSeek.
Они оба бесплатные, с удобным доступом, быстро справляются с базовыми задачами.
А если нужно что-то нестандартное — всё упирается не в модель, а в промпт и формулировку задачи. На данный момент больше пользуюсь Qwen

Baidu ERNIE тоже достоин внимания, особенно если вы готовы мириться с интерфейсом «через китайский/английский». Под капотом он умный — просто не всегда дружелюбный.

Заключение

Это моя первая статья на Habr, поэтому строго не судите :-)

Если пробовали китайские LLM — напишите в комментах, кто вам понравился и почему. Возможно кто-то тестил: GLM, Doubao, Yi — дайте знать, как они!

Комментарии (28)


  1. Alexander428
    03.08.2025 19:41

    Простоваты задачки, выборки маловато. А тема интересная.

    Интересно посмотреть как модели справятся с написанием класса скажем динамического массива (Java ArrayList на основе Object[T] и сравнить со стандартной реализацией)

    Интересно посмотреть какие нибудь задачки скажем из ЕГЭ по матеше, химии. Есть детективные игры, можно дать модели сыграть.

    С текстами в принципе хорошо, хоть оценивать качество можно лишь субъективно.

    Удачи на Хабре!


  1. Fardeadok
    03.08.2025 19:41

    Это забавно что автор не догадался попросить ИИ придумать сложные задачи


    1. kracko23
      03.08.2025 19:41

      а что если вся статья придумана ИИ?...