У меня школа тестировщиков. SQL — обязательный блок, потому что без него на собеседовании в любую серьёзную компанию делать нечего, и в реальной работе тестировщику регулярно нужно залезать в базу. На рынке уже существуют (хоть и не так много) SQL‑тренажеры, но мне хотелось сделать удобнее и иметь возможность полностью управлять сервисом и адаптировать под наши нужды. Собственно, ниже, моя разработка.
Что хотел сделать иначе
Три вещи, которые меня не устраивали в чужих тренажёрах:
Первое — ограниченный пул задач. Через 50 решённых задач у активного ученика паттерны кончаются. Дальше становится скучно. Решение — сделать так чтобы задачи генерировались бесконечно. Под это подходит нейросеть: даёт ей описание («задача на оконные функции и CTE, 5 таблиц, домен — больница») — она генерит уникальную задачу, которой больше ни у кого нет. И главное — генерит на ту тему, где у конкретного ученика дыра. Если человек плохо решает задачи на window functions — нейросеть штампует ему задачи именно на window functions, пока не научится.
Второе — никто не объясняет ошибку. Когда у тебя запрос не работает, ты должен сам сидеть и угадывать. Сделал AI‑ментора: пишешь свой кривой SQL, нейросеть смотрит на него вместе с условием и объясняет на человеческом языке что не так. Не выдаёт готовый ответ — даёт подсказку уровня «ты потерял GROUP BY, потому что в SELECT у тебя есть агрегат и неагрегированная колонка одновременно».
Третье — нет нормального соревнования. Сделал систему очков («Power») за каждую решённую задачу, рейтинг, и фишку «Топ решений» — после того как ты решил задачу, тебе показывают как другие написали то же самое в три строки вместо твоих десяти. Это даёт смысл идти в задачу повторно — не просто решить, а решить красиво.
Что заняло больше всего времени
Не интерфейс. Не редактор. Грейдер.
Грейдер — это штука, которая определяет, правильное у тебя решение или нет. Звучит просто: запустить твой запрос, запустить эталонный запрос, сравнить результаты. На практике каждое сравнение — это минное поле.
Postgres возвращает числа из NUMERIC‑колонок строками. Поэтому «50.0» и «50.00» — это одинаковые числа, но разные строки. Если сравнивать наивно — валидное решение засчитывается как неправильное.
Если в задаче сказано «отсортируй по дате» — грейдер должен это enforce'ить. А если не сказано — наоборот, не enforce'ить, потому что иначе валидное решение, отсортированное по другому полю, засчитывается как неправильное.
Если задача про DML (INSERT/UPDATE/DELETE), её нельзя запускать в общей песочнице — она портит данные. Нужна отдельная логика.
У нейросети, когда она генерит задачу, есть 100 способов выдать частично‑битый JSON. Например, объявить FK в одном поле и забыть продублировать его в массив связей. Каждый такой случай надо ловить отдельным валидатором, иначе у юзера ломается ERD‑диаграмма.
Каждый из этих кейсов — отдельный баг, который вылезает в проде на реальных учениках, и его надо пойти и починить. На этой неделе я выкатил 13 фиксов за один день — все по таким мелочам.
Что в итоге получилось
Платформа называется SQL Arena. Внутри:
317 курируемых задач, разбитых на четыре трека (для аналитика, для бэкенда, для тестировщика, и подготовка к собеседованиям).
95 задач из реальных собеседований в компаниях (Meta, Microsoft, Amazon, Сбербанк, Яндекс, и ещё 41 компания).
PostgreSQL и MySQL, оба диалекта.
AI‑генерация уникальных задач под слабые темы конкретного ученика.
AI‑ментор, который объясняет ошибки.
Skill Radar — карта твоих сильных и слабых тем.
Бесплатная часть — 200+ задач без AI. Премиум — AI‑генерация, AI‑ментор, разблокировка решений и подсказки.
Что планирую дальше
Дописать трек для DBA (DDL, индексы, EXPLAIN‑анализ, нормализация). Добавить совместный режим — два человека решают одну задачу одновременно, видят прогресс друг друга. Может быть, добавить генерацию задач на основе схемы реальной базы юзера, чтобы тестировщик мог тренироваться прямо на схеме своего проекта.
Если хочется посмотреть как это работает — sql.coderang.dev. Если найдёте баг или у вас есть идея — пишите в комментарии.
Комментарии (13)

li_bao
29.04.2026 09:04На телефоне если текст задачи большой, невозможно его поднять вверх чтобы увидеть вкладки код, результат и пр (внизу). Первые задачи так и промотал, не поняв что надо делать

Пример

ivandev2
29.04.2026 09:04интересный проект! Однако при просмотре возникло стойкое чувство дежавю. Интерфейс, структура задач и общая логика до боли напоминают SQL Academy.
Подскажите, вы вдохновлялись ими или это какой-то совместный проект/форк?

OWIII Автор
29.04.2026 09:04Раньше мы активно пользовались их тренажером в нашей школе - очень удобный. Поэтому да, вдохновлялся однозначно.

Akina
Для проверки требуется регистрация. Обязательно. Иначе не работает. Хоть бы обмолвились о том..
Совершенно безобразно работает с алиасами. Точнее, просто игнорирует их, и всё рвётся вместо присвоенных алиасов таблиц воткнуть полное исходное имя. Из-за чего просто невозможно нормально вводить текст.
OWIII Автор
Здравствуйте! Регистрацию пока оставим, а вот алиасы проверю и починю сегодня, спасибо за обратную связь!
Akina
Нет, я понимаю, когда регистрация позволяет сохранять прогресс и черновики. Но почему нельзя без регистрации сделать просто проверку составленного запроса на соответствие заданию, или хотя бы результата на соответствие эталонному, пусть и на единственном наборе исходных данных? Сейчас же получается, что либо ты регистрируешься, либо тренажёр для тебя в принципе бесполезен.
И вопрос - проверка результата выполняется на единственном наборе исходных данных, или имеется несколько наборов для финальной проверки, которые содержат всякие "выпендрончики" и соответственно дадут отрицательный результат проверки, если обучаемый не учёл какие-то особенности задачи (выбрал неверный тип связывания, не учёл возможного отсутствия связанных записей, наличия NULL и пр.)?
OWIII Автор
Пункт-2 - исправлено