Привет, меня зовут Кирилл! Мы с друзьями давно увлекаемся идеями и экспериментами «в стол». Знакомо, когда возникает куча интересных мыслей, но потом они теряются, потому что сложно понять — кому это на самом деле нужно?

Почему LLM плохо справляются в одиночку
Всё началось с попытки доверить проверку гипотез нейросетям — ChatGPT, Gemini, Grok, локальной Llama. Первые результаты были... предсказуемыми: отдаёшь им сырую идею — получаешь «золотой билет» и обещания самолёта из Sequoia Capital. То, что всё будет хорошо — вне зависимости от качества запроса. Но ситуация изменилась, когда мы дали моделям «поспорить» между собой. Выяснилось, что каждая LLM эксперт в своей области — маркетинг, финансы, технология. Если объединять отзывы и задавать уточняющие вопросы, получается уже не односложное «вау!», а структурированный, критичный и дельный анализ.
Как мы проверили — примеры
Мы проверили это на основе фреймворков, которые хорошо знакомы стартаперам:
SWOT-анализ — сильные и слабые стороны, риски и возможности
PEST-анализ — политические, экономические, социальные и технологические факторы
VRIO — устойчивое конкурентное преимущество
Анализ Портера — оценка конкурентной среды
Примеры итоговых отчётов ниже — зайдите и посмотрите прямо на нашем сервисе:
То, что эти инструменты в тандеме с нейросетями действительно работали — нас здорово порадовало. Появились инсайты, которые мы сами бы никогда не придумали! Это не просто красиво оформленные отчёты — они реально помогают понять, куда двигаться дальше.
Что с цифрами?
С цифрами вышла загвоздка — нейросети не умеют давать правдоподобные прогнозы по метрикам и рынку. Каждый выдаёт разные и противоречивые цифры, и никакие усреднения ситуацию не спасают. Тогда мы решили дообучить локальную Llama.
Как мы сами дообучали Llama
Решение хоть и лежало на поверхности, но реализация оказалась не самой тривиальной: самым сложным пунктом стал сбор информации о стартапах и бизнесах из полностью и относительно открытых источников. Классическая последовательность действий по кастомизации нужной модели в нашем случае выглядела так:
1. Собрали датасет — взяли публичные данные о стартапах: их финансах, росте, моделях монетизации, отчётах и новостях.
2. Форматировали данные — подготовили простые кейсы: например, «стартап Х привлек Y млн на A фазе, его ARR составляет B млн». Это был самый муторный процесс, но мы смогли сократить время за счет использование все тех же LLM-сервисовб поставив очень четко задачу.
3. Дообучение — прокачали Llama на полученном датасете с помощью open‑source API.
4. Тестирование — проверили модель на невидимых данных, сравнили её выводы с реальными результатами стартапов. В результате вы можете оценить сами цифры, которые теперь может выдать наша модель по примеру отчета:
✅ Итог: Llama стала лучше выдавать правдоподобные цифры по проектам — не идеальные, но приближённые к реалиям.
Web-интерфейс — всё по-простому
Чтобы удобно пользоваться этим инструментом, мы сделали простую web-оболочку. Ссылки на всё, что делает сервис — в тех же отчётах выше. Во фронтенде мы использовали подсказки от ChatGPT-o1 — без профи-разработчиков! Идея проста: заходишь, копируешь свою гипотезу, выбираешь фреймворк, запускаешь анализ — и получаешь структурированный отчёт с критикой, идеями и прогнозными цифрами на основе дообученной Llama и внешних LLM‑моделей.
Сервис пока покрывает только расходы на запросы между нейросетями. Каждому новому пользователю даётся 1490 условных рублей на тестирование — чтобы можно было попробовать несколько идей без риска.
➡️ Попробуйте сами: sup360.ru
Буду искренне рад любым комментариям, вопросам или критике!