
У меня есть привычка — собирать в одном интерфейсе все инструменты, которые я использую ежедневно. Когда в этом списке оказался десяток разных нейросетей, каждая со своим API и интерфейсом, стало ясно: нужен единый пульт управления.
Мой поиск привел меня к Open WebUI, и это оказалось именно тем, чего мне не хватало. Хочу поделиться открытиями, которые я сделал за несколько месяцев активного использования.
В этом обзоре вы узнаете:
Как установить Open WebUI в Windows, Linux и macOS;
Можно ли прикрепить прошлые диалоги в качестве контекста;
Поддерживает ли Open WebUI диаграммы Vega;
Как сделать суммаризацию YouTube‑видео по ссылке прямо из промпта;
Сколько сплит‑чатов поддерживает Open WebUI одновременно;
Что нужно установить, чтобы запустить Python и HTML+JS прямо из сгенерированного ответа (спойлер: ничего);
...И другие полезные штуки.
Open WebUI — это интерфейс для работы с нейросетями, который запускается в операционной системе (Windows, Linux, macOS) в особой форме: сервер в командной строке + вкладка в обычном браузере.
Платформа поддерживает разные движки LLM (Ollama, OpenAI‑совместимые API и другие), имеет гибкую архитектуру с плагинами и пайплайнами, а ещё встроенный механизм RAG.
Звучит технично? Да, но суть проста: Open WebUI объединяет в себе удобство привычного интерфейса чат‑бота с гибкостью и полным контролем локального решения. Это делает её настоящим подарком для разработчиков и исследователей, которым важно держать всё на расстоянии вытянутой руки.
Факт № 1. Устанавливать Open WebUI лучше не через Docker или pip, а через uv
Знаете тот момент, когда всё работает, но немного не так, как хотелось бы? Вот именно для этого и существует uv.
Перед Docker uv выигрывает в производительности и не съедает пару гигабайт оперативки.
Перед pip — преимуществ ещё больше. Они собраны в таблице:

Процесс установки подробно описан в этой статье, но давайте кратко повторим, чтобы не искать.
1. В Windows выполните команду:
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"
Для Linux или macOS инструкция здесь.
2. Установите Open WebUI через Python 3.11. Разработчики утверждают, что 3.12 тоже неплохо протестирован и работает, но 3.13 и 3.14 уже вызывают ошибки.
powershell -c "$env:DATA_DIR='C:\open-webui\data'; uvx --python 3.11 --with itsdangerous open-webui@latest serve"
Параметр --with itsdangerous добавлен для избежания бага.
3. После установки запускайте так:
powershell -c "$env:DATA_DIR='C:\open-webui\data'; uvx --python 3.11 open-webui@latest serve"
Совет: создайте ярлык (правая кнопка → Создать → Ярлык) или shell‑скрипт — и запуск станет делом одного клика.
4. Далее Open WebUI будет доступен по адресу http://localhost:8080/ в браузере.
Приятный бонус: если ставите через uv, то Open WebUI будет автоматически обновляться при запуске (длится меньше минуты):

Факт № 2. Open WebUI лучше, чем LibreChat
Для сравнения: установка и запуск Open WebUI включает 4 пункта, а LibreChat — около 20 (и даже тогда результат неидеален). Установка LibreChat описана в этой и этой статье.
Факт № 3. Подключив API, вы получите 300+ моделей в одном окне
Представьте себе: одна вкладка, а в ней сотни моделей. И всё это — в Open WebUI.
1. Перейдите в Панель администратора → Настройки → Подключения.
2. Нажмите + (Добавить соединение).
3. Пример настройки для подключения к BotHub:
Тип подключения: Внешнее;
URL:
https://bothub.chat/api/v2/openai/v1;Вход: Bearer;
Введите свой ключ‑пароль (можно сгенерировать здесь);
Тип поставщика: Open AI;
4. Нажмите Сохранить.
Список моделей оставьте пустым — тогда Open WebUI сам подгрузит всё, что доступно.

BotHub — это крупнейший российский агрегатор нейросетей. Здесь доступны 300+ моделей и непрерывно добавляются новые. Регистрироваться лучше по этой ссылке, чтобы начислились бонусные 100 000 капсов, которые можно потратить на тест моделей.

Факт № 4. Пользовательские ассистенты — это ИИ-личности
Да‑да, в Open WebUI можно собрать своего ИИ‑ассистента, подстроенного под вас. Или, как говорят в самой системе, модель.

Эти пользовательские модели — почти копия ассистентов из Cherry Studio или custom GPT в ChatGPT. У каждой свой системный промпт, набор подсказок, база знаний (файлы) и инструменты.
Готовых ассистентов можно взять на официальном сайте или собрать вручную.
Вы можете задать характер, стиль, личность ассистента. Например, создать аналитика, рассказчика, редактора, несколько конфигураций моделей — одну для мозгового штурма, другую для кодинга, третью сразу для множества задач. Всё определяется настройкой промпта и подключённых инструментов.
Так формируется уникальный персональный интеллект, идеально подстроенный под ваши задачи.
Факт № 5. Встроить веб-страницу в диалог — это просто
Open WebUI умеет встраивать содержимое веб‑страниц в чат. Чтобы дать модели информацию с сайта, достаточно ввести #https://... (символ «решётка» перед ссылкой) в строке чата, нажать на всплывающее сообщение — и файл прикрепится к запросу. Система автоматически скачает и извлечёт текст страницы, чтобы добавить его в контекст диалога. Подходит для любых моделей, единственное условие — её контекстное окно должно умещать длину добавляемой веб‑страницы.
⚠️ Важно: распознаватель ссылок можно случайно «сбить» клавишей Esc, Backspace или просто «щёлкнув не туда». Если это произошло — удалите весь промпт и повторите шаги заново.
После этого задавайте модели вопросы о содержимом страницы, и она ответит, опираясь на полученную информацию.


Удобно, когда нужно быстро резюмировать длинные тексты, документацию или блоги.
Кстати, тот же приём работает и в BotHub: стоит лишь поставить галочку в интерфейсе, и тогда можно вставлять веб‑адреса в свой запрос (уже без значка решётки) — система встроит их в контекст.

Факт № 6. Запуск Python, HTML+CSS+JS и SVG доступен сразу после установки
Одна из фишек — встроенный интерпретатор Pyodide, то есть Python, упакованный в WebAssembly. Если хочется чего посерьёзнее — стоит подумать о переключении на Jupyter (Панель администратора → Настройки → Исполнение кода → Механизм исполнения кода, Механизм интерпретатора кода).
Например, пользователь может запросить вычисления на Python:

В примере выше Grok 4 сгенерировал в своем ответе два фрагмента кода. Нажатием Запустить над каждым из них я выполнил скрипты через Pyodide, затем тут же высветились результаты.
Другой пример — генерация одностраничника на HTML+CSS+JS:

Напиши игру арканоид на HTML+CSS+JS (одним файлом).Уже в ходе генерации Open WebUI начнёт визуализировать готовую страницу в правой панели. Нажимаешь Предпросмотр и видишь результат без лишних телодвижений.
Факт № 7. В Open WebUI один из самых удобных сплит-чатов
Вы когда‑нибудь задумывались, как бы выглядело сражение моделей в духе «ИИ против ИИ»? Open WebUI позволяет устроить именно это.
Сравнивайте результаты сразу нескольких моделей — вживую и бок о бок. Совсем как в программе Msty, количество параллельно визуализируемых чатов здесь неограниченно. Просто выберите модели, введите промпт — и Open WebUI одновременно отправит его во все выбранные движки.
Чтобы создать сплит‑чат(ы), нажимайте кнопку + справа от самой первой из них (список вверху окна), затем выберите нужные модели. Вот пример: я отправил сообщение в три модели и одним махом получил результаты на одном экране.

Хочется проверить, кто формулирует лучше — Claude или ChatGPT? А может, сравнить три локальные модели, чтобы выбрать оптимальную под задачу? Пожалуйста.
Если моделей больше трёх, включите ☑️ Широкоэкранный режим в настройках, чтобы Open WebUI не обрезала сравнение по горизонтали.
Совет: можно даже сравнить одну и ту же модель с самой собой — несколько параллельных запусков, чтобы получить разные результаты с одного промпта.
Факт № 8: Open WebUI умеет визуализировать схемы Mermaid, Vega и научные формулы LaTeX
Если вам нравятся аккуратные схемы и красивые формулы, Open WebUI приятно удивит.
Система поддерживает Mermaid — язык для создания диаграмм, который превращает текст в наглядные блоки прямо в ответах. Просто попросите модель: «Покажи диаграмму о […] на Mermaid», и она выведет визуализацию. Если вы работаете с научными текстами или готовите документацию, пригодится поддержка LaTeX.

Но это ещё не всё. Сейчас идёт тестирование поддержки Vega — языка интерактивных графиков. Пока экспериментально, но перспективы впечатляют.
Факт № 9. После установки лучше переключить режим прикрепления файлов (и веб-страниц)
По умолчанию и файлы, и страницы прикрепляются в режиме RAG — то есть система передаёт в модель не весь текст, а только релевантные куски.
Для поиска информации это удобно. Но если вам нужно, чтобы документ целиком попал в модель — например, для суммаризации или рерайта, — стоит изменить поведение.
Как это сделать:
Для файлов:
Зайдите в Панель администратора → Настройки → Документы и активируйте ☑️ Обход встраивания и извлечения данных.

Для веб‑страниц:
Перейдите в Панель администратора → Настройки → Веб‑поиск и поставьте галочку ☑️ Обход встраивания и извлечения данных.

Для каждой задачи выбирайте сами, что важнее — доскональная полнота передачи данных или оптимизация контекстного окна.
Факт № 10. Есть настройка, активирующая «вечный» временный чат
Любите приватность, но иногда забываете включить временный чат? Open WebUI подумал и об этом.
Включите опцию Настройки → Интерфейс → ☑️ Временный чат по умолчанию, и все новые диалоги будут создаваться в анонимном режиме.


Факт № 11. Можно прикрепить предыдущие чаты в качестве контекста
А теперь — фича, которая буквально расширяет память модели.
Если нужно, чтобы новый диалог опирался на старые (например, продолжение проекта или анализ нескольких разговоров), можно прикрепить прошлые чаты как контекст.
Для этого нажмите + → Справочные чаты и выберите один или несколько нужных диалогов.



Это особенно удобно для проектов, где каждая беседа — часть большой истории.
Факт № 12. Суммаризация YouTube-транскриптов возможна не отходя от запроса
Когда времени смотреть видео нет, а понять суть хочется — Open WebUI приходит на помощь.
Достаточно вставить ссылку на видео с YouTube (через #, например #https://www.youtube.com/watch?v=w9_lMIIFzqs) и добавить свой промпт — вроде «Кратко перескажи» или «Какие основные идеи?». Система автоматически получит транскрипт ролика и передаст его модели для обработки.
Выгода очевидна: экономия времени и мгновенный доступ к содержанию лекций, вебинаров и других материалов. В результате вы получите конспект, перевод, рерайт или даже анализ — быстрее, чем закончится вступительная заставка видео.
Чтобы извлекался именно нужный транскрипт, заранее настройте язык: Панель администратора → Настройки → Веб‑поиск → Язык YouTube → ru. Нажмите Сохранить.
Если при сохранении появляется сообщение, что не все поля заполнены, — просто выберите Поисковая система → external и во Внешний ключ API веб‑поиска впишите любой символ.

Пошаговая инструкция, как сделать суммаризацию YouTube‑видео через нейросеть:
1. Введите в поле промпта символ # (курсор должен стоять в начале строки или после пробела).
2. Вставьте скопированный адрес видео (Ctrl+V).
⚠️ Важно: распознаватель ссылок можно случайно «сбить» клавишей Esc, Backspace или просто «щёлкнув не туда». Если это произошло — очистите поле и повторите шаги заново.
3. Появится всплывающее окно с заголовком Знания — кликните по строке с адресом.

4. Адрес перекинется в эскиз, расположенный над полем промпта.

5. Напишите в промпте о том, что хотите сделать с расшифровкой. Например:

Помните о том, что можно комбинировать разные функции, например прикрепить к одному запросу файл, прошлый чат и YouTube‑видео.
Заключение
Open WebUI — не просто ещё один интерфейс для нейросетей. Это целая экосистема, сочетающая удобство LLM‑чата и гибкость кастомизации.
Вы получаете полный контроль над процессом: можете подключать свои модели, добавлять инструменты, изменять интерфейс и даже запускать код прямо в чате. Всё это делает Open WebUI мощным инструментом — от экспериментов с ИИ до повседневной работы.
Платформа активно развивается, а её сообщество растёт. Разработчики постоянно добавляют новые функции, и уже сейчас WebUI может дать фору даже облачным решениям вроде ChatGPT.
Комментарии (10)

MountainGoat
21.10.2025 19:54Chatbox. Скачал. Запустил.
Поддержки Ютуба только нет, допиливается за абзац текста. Всё равно любая "поддержка Ютуба" только ютубовские кривые субтитры скачивает.

rPman
21.10.2025 19:54Что значит 'допиливается за абзац текста'? В ChatBox есть что то типа плагинов?

MountainGoat
21.10.2025 19:54Да. MCP сервер в виде консольного приложения. Пишется на JS, Питоне, и запускается моделью по мере надобности.

SimSonic
21.10.2025 19:54Не раскрыта тема авторизации, можно ли внутри компании развернуть на много юзеров, чтобы у каждого отдельно были и RAG-и, и чаты, а вот модели для всех одни настроить?

JakErdy
21.10.2025 19:54Уже более года развернуто для 20+ человек полёт нормальный. Это пожалуй лучшее решение из доступных на сегодня, особенно с провайдерами типа openrouter, которые кучу моделей предоставляют через одно Api, выходит сильно дешевле (в разы) и удобнее чем платить за отдельные подписки для всех сотрудников.
Самой главной фичей данного софта является то, что у тебя все модели в одном месте. И ты можешь выбирать что тебе сейчас важнее - скорость ответа, или качественность размышлений. Такого экспириенса не даёт ни один "моно провайдер".
Ещё в нём есть фича с каналами, это групповые чаты как в discord, их можно использовать для обсуждения проектов подключая разные модели к обсуждению.
Недавно в openwebui добавили группы для более удобного управления доступами, так что в этом плане все работает отлично.
Так же в нём есть sso, если у вас всё по взрослому.
Короче говоря пушка гонка, лучше которой ни чего нет, если нужен selfhosted, и сразу на много пользователей.

SimSonic
21.10.2025 19:54Мне было бы интересно ещё узнать можно ли при условии использования многими людьми делать централизованную настройку моделей, а то вот
Lobe Chatзапустил, а там оказалось, что каждый должен сам себе всё настроить, ключи подсунуть и прочее...Кажется, мне надо просто попробовать )

JakErdy
21.10.2025 19:54Там можно и так и так. Весь набор моделей по дефолту приватный, и доступен только админам. Далее можно выбрать интересующие вас модели (как правило от основных провайдеров - openai, gemini, claude, grok, deepseek, perplexity). Так же можно туда подгрузить "быза знаний" если у вас есть какая-то специфика (дока по проектам, дизайн-доки, стилистические гайдлайны и т.п.).
Этого набора уже хватит для абсолютного большинства пользователей. Но если есть энтузиасты, они могут себе на основе доступных им моделей (которые выдал админ) делать персонализованные версии (с кастомным системным промптом, и наборами знаний).
В общем толковая штука, обязательно попробуйте, благо это очень просто и есть много вариантов как его установить (docker, venv, sqlite/postgres, нативно рабоатет на win/mac/linux).

JakErdy
21.10.2025 19:54P.S. Если будете использовать OpenRouter будтье внимательны к каким моделям даёте доступ, чтобы там случайно не оказался какой-нибудь gpt-o1-pro который за пару чатов высасывает около сотни баксов...

user-book
21.10.2025 19:54с точки зрения пользователя очень спорная фигня. Если нет ничего то это неплохо, но если есть с чем сравнивать, и нейронок подключено несколько то сразу видны "особенности"
настройки чата общие для всех, оно никак не различает какие параметры поддерживает конкретная нейронка, какие у нее лимиты для параметра и тд
форматирование жопа. Может это и настраивается, но у нас по работе раздали WebUI, даже нейронки добавляют и обновляют. Так вот какие-то отлично работают и дают форматированный ответ, а какие-то гонят в каком-то своем формате из-за чего WebUI показывает его как обычный текст
оно лаганое перелаганное, причем это именно фронт-енда косяк, а не сервера где оно стоит. Что то больше на нем пробовать 100% не стоит
Krypt
"Пробовал, ненужная глючная переусложнённая фигня, удалил"?
Может быть за прошедший последний год что-то и изменилось, но тогда - оно тупо отказывалось сохранять созданные чаты, а настройки безопасности, какие-то регистрации в локальном сервисе, отсутствие полного доступа после, создали ощущение, что я сайт Пентагона разворачиваю.