У меня есть привычка — собирать в одном интерфейсе все инструменты, которые я использую ежедневно. Когда в этом списке оказался десяток разных нейросетей, каждая со своим API и интерфейсом, стало ясно: нужен единый пульт управления.

Мой поиск привел меня к Open WebUI, и это оказалось именно тем, чего мне не хватало. Хочу поделиться открытиями, которые я сделал за несколько месяцев активного использования.

В этом обзоре вы узнаете:

  • Как установить Open WebUI в Windows, Linux и macOS;

  • Можно ли прикрепить прошлые диалоги в качестве контекста;

  • Поддерживает ли Open WebUI диаграммы Vega;

  • Как сделать суммаризацию YouTube‑видео по ссылке прямо из промпта;

  • Сколько сплит‑чатов поддерживает Open WebUI одновременно;

  • Что нужно установить, чтобы запустить Python и HTML+JS прямо из сгенерированного ответа (спойлер: ничего);

  • ...И другие полезные штуки.


Open WebUI — это интерфейс для работы с нейросетями, который запускается в операционной системе (Windows, Linux, macOS) в особой форме: сервер в командной строке + вкладка в обычном браузере.

Платформа поддерживает разные движки LLM (Ollama, OpenAI‑совместимые API и другие), имеет гибкую архитектуру с плагинами и пайплайнами, а ещё встроенный механизм RAG.

Звучит технично? Да, но суть проста: Open WebUI объединяет в себе удобство привычного интерфейса чат‑бота с гибкостью и полным контролем локального решения. Это делает её настоящим подарком для разработчиков и исследователей, которым важно держать всё на расстоянии вытянутой руки.

Факт № 1. Устанавливать Open WebUI лучше не через Docker или pip, а через uv

Знаете тот момент, когда всё работает, но немного не так, как хотелось бы? Вот именно для этого и существует uv.

  • Перед Docker uv выигрывает в производительности и не съедает пару гигабайт оперативки.

  • Перед pip — преимуществ ещё больше. Они собраны в таблице:

Процесс установки подробно описан в этой статье, но давайте кратко повторим, чтобы не искать.

1. В Windows выполните команду:

powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

Для Linux или macOS инструкция здесь.

2. Установите Open WebUI через Python 3.11. Разработчики утверждают, что 3.12 тоже неплохо протестирован и работает, но 3.13 и 3.14 уже вызывают ошибки.

powershell -c "$env:DATA_DIR='C:\open-webui\data'; uvx --python 3.11 --with itsdangerous open-webui@latest serve"

Параметр --with itsdangerous добавлен для избежания бага.

3. После установки запускайте так:

powershell -c "$env:DATA_DIR='C:\open-webui\data'; uvx --python 3.11 open-webui@latest serve"

Совет: создайте ярлык (правая кнопка → СоздатьЯрлык) или shell‑скрипт — и запуск станет делом одного клика.

4. Далее Open WebUI будет доступен по адресу http://localhost:8080/ в браузере.

Приятный бонус: если ставите через uv, то Open WebUI будет автоматически обновляться при запуске (длится меньше минуты):

Факт № 2. Open WebUI лучше, чем LibreChat

Для сравнения: установка и запуск Open WebUI включает 4 пункта, а LibreChat — около 20 (и даже тогда результат неидеален). Установка LibreChat описана в этой и этой статье.

Факт № 3. Подключив API, вы получите 300+ моделей в одном окне

Представьте себе: одна вкладка, а в ней сотни моделей. И всё это — в Open WebUI.

1. Перейдите в Панель администратораНастройкиПодключения.

2. Нажмите + (Добавить соединение).

3. Пример настройки для подключения к BotHub:

  • Тип подключения: Внешнее;

  • URL: https://bothub.chat/api/v2/openai/v1;

  • Вход: Bearer;

  • Введите свой ключ‑пароль (можно сгенерировать здесь);

  • Тип поставщика: Open AI;

4. Нажмите Сохранить.

Список моделей оставьте пустым — тогда Open WebUI сам подгрузит всё, что доступно.

BotHub — это крупнейший российский агрегатор нейросетей. Здесь доступны 300+ моделей и непрерывно добавляются новые. Регистрироваться лучше по этой ссылке, чтобы начислились бонусные 100 000 капсов, которые можно потратить на тест моделей.

Модели, добавленные через API-точку BotHub
Модели, добавленные через API‑точку BotHub

Факт № 4. Пользовательские ассистенты — это ИИ-личности

Да‑да, в Open WebUI можно собрать своего ИИ‑ассистента, подстроенного под вас. Или, как говорят в самой системе, модель.

Эти пользовательские модели — почти копия ассистентов из Cherry Studio или custom GPT в ChatGPT. У каждой свой системный промпт, набор подсказок, база знаний (файлы) и инструменты.

Готовых ассистентов можно взять на официальном сайте или собрать вручную.

Вы можете задать характер, стиль, личность ассистента. Например, создать аналитика, рассказчика, редактора, несколько конфигураций моделей — одну для мозгового штурма, другую для кодинга, третью сразу для множества задач. Всё определяется настройкой промпта и подключённых инструментов.

Так формируется уникальный персональный интеллект, идеально подстроенный под ваши задачи.

Факт № 5. Встроить веб-страницу в диалог — это просто

Open WebUI умеет встраивать содержимое веб‑страниц в чат. Чтобы дать модели информацию с сайта, достаточно ввести #https://... (символ «решётка» перед ссылкой) в строке чата, нажать на всплывающее сообщение — и файл прикрепится к запросу. Система автоматически скачает и извлечёт текст страницы, чтобы добавить его в контекст диалога. Подходит для любых моделей, единственное условие — её контекстное окно должно умещать длину добавляемой веб‑страницы.

⚠️ Важно: распознаватель ссылок можно случайно «сбить» клавишей Esc, Backspace или просто «щёлкнув не туда». Если это произошло — удалите весь промпт и повторите шаги заново.

После этого задавайте модели вопросы о содержимом страницы, и она ответит, опираясь на полученную информацию.

Удобно, когда нужно быстро резюмировать длинные тексты, документацию или блоги.

Кстати, тот же приём работает и в BotHub: стоит лишь поставить галочку в интерфейсе, и тогда можно вставлять веб‑адреса в свой запрос (уже без значка решётки) — система встроит их в контекст.

Факт № 6. Запуск Python, HTML+CSS+JS и SVG доступен сразу после установки

Одна из фишек — встроенный интерпретатор Pyodide, то есть Python, упакованный в WebAssembly. Если хочется чего посерьёзнее — стоит подумать о переключении на Jupyter (Панель администратораНастройкиИсполнение кодаМеханизм исполнения кода, Механизм интерпретатора кода).

Например, пользователь может запросить вычисления на Python:

В примере выше Grok 4 сгенерировал в своем ответе два фрагмента кода. Нажатием Запустить над каждым из них я выполнил скрипты через Pyodide, затем тут же высветились результаты.

Другой пример — генерация одностраничника на HTML+CSS+JS:

Промпт: Напиши игру арканоид на HTML+CSS+JS (одним файлом).
Промпт: Напиши игру арканоид на HTML+CSS+JS (одним файлом).

Уже в ходе генерации Open WebUI начнёт визуализировать готовую страницу в правой панели. Нажимаешь Предпросмотр и видишь результат без лишних телодвижений.

Факт № 7. В Open WebUI один из самых удобных сплит-чатов

Вы когда‑нибудь задумывались, как бы выглядело сражение моделей в духе «ИИ против ИИ»? Open WebUI позволяет устроить именно это.

Сравнивайте результаты сразу нескольких моделей — вживую и бок о бок. Совсем как в программе Msty, количество параллельно визуализируемых чатов здесь неограниченно. Просто выберите модели, введите промпт — и Open WebUI одновременно отправит его во все выбранные движки.

Чтобы создать сплит‑чат(ы), нажимайте кнопку справа от самой первой из них (список вверху окна), затем выберите нужные модели. Вот пример: я отправил сообщение в три модели и одним махом получил результаты на одном экране.

Хочется проверить, кто формулирует лучше — Claude или ChatGPT? А может, сравнить три локальные модели, чтобы выбрать оптимальную под задачу? Пожалуйста.

Если моделей больше трёх, включите ☑️ Широкоэкранный режим в настройках, чтобы Open WebUI не обрезала сравнение по горизонтали.

Совет: можно даже сравнить одну и ту же модель с самой собой — несколько параллельных запусков, чтобы получить разные результаты с одного промпта.

Факт № 8: Open WebUI умеет визуализировать схемы Mermaid, Vega и научные формулы LaTeX

Если вам нравятся аккуратные схемы и красивые формулы, Open WebUI приятно удивит.

Система поддерживает Mermaid — язык для создания диаграмм, который превращает текст в наглядные блоки прямо в ответах. Просто попросите модель: «Покажи диаграмму о […] на Mermaid», и она выведет визуализацию. Если вы работаете с научными текстами или готовите документацию, пригодится поддержка LaTeX.

Но это ещё не всё. Сейчас идёт тестирование поддержки Vega — языка интерактивных графиков. Пока экспериментально, но перспективы впечатляют.

Факт № 9. После установки лучше переключить режим прикрепления файлов (и веб-страниц)

По умолчанию и файлы, и страницы прикрепляются в режиме RAG — то есть система передаёт в модель не весь текст, а только релевантные куски.

Для поиска информации это удобно. Но если вам нужно, чтобы документ целиком попал в модель — например, для суммаризации или рерайта, — стоит изменить поведение.

Как это сделать:

  • Для файлов:
    Зайдите в Панель администратора → Настройки → Документы и активируйте ☑️ Обход встраивания и извлечения данных.

  • Для веб‑страниц:
    Перейдите в Панель администратора → Настройки → Веб‑поиск и поставьте галочку ☑️ Обход встраивания и извлечения данных.

Для каждой задачи выбирайте сами, что важнее — доскональная полнота передачи данных или оптимизация контекстного окна.

Факт № 10. Есть настройка, активирующая «вечный» временный чат

Любите приватность, но иногда забываете включить временный чат? Open WebUI подумал и об этом.

Включите опцию Настройки → Интерфейс → ☑️ Временный чат по умолчанию, и все новые диалоги будут создаваться в анонимном режиме.

Так выглядит включённая настройка вечного временного чата
Так выглядит включённая настройка вечного временного чата
А это — обычная кнопка активации временного чата, если хотите включить его только для текущего диалога
А это — обычная кнопка активации временного чата, если хотите включить его только для текущего диалога

Факт № 11. Можно прикрепить предыдущие чаты в качестве контекста

А теперь — фича, которая буквально расширяет память модели.

Если нужно, чтобы новый диалог опирался на старые (например, продолжение проекта или анализ нескольких разговоров), можно прикрепить прошлые чаты как контекст.

Для этого нажмите Справочные чаты и выберите один или несколько нужных диалогов.

1) Выбираем + → Справочные чаты
1) Выбираем + → Справочные чаты
2) Добавляем нужный чат
2) Добавляем нужный чат
3) Эскизы чатов появятся возле промпта
3) Эскизы чатов появятся возле промпта

Это особенно удобно для проектов, где каждая беседа — часть большой истории.

Факт № 12. Суммаризация YouTube-транскриптов возможна не отходя от запроса

Когда времени смотреть видео нет, а понять суть хочется — Open WebUI приходит на помощь.

Достаточно вставить ссылку на видео с YouTube (через #, например #https://www.youtube.com/watch?v=w9_lMIIFzqs) и добавить свой промпт — вроде «Кратко перескажи» или «Какие основные идеи?». Система автоматически получит транскрипт ролика и передаст его модели для обработки.

Выгода очевидна: экономия времени и мгновенный доступ к содержанию лекций, вебинаров и других материалов. В результате вы получите конспект, перевод, рерайт или даже анализ — быстрее, чем закончится вступительная заставка видео.

Чтобы извлекался именно нужный транскрипт, заранее настройте язык: Панель администратораНастройкиВеб‑поискЯзык YouTuberu. Нажмите Сохранить.

Если при сохранении появляется сообщение, что не все поля заполнены, — просто выберите Поисковая система → external и во Внешний ключ API веб‑поиска впишите любой символ.

Пошаговая инструкция, как сделать суммаризацию YouTube‑видео через нейросеть:

1. Введите в поле промпта символ # (курсор должен стоять в начале строки или после пробела).

2. Вставьте скопированный адрес видео (Ctrl+V).

⚠️ Важно: распознаватель ссылок можно случайно «сбить» клавишей Esc, Backspace или просто «щёлкнув не туда». Если это произошло — очистите поле и повторите шаги заново.

3. Появится всплывающее окно с заголовком Знания — кликните по строке с адресом.

4. Адрес перекинется в эскиз, расположенный над полем промпта.

5. Напишите в промпте о том, что хотите сделать с расшифровкой. Например:

Помните о том, что можно комбинировать разные функции, например прикрепить к одному запросу файл, прошлый чат и YouTube‑видео.

Заключение

Open WebUI — не просто ещё один интерфейс для нейросетей. Это целая экосистема, сочетающая удобство LLM‑чата и гибкость кастомизации.

Вы получаете полный контроль над процессом: можете подключать свои модели, добавлять инструменты, изменять интерфейс и даже запускать код прямо в чате. Всё это делает Open WebUI мощным инструментом — от экспериментов с ИИ до повседневной работы.

Платформа активно развивается, а её сообщество растёт. Разработчики постоянно добавляют новые функции, и уже сейчас WebUI может дать фору даже облачным решениям вроде ChatGPT.

Комментарии (10)


  1. Krypt
    21.10.2025 19:54

    "Пробовал, ненужная глючная переусложнённая фигня, удалил"?
    Может быть за прошедший последний год что-то и изменилось, но тогда - оно тупо отказывалось сохранять созданные чаты, а настройки безопасности, какие-то регистрации в локальном сервисе, отсутствие полного доступа после, создали ощущение, что я сайт Пентагона разворачиваю.


  1. MountainGoat
    21.10.2025 19:54

    Chatbox. Скачал. Запустил.

    Поддержки Ютуба только нет, допиливается за абзац текста. Всё равно любая "поддержка Ютуба" только ютубовские кривые субтитры скачивает.


    1. rPman
      21.10.2025 19:54

      Что значит 'допиливается за абзац текста'? В ChatBox есть что то типа плагинов?


      1. MountainGoat
        21.10.2025 19:54

        Да. MCP сервер в виде консольного приложения. Пишется на JS, Питоне, и запускается моделью по мере надобности.


  1. SimSonic
    21.10.2025 19:54

    Не раскрыта тема авторизации, можно ли внутри компании развернуть на много юзеров, чтобы у каждого отдельно были и RAG-и, и чаты, а вот модели для всех одни настроить?


    1. JakErdy
      21.10.2025 19:54

      Уже более года развернуто для 20+ человек полёт нормальный. Это пожалуй лучшее решение из доступных на сегодня, особенно с провайдерами типа openrouter, которые кучу моделей предоставляют через одно Api, выходит сильно дешевле (в разы) и удобнее чем платить за отдельные подписки для всех сотрудников.

      Самой главной фичей данного софта является то, что у тебя все модели в одном месте. И ты можешь выбирать что тебе сейчас важнее - скорость ответа, или качественность размышлений. Такого экспириенса не даёт ни один "моно провайдер".

      Ещё в нём есть фича с каналами, это групповые чаты как в discord, их можно использовать для обсуждения проектов подключая разные модели к обсуждению.

      Недавно в openwebui добавили группы для более удобного управления доступами, так что в этом плане все работает отлично.

      Так же в нём есть sso, если у вас всё по взрослому.

      Короче говоря пушка гонка, лучше которой ни чего нет, если нужен selfhosted, и сразу на много пользователей.


      1. SimSonic
        21.10.2025 19:54

        Мне было бы интересно ещё узнать можно ли при условии использования многими людьми делать централизованную настройку моделей, а то вот Lobe Chat запустил, а там оказалось, что каждый должен сам себе всё настроить, ключи подсунуть и прочее...

        Кажется, мне надо просто попробовать )


        1. JakErdy
          21.10.2025 19:54

          Там можно и так и так. Весь набор моделей по дефолту приватный, и доступен только админам. Далее можно выбрать интересующие вас модели (как правило от основных провайдеров - openai, gemini, claude, grok, deepseek, perplexity). Так же можно туда подгрузить "быза знаний" если у вас есть какая-то специфика (дока по проектам, дизайн-доки, стилистические гайдлайны и т.п.).

          Этого набора уже хватит для абсолютного большинства пользователей. Но если есть энтузиасты, они могут себе на основе доступных им моделей (которые выдал админ) делать персонализованные версии (с кастомным системным промптом, и наборами знаний).

          В общем толковая штука, обязательно попробуйте, благо это очень просто и есть много вариантов как его установить (docker, venv, sqlite/postgres, нативно рабоатет на win/mac/linux).


        1. JakErdy
          21.10.2025 19:54

          P.S. Если будете использовать OpenRouter будтье внимательны к каким моделям даёте доступ, чтобы там случайно не оказался какой-нибудь gpt-o1-pro который за пару чатов высасывает около сотни баксов...


  1. user-book
    21.10.2025 19:54

    с точки зрения пользователя очень спорная фигня. Если нет ничего то это неплохо, но если есть с чем сравнивать, и нейронок подключено несколько то сразу видны "особенности"

    • настройки чата общие для всех, оно никак не различает какие параметры поддерживает конкретная нейронка, какие у нее лимиты для параметра и тд

    • форматирование жопа. Может это и настраивается, но у нас по работе раздали WebUI, даже нейронки добавляют и обновляют. Так вот какие-то отлично работают и дают форматированный ответ, а какие-то гонят в каком-то своем формате из-за чего WebUI показывает его как обычный текст

    • оно лаганое перелаганное, причем это именно фронт-енда косяк, а не сервера где оно стоит. Что то больше на нем пробовать 100% не стоит