Просто картинка для заголовка)
Просто картинка для заголовка)

Введение

Мой первый опыт на Хабре получился не очень положительным, и, признаюсь, до сих пор смотря на комментарии и оценки, мне стыдно и больно где-то внутри.

Потому в имя исправления ошибок молодости решил написать серию статей о том, как дома собрать свою "идеальную" хранилку, или сервак, или мини облако. Поделюсь опытом, своими знаниями и пониманием, а также мыслями, которые могут помочь выполняя похожую задачу для себя.

Душная теория

Начну с программного обеспечения, и того, что есть два пути для решения задачи про свою домашнюю лабу:

  1. Взять готовое коробочное opensources решение (примеры TrueNas, ESXi Free/ProxMox, OpenMediaVault, etc.) и строить свой проект на нем

  2. Или взять голую OS (от FreeBSD до Alma/Rocky в наше время), и собрать из пакетов и opensource приложений что-то свое

Второй пункт это взято из цитаты коллеги, который так, в общем-то, и сказал. В тот момент моих знаний и опыта было недостаточно, потому я понял его слова как взять условный питон и написать свой гуй сам. В тот момент я думал, что программировать могут только боги.

Как правило, второй путь не будет иметь готового и красивого "ГУЯ" для того, чтобы через кнопочки решать все задачи и настройки, и, опять таки как правило:

  1. Первый раз решение будет через гугл + терминальные команды

  2. Второй раз повторяя шаги из пункта один, захочется их превратить в скрипт, чтобы не повторять команды (или вспоминать)

  3. Третий раз, с учетом, что могут быть разные параметры и переменные, скрипты станут интерактивными, считай терминальный интерфейс своего самосбора

  4. И четвертый, если повезет, со временем появится или найдется готовый контейнер или пакет, который в себе будет содержать все нужное для управления своим самосбором

Ну и не стоит забывать, что все опенсорсные "коробки" или даже коммерческие, это по сути также собранный линукс, с каким-то набором открытых пакетов, где из пропиетарного есть только и написанный ГУЙ для решения. Ну и ладно, набор настроик и оптимизаций, чтобы "коробка" работала лучше того же Линукса с теми же пакетами.

Далее немного базовой теории и истории для понимания того, как должно было бы выглядеть итоговое решение со стороны оборудования или железа, если бы мы были Ютуб блоггером или ИТ-энтузиаст с большим количеством "бесполезных денег".

Поверхостная схема мини-датацентра
Поверхостная схема мини-датацентра

Давайте рассмотрим схему сверху. Она полностью написана мной на основе того, что наблюдал на практике. Важно отметить, что он поверхостная, то есть без деталей и нюансов. Ну и, конечно же, если мы строим полноценное облако, то схемы будут явно другими. Здесь у нас собраны почти все уровни для своего датацентра:

  1. сетевое оборудование для подключения всего между собой в отказоустойчивом формате

  2. два активных сервера для вычисления (ВМ) с третьим, который будет резервным на случай падения одного из двух активных

  3. два сервера хранения, в формате актив-пассив, где один собирает на себе данные, а потом реплицирует их на второй для сохранности

Почему так?

  • Ну с сетевым оборудованием понятно, если ломается один, все продолжает работать потому что есть второй. А сломанный на замену, по гарантии или нет.

  • Вычислительный слой, или Compute Server-а, всегда нужно будет наращивать по мере роста потребностей/бизнеса, потому тут стоит следовать схеме 2+1: два активных на один резервный, таким образом вычислительная мощь размазывается между двумя серверами для производительности и имеет место куда переехать, если оперативе или другому компоненту одного сервера стало плохо (не полностью упал, а частично недоступен).

  • Оборудование для хранения мы также вынесем в отдельный слой, чтобы не нагружать компьют часть нагрузкой по хранилищу, ну и "не держать все яйца в одной дорргой корзине". 1 к 1 у нас для того, чтобы у нас была полноценная реплика наших данных, потому что если, условно, нас посетят меньше клиентов, пока один из компьютов хостов сломан, - заработаем меньше, но бизнес будет жить. То если мы потеряем все данные, то, можно считать, что нет бизнеса (сюда же впишем ситуацию по пересбору данных при выпадении одного из дисков, массив будет работать явно медленнее, что скажется на бизнесе так или иначе).

Зачем нам такая "душная" теория? Опыт попытки построить дома свою самодостаточную инфру, привели меня от домашнего NAS-а на Celeron, до по сути такой же схемы на "минималках".

Выглядит она так:

Моя текущая схема
Моя текущая схема

Поговорим немного и о ней, и почему так сложилось:

  • Ранее на месте router-а у меня стоял Mikrotik hap_ac2. По мере роста того, что я кручу дома, то этой простой версии предназначенной для того, чтобы просто маршрутизировать и раздавать WiFi, уже стало не хватать.

  • Также, Mikrotik выполнял роль CapsMan, который управляет двумя точками доступа (APs), что создавало свою доп. нагрузку

  • Ну и Микрот был и своего рода свичем в свое время, что тоже не давало ему жить спокойно

  • В это схеме роль микрота будет выполнять Мини ПК с Алишки с 4 сетевыми интерфейсами. На нем развернем software firewall/router. Рядом на ВМ также Mikrotik CHR для CapsMan. Upstream кабель в оператора, и еще один кабель до POE Switch.

  • POE Switch у нас будет питать две точки доступа сразу (раньше это делалось через микрот адаптеры, и выглядит очень убого на самом деле, хоть и спрятано в шкафу).

  • По красиво проложенным в квартире кабелям питание пойдет до точек доступа и от одной кабель на балкон, где стоят основные "машины"

  • Гигабитный свич для передачи "интернета" по кабелю всем устройствам на балконе: Тандерболт док, игровой ПК, мини-ПК компьют, сервер хранения

  • 10-Гигабитный свич будет жить отдельной сетью (VLAN-ом) только для стораджа для: МиниПК, игрового компа и самого сервера хранения.

То, к чему мы придем в последней главе этого рассказа, будет выглядеть примерно так как на второй схеме.

Посмотрев на нее, и убрав там локальные приколы, можно увидеть, что схема двух свичей с разнесенной нагрузкой (инет трафик и хранение), по отдельной машине на каждый уровень нас приблежают к идеальной схеме около-корп локального датацентра.

Часть первая. От NAS-а к первому домашнему серверу

О том, что такое NAS я узнал на первом месте своей работы. Там бизнес строился вокруг решения по бэкапу как корпоративной инфраструктуры (базы данных, ВМ, настройки гиперов), так и решений бэкапа ПК (по сути физические лица, или далее консьюмеры).

Ну и очевидно, что у второй категории пользователей как хранилище своих данных использовались NAS-ы от разных производителей, типа Synology, D-Link (тут если не ошибаюсь), условный Apple AirCapsule и другие.

К нам на работу тогда вышел человек, которого явно заразили лихорадкой Hyper-V от Microsoft, и он рассказал, как на старом железе (от одного из старых ПК) смог собрать Hyper-V сервер с кучей дисков, которые он отдал ВМ Xpenology (хакнутый Synology) и как это все дело круто.

Если оставить наркоманию с Hyper-V, то тогда мысль о своем домашнем хранилище показалась довольно соблазнительной:

  • на тот момент у меня был только свой мак ноут и игровой ПК

  • архив фото, видео и другого важного контента типа документов был внутри этого ПК на отдельном жирном диске, и если что-то с ОС этого ПК произошло бы (вирусы, популярные в то время шифровщики), то по сути прощай прошлое.

  • игровой комп как единственное оборудование с открытыми доступами для меня еще были и всякого рода Playground для первого знакомства с Linux, попыток установить MacOS на обычный ПК и прочее

  • ну и явно примеры проблем, это то, что я испытал, когда в поте лица пытался восстановить 4 ТБ диск с кучей фото моих маленьких брата и сестры всякими Recovery тулзами после неудачного опыта с линуксом

Идея во мне начала томится и выстрелила после того, как я вышел на новую работу (где у меня была ЗП х2 от прошлой), что мне дало возможность потратить немного денег на новый игровой комп (только с ССД) и отдельно на Мини ПК для хранилки.

Почему именно МиниПК, а не готовое решение от Synology? Ну во первых была инфа, что Synology можно запустить на чем угодно, и, соответственно, подготовить машину сильнее, чем продавалась самая топовая Synology в магазе.

Далее конечно же цена: такой же проц, но с х2 оперативной памятью, 1 ССД для ОС и новым 4 ТБ диском (для зеркала имеющегося) вышло дешевле, среднего готового устройства.

Скрин из корзины Regard.ru за то время
Скрин из корзины Regard.ru за то время

По сути сумма деталей вышла в 22300, тогда как аналог Synology (без диска и рама) был примерно 18-20 тысяч.

С железом определились, но наверное нужно, что то пометить:

  • по корпусу все ясно-понятно, купил самое дешевое + с БП и главное чтобы вместил 1 диск на 2 с половой, и 2 диска на 3 с половой

  • оперативная память тоже, от хорошего производителя но самая дешевая. По скорости и размеру самый максимум, что процессор сможет переварить.

  • С диском понятно, 4ТБ для зеркала уже бывшего у меня 4ТБ.

  • 250 ССД для ОС, не просто так. Логика, что для ОС типа Линукс достаточно 64, 128 хватит с запасом. Но 250 было выбрано не просто так, и дальше станет понятно почему.

  • Ну и материнка с интегрированным процом. Во первых всякие Целероны для сборок поставляются только так, а именно эта мать и проц выбраны: Процессор на тот момент самый топовый целерон на рынке с поддержкой 4к через интегрированую видеокарту. У нее было 4-6 слотов для Сата, что было ок для расширений. И маленький PCI разъем для второй сетевой карты до 2.5 гига (но тогда это было просто космосом)

Почему я так легко согласился на такой масштаб бедствия?

Даже не смотря на наличие Нетфликса и Амазона, проблема с контентом в РФ все же была. Если мы и могли посмотреть сериалы кабельного американского ТВ на условном Нетфликсе, это происходило спустя полгода-год после начала нового сезона (по факту его завершения). Также у нас никогда не было нормального доступа до Disney +, а там только начал выходить хороший контент.

У меня какая-то автоматическая неприязнь к пиратским онлайн кинотеатрам, а особенно сгораю с неожиданной рекламы в середине серии, после которой обязательно нужно идти менять трусы, или же неделю в голове играет "ставки на спорт". Если по делу, качество и стабильность видео плееров на этих кинотеатрах, и тот стораджовый бек, что у них есть, не вывозят для получения качественного контента на своем 4k ТВ или iPhone-е.

Тут я узнал про "знак свыше" именуемый Plex (Plex Media Server), который позволял сделать свой, условный, Netflix для самого же себя из всего контента, что у тебя есть на диске (скачанный или купленный). Но такое решение хостить на своем компе было бы избыточно, а все NAS-ы Synology и остальных даже имели официальное серверное приложение.

Ну и конечно же, тк игровой комп у меня был полностью на SSD, качать торренты на него было не вариантом, соответственно отдельный мини ПК с приложением для скачки торрентов и обычными дисками было бы очень круто.

Итого:

  • скачивание контента и торрентов

  • трансляция контента со своего оборудования на свое же устройство (дома и вне)

  • хранения архивов и важных данных

  • ну и просто пространство для сохранения бекапов ПК перед разными тестами

Вот эти 4 причины заставили меня заказать перечисленное ранее оборудование в онлайн магазине. Далее была задача придумать, что же делать с ПО частью нового решения.

Так как моя первая работа была сильно связана с клиентскими VMware ESXi, то я не видел решения лучше, чем развернуть его на моем компике. Почему гипервизор? У XPenology были какие-то проблемы с выбранным мною оборудованием, потому решать проблему можно было только через гипер. Почему XPenology? Рассказы от коллеги на работе, ну и опыт того, что слышал от клиентов.

хотя уже в тот момент было решение получше, к которому мы с Вами придем в итоге

Ну и довольно богатая библиотека приложений для iOS: чат, медиа, фото и тд и тп

Итак план софта на новую железку:

  • Разворачиваем ESXi на диск в 250 ГБ и там же создаем датастор для нашей единственной ВМ

  • Разворачиваем ВМ из образа XPenology для VMware

  • Через скрипты PhotonOS настраиваем прямой линк "виртуального диска" Вари на физический диск

  • Настраиваем DSM, включаем торренты, плексы, смб и загружаем данные

Что, в общем-то и сделал.

Что было дальше?

Эксплуатация решения в начале была довольно скучной:

  • Активация фирменных приложений с нелицензионным сервером требовало усилий, но были инструкции

  • Запуск и установка левых приложений (например VMware Tools для DSM), также требовало танцев, но все было решаемо

  • Там же первый раз попробовал Плекс, но было ощущение, что, что-то не так

И тут случается ужасное: просто так во время копирования файла зеркало Synology разваливается. Я, как неопытный инженер, сразу начал смотреть в кошелек и на сайтах, где можно выгодно купить новый диск, но все же попробовав "пересобрать" сломанный массив, операция пошла и показывала, что все ок.

Нормально ответа на вопрос "почему", я не нашел, потому стал сам придумывать дыры или нюансы своего решения, чтобы найти им "улучшайзинг". И тут случайно я вспоминаю, что когда я баловался с Линуксом и ВМ с виндой на нем, была такая тема как Passthrough, когда ты не мапишь одно устройство на другое, а именно пробрасываешь целое PCI устройство внутрь OS ВМ.

Погуглив узнал, что у меня на 4 Сата порта два Сата контроллера, и один можно смело использовать для того, чтобы "железно" отдать диски Xpenology VM. Только после такого финта ушами, производительность стала еще хуже.

Вернув все взад, я принял решение пока не перегружать свою машинку и спокойно жил дальше.

Я слукавил, сказав, что только бытовые причины стали началом моего пути в домашнюю лабу. Главной причиной, как сейчас уже кажется, было желание быть таким как мой кумир на тот момент Linus из LinusTechTips, чьи видео в тот момент через раз и были о том, как собрать свой NAS из подручных средств.

Посмотрев очередную порцию Linus-а, я узнал о существовании ZFS, OpenZFS в вариации для всех Линукс платформ. И с учетом, что это был готовый пакет и решение для управления дисками и ФС внутри ОС (а именно непонимание mdadm-а в тот момент не позволяли мне сразу садится на Линукс и строить сторадж своими руками) я принял решение "мигрировать" с Xpenology/Synology на ZFS.

В тот момент из коробочных решений был только FreeNAS, который был мне в тот момент, не сильно понятен, так еще и на FreeBSD, о котором я только знал, что нужно "пропатчить KDE под FreeBSD" (и вообще не понимая, что тут каждое слово значит). У меня к моменту уже была хорошая практика с CentOS, а с Ubuntu я был знаком еще со времен тестов на своем компе.

Решено было создать вторую ВМ на моем мини ПК на базе Убунту. Перенести данные на временное хранилище, пересобрать ЗФС внутри Убунты и уже туда залить данные. Первую попытку я сделал вместе пробросом ПСИ устройства.

Оставить ESXi хотелось, чтобы было пространство создать какую-то временную ВМ для лажового теста, и не убивать свой "игровой ПК"

Но ровно как и с XPenology, проявлялись проблемы с производительностью "проброса", а также ГПУ-шка не была доступна для ВМ.

Прелесть была в том, с таким пробросом и без мапинга вирт. диска на железный, у меня была возможность просто установить Убунту вместо ESXi и импортировать мое хранилище.

Что я и сделал.

Plex установил из репы разработчика, нашел cockpit, некоторый GUI управления Линуксом. Далее к cockpit-у поставил набор плагинов для управления ZFS и просто дисками (типа SMART), спасибо 45Drives. Transmission прямо из Репы Canonical.

Далее возникла проблема, что мне приходилось подписывать на ТГ группы онлайн кинотеатров, и по уведомлениям отслеживать выходны новых серий сериалов, и руками через браузер добавлять в торрент трекер на скачку. А потому уже и руками все чистить. Ужас.

Немного гугла меня познакомило с решениями команды Servarr: Lidarr, Sonarr, Radarr, - каждый из контейнеров отвечает за свой типа контента (музыка, сериалы и кино). В него можно добавлять интересующие Вас произведения или группы, а приложение само потом отпарсит торрент трекеры, найдет нужную загрузку (можно указать максимальное качество, озвучку и прочее) и добавит ее в торрент клиент. А потом, когда захочется избавиться от просмотренного, удалит с ЖД.

Установка решений выглядела жестко, а вот альтернативная установка через Docker контейнер показалась довольно простой и удобной. Bash скрипт с серий docker run-ов и маунтов в пару минут построили для меня целое решение автоматизации получения контента. Далее, случайно, я узнал, что и Plex и Transmission также можно крутить в Docker, и тем самым описав идеальный софт запускать при переезде. Перенес и их.

Для Работы Servarr-ов надо было еще пару контейнеров (сам парсер торрент трекеров, который передавал данные, решение всяких челленджей и прочие сервисные контейнеры).

В этот момент я еще не знал, что Plex использовал интегрированную ГПУ для проигрывания 4к контента. И когда он был пакетом в Линуксе имел прямой доступ, а для контейнера через докер, нужно было делать маунт устройства и прочего. С этой частью я очень поздно познакомился. Делаю на этом акцент, потому что это будет одна из причин апгрейда.

И по сути началась жизнь, когда сторадж работал полностью сам в контексте загрузки контента в Плекс. СМБ шара доступная из локальной сети использовался для заливки архивов и бекапов. Всякие новые приколы и хотелки искались на докер хабе и добавлялись в монструозный на тот момент баш скрипт.

Да, да, о docker-compose я позжу узнаю сам

Но переход почти всех производителей контента на 4К, начало не позволять мне все смотреть без "прогрузок", а также свободного места со временем стало становится заметно меньше и меньше (а мы помним, что корпус вмещал ДО двух дисков 3,5).

Продолжение следует...

Комментарии (36)


  1. AVX
    18.04.2024 11:52
    +6

    Не, я понимаю стремление всё автоматизировать и загнать в скрипты, контейнеры и прочее. Но домашний сервер ставится и работает потом годами, за то время уже могут и технологии поменяться, и что-то новое появиться может. Да и для разовой задачи не стоит возиться со всем этим. Я к тому, что не стоит заморачиваться, не так это сложно всё настраивается, даже если крякнет ссд с системой, можно из бэкапа развернуть, да даже с нуля тоже можно всё настроить.

    Я дома на голое железо поставил Debian + transmission + minidlna + samba. Всё, стоит, торренты качает, кино показывает, файлы можно закидывать и хранить. Да, по-хорошему бы рейд собрать, но меня жаба душит, критическое есть на оффлайн диске и ещё в паре мест.

    При этом обошлось всё в 5к рублей - купил материнку/проц/память б/у на i5-4650 (потом разменял с другим компом на i3), корпус и кучка дисков разных уже были, разной степени изношенности. В планах разве что диск поболее добавить.


    1. ghostklart Автор
      18.04.2024 11:52
      +3

      С годами, и с получением опыта инженера, голод стал расти, и маленькая коробка, которая "работает", уже больше не удовлетворяла, хотелось больше)

      На примере: проект, который будет финальной главой моей истории имеет в себе ССД сторадж в сервере, который отдает по 10гигбитной линии доступ для ПК. Соотв. зфс управляет дисками на сервере, а "библиотеку" можно подключать к другим ПК (например друзей) или всякие другие приколюхи)


  1. Karroplan
    18.04.2024 11:52
    +9

    так домашняя хранилка или лаба? начнем с того, что минус за кликбейтный заголовок.

    Дальше минусы кончились, но были бы - за несоотвествие темы содержимому; за много воды ни о чем; за затертые темы "я тут не смог сделать нормальный nas"; отдельный минус за слово сторадж (поясню, английское storage произносится как сторейдж)


    1. ghostklart Автор
      18.04.2024 11:52

      1) началось с простой хранилки, закончилось лабой. В введении даю понять, что статья будет не одна, и пройдусь по всем шагам развития из NAS-а в Лабу с несколькими layer-s (compute, storage, попытка сделать sdn)
      2) техника и сложность статей (а тут специально стоит простой) будет менятся и усложнятся по мере того, насколько сложнее становится проект (опять таки от НАСа, до около серверной инфраструктуры дома)
      3) storage - скорее читается сторэдж, сторадж тоже встречается в рунетах


  1. MK_Ultra
    18.04.2024 11:52
    +3

    Чета как то очень сложно все. 3 свитча, при этом один из них подключен через точку доступа? И в итоге всего пара компов, вайфай и полтора сервера на балконе?


    1. ghostklart Автор
      18.04.2024 11:52

      свич и роутер стоят на входе в квартиру. свич поешный чтобы питать точки, плюс разгрузить сам роутер от задач по связке. За ПОЕ свичом идет кабель в точки доступа, и от одной точки до балкона идет еще один кабель. на балконе уже, кабель в гигабитный свич. и отдельный 10 гигабитный свич для связи хранилки с другими ПК


      1. MK_Ultra
        18.04.2024 11:52

        Ну тогда получается что если одна точка доступа сляжет - упадет вся сеть? Зачем добавлять дополнительную точку отказа?


        1. ghostklart Автор
          18.04.2024 11:52

          Подарок от "вторички") К своему сожалению, дом и ремонт прошлыми жильцами сделан так, чтобы проложить именно кабелевку по уму, уже просто не получится без капитального (видели бы, что тут сделал с элкстричеством, просто ужас).

          Бекап план на случай отказа Точки, это переходник мама-мама для RJ45 (6a), который уже даже лежит рядом на горячую замену.


          1. boingo-00
            18.04.2024 11:52

            Горячая замена возможна только если кто-то рядом находится. Что если точка отказала, никого в квартире нет, а доступ нужен прямо сейчас?


            1. ghostklart Автор
              18.04.2024 11:52
              +1

              1) работаю довольно часто из дома, потому не проблема)
              2) я все таки рассказываю больше про домашнюю лабы или мини инфру, а не инфраструктуру для бизнеса, если я не смогу послушать музыку через Плекс, неприятно, но не смертельно
              3) сервисы, которые нужны вне дома или 24/7, вынесены в облачную ВМку
              4) за 3 Года точки доступа ни одной аварии тьфу тьфу тьфу не было


              1. sirota
                18.04.2024 11:52

                Ну т.е. в сети есть точка отказа которую без вмешательства не починить. Во вторых вся схема как бы сама по себе не подразумевает хоть какой-то отказоустойчивости (ведь я так понимаю выход гигабитного коммутатора из схемы "Моя текущая схема" подразумевает развал сети на 2 части), но при этом вы заявляете "до по сути такой же схемы на "минималках"" сравнивая ее с схемой где есть HA?
                Была схема в ширь с отказоустойчивостью, отрезали от нее половину, убрали все промежуточные связи и на выходе получается ну ни разу не такая же схема, и даже без минималок и прочего.
                И зачем был весь этот опус?

                Опять же я не совсем понимаю при чем тут "тестирование it-систем". Хоть и в разрезе того что это первая статья.


                1. ghostklart Автор
                  18.04.2024 11:52

                  Схему того, как строят свой ДЦ компании был приложен, чтобы понимать, к чему хорошо бы стремиться, но не обязательно делать для дома или себя в рамках тестового контура или лабы.

                  Тестирование IT-систем: как передача своего опыта и мыслей по эксплуатации разных Storage-OS (что есть IT-системы)


                  1. sirota
                    18.04.2024 11:52

                    У меня пока есть один вопрос - сеть в итоге в последней статье остается такой же? количество серверов и связанность всего этого?


                  1. sirota
                    18.04.2024 11:52

                    del


  1. Kil1J0y
    18.04.2024 11:52
    +1

    От хренолоджи для хранения информации я отказался сразу, мой конфиг r5 3600, 32 озу, 3 старых диска по 320гб(кино сериалы и тд) , 2 по 2тб новых ironwolf в зеркале для важной информации, windows server 22, игровой комп он же основной рабочий, и купленный synology на 4 диска, с 4 по 4 в рейде 5 для критической информации. И лежит ещё проц r5 5600x под лабу, и ещё есть сборка i3 2320 8озу не задействована


  1. kfs
    18.04.2024 11:52

    Моя домашняя лаба: б/у сервер supermicro с Intel E5, набитый SSD и оперативной памятью + proxmox как система виртуализации.

    Летом лежал на балконе, на зиму разместил в датацентре (примерно 3,5 тыс. руб/месяц), там он и остался.

    Важная информация синхронизируется с git, образы ВМ бэкапятся на себя же через proxmox backup server (с дедупликацией).

    Сеть виртуализирована.

    Да, сервер сам по себе - единая точка отказа, но это - лабы. А за счет дешевизны компонентов, все меняется за копейки по необходимости.


  1. Dupych
    18.04.2024 11:52
    +2

    Маршрутизатор. Микротик.

    Гигабитный свитч микрот 24

    Сервер DELL T430 2 2690V4 128 оперы.

    Raid SSD, в корзине еще один на 4 по 4 тб.

    6 тб для бэкапов.

    В сервере 10g карта и в компе тоже.

    Файлы летаю со скоростью света.

    Esxi 6.7 u3 самая стабильная. Вечная.

    Unifi AP LR и Unifi AC Mesh.

    Дофига виртуалок.

    Хабики 5 портовые гигабитные TPLINK у телика+ приставка.

    Только гигабитная сеть всего.

    Wifi только для телефона.

    Apc 1000 с сетевой картой у сервера. Ap9631 вижу все о APC логи и напряжение+ управление.

    Apc1000 у компа с сетевой картой Ap9630.

    Комп завис. Не беда. Делаю на APC перезапуск портов питания с задержкой и все. Комп автозапускается сам.

    Ups 1000 на телик и приставку. Ибо скачок напряжения лишит радости смотреть новости.

    На всю квартиру ZUBR 63.

    Вот моя инфоаструктура.


  1. Dorlas
    18.04.2024 11:52

    Ну раз уж пошла инфа о своих домашних зверьках - вот мои два (собранные 5 лет назад):

    Планки памяти обычные Desktop/DDR3, диски, блок питания из того, что было.

    Внутри FreeBSD (недавно обновил до 13.3) + ZFS + CBSD. Сервисы по контейнерам, сетевое взаимодействие ограничено PF.

    Потребление питания - 20 Ватт/час (т.е. менее 100 руб в месяц).

    Сервисы стандартные: Samba, MiniDLNA, Transmission, OpenVPN, Dokuwiki, NextCloud.

    Есть возможность запустить парочку Linux через CBSD+BHYVE (но необходимости нет).


  1. Melonom
    18.04.2024 11:52
    +2

    Помню в молодости так же развлекался. Это теперь я уже дошел до того, что дома хватает одного ноута на 13 дюймов)


  1. heizen
    18.04.2024 11:52

    Резервное питание не упомянули, в квартире есть вероятность остаться без света, тогда вся эта пляска с HA может оказаться бесполезной


    1. sirota
      18.04.2024 11:52

      Да тут нет ни какого HA...


  1. Vinni37
    18.04.2024 11:52
    +1

    Давно у меня уже домашняя лаба, пережила 10–15 итераций по конфигам. В итоге остановился на таком варианте:

    1) NUC + Proxmox - для виртуалок, контейнеров и всего, что для души угодно. Тут и виртуалки тестовые и HA и хостинг с DB и Torserv и много всякого.

    2) Synology - для бэкапов, торрентов, фоточек, фильмов, видеонаблюдения и всего, что связанно с хранением данных и удаленным доступом к ним.

    3) OrangePI + Zabbix - мониторит все это добро + на мониторинге рабочие сервера.

    4) Keenetic - ну тут не надо объяснять зачем.


    1. NutsUnderline
      18.04.2024 11:52

      Веден ли с OrangePI + Zabbix на монитор в ситуационный центр (с красивыми графиками на)?


      1. Vinni37
        18.04.2024 11:52
        +1

        Выведен в отдельную облачную вкладку в Я.браузере. А постоянно мониторить нет смысла, в случаях кипиша прилетает алерт в телегу


    1. Vinni37
      18.04.2024 11:52
      +1

      5) УПС с мониторингом потребления в Zabbix


  1. GidraVydra
    18.04.2024 11:52
    +1

    Блин, я думал, тут интересное что-то, про оснащение домашней лаборатории. Осциллографы там, анализаторы спектра(


  1. AlexKMK
    18.04.2024 11:52
    +2

    Домашняя лаба :) Находится в мастерской - т.е. в грязном помещении. Соответственно, отдельное внимание уделено охлаждению - положительный градиент давления, HEPA на входе и так далее.


    1. dabrahabra
      18.04.2024 11:52
      +1

      Интересно:

      • hepa на входе - лайк, но насколько шумно получается?

      • MikroTik CRS - как себя показывает, у него не пассивное охлаждение?

      • Вижу что-то похожее не термостат, как он участвует в управлении климатом?