Решил собрать свой домашний сервер для виртуализации, чтобы изучать и тестировать разные интересные штуки. Причем захотелось собрать самостоятельно вникая во все нюансы сборки сервера. Это было увлекательное путешествие в hardware мир!

В этой статье поделюсь тем что у меня получилось, с какими трудностями я столкнулся на всем пути самостоятельной сборки сервера и как их решал (правильно или неправильно), поделюсь личными выводами. А в конце посчитаем все это дело в цифрах (на начало 2023 года).

Мотивация

Со школьных лет меня интересовала hardware тема, нравилось чинить принтеры, но как-то не было ресурсов для получения желаемого, а потом пришел умирающий PHP приносящий деньги продакшен в вебе и уже было далеко не до этих увлечений.

Но в один весенний вечер, под гнетом дедлайнов и личного кризиса, я решил исполнить свою детскую мечту и самостоятельно собрать домашний сервер.

На самом деле здесь есть детали более весомые, и одно детское желание не могло склонить формальную логику к столь серьезным действиям.

Проработав на новой работе уже более трех месяцев (март 2023), на позиции DevOps инженера, я понял что мне нужно осваивать смежные специализации чтобы успешно коммуницировать не только с продуктовой разработкой, но и с суровой эксплуатацией. И так удачно совпало, что и работа неявно подталкивала меня к тому чтобы не только осваивать новые сервисы, но и обслуживать их самостоятельно. А как по другому понять рутину не имея собственных ресурсов?)

Но как собрать? Купить готовую сборку б/у как-то слишком легко, а вот "собрать полностью самостоятельно" звучало как увлекательное путешествие!

Здесь я еще не понимал сложность вопроса, потому что никогда не занимался такими делами на столько серьезно, чтобы взять и собрать сервер.

А теперь ближе к сути. Речь пойдет про миниатюрный "черный ящик" справа (слева белый это уже второй домашний сервер).

А вот так он выглядит в разрезе:

А так разобранный на этапе поставки первых комплектующих:

Итак, начнем :)

На первый взгляд ничего сложного

Когда я начинал эту затею, то мне казалось что последовательность действий примерно такая:

  • находим материнскую плату

  • к ней процессоры

  • накидываем охлаждение

  • затем ОЗУ

  • вставляем все это дело в корпус

  • покупаем блок питания

  • радуемся

Но так ли это на самом деле?

Компоненты

Перечисляю в порядке возникновения вопросов и поступления товаров:

Материнская плата

Так как это первый сервер в моей жизни, то я еще ничего не понимал в материнских платах, но осознавал что это фундаментальная часть сервера. От этого зависит выбор процессора, охлаждение, ОЗУ, дисков и прочее.

Мне нужна была плата с поддержкой процессоров только от Intel, потому что только с ними я работал как пользователь, с AMD не доводилось. И так как я собираю сервер, то мне нужна поддержка двух процессоров, true-сервер все-таки.

За пару дней нашел объявление на Авито о продаже Supermicro X9DBL-i с двумя 6-ти ядерными Xeon E5-2420 за 4250р. Посоветовался с другом, который имеет опыт работы с серверами - получил одобрение: не слишком старая и не дорогая.

Тогда я еще не знал, но есть 3 экзистентных вопроса при выборе материнской платы, как минимум позже для меня это стало важным.

Сокет процессора

Первый вопрос: какой выбрать сокет? А точнее: что это вообще такое?

Сокет это разъем для установки процессора.

Когда впервые с этим сталкиваешься то глаза разбегаются: LGA 1151/1366/1356/2011/2011v3 и это только малая часть и только для процессоров Intel, у AMD свои сокеты. Фото из поиска Яндекс:

Как выяснилось каждый вид сокета процессора поддерживает только ограниченные модели процессоров. Новый сокет - новые процессоры, но и цена выше. Например, материнские платы с сокетами 1356/1366 старше, но дешевле сокетов 2011/2011v3, а значит и менее актуальны.

Сейчас, после изучения этого вопроса, я пришел к выводу что нужно брать не старше чем LGA 2011. Но на тот момент я взял плату с LGA 1356. Здесь есть краткое описание истории сокетов Intel, на википедии есть информация по сокетам, а там много материала по мейнстриму LGA 2011v3 и статьи по сборкам хуананов (к слову сейчас (ноябрь 2024) я себе взял двухсокетный хуанан на пробу).

Сокет LGA 1356 был не массовым и предшествовал LGA 2011, который близится к закату своего мейнстрима на б/у рынке (субъективно). Но сейчас я понимаю что за свою цену это приемлемое предложение. Если говорить про апгрейд до LGA 2011 где еще DDR3, то на выброс пойдут только материнская плата с процессорами, а охлаждение (если речь про quad сокет) и ОЗУ пойдут на новую плату.

IPMI

Раз уж речь идет о сервере, то по канонам нужен IPMI. Но на момент покупки платы я еще не знал про это.

Здесь есть интересная статья про IPMI, а если коротко то:

IPMI реализует BMC контроллер на плате, на котором тоже скорее всего стоит Linux, этот контроллер работает от дежурного питания материнской платы и позволяет управлять питанием сервера (вкл/выкл/перезагрузка), а также реализует KVM (удаленный доступ с поддержкой клавиатуры, видео и мыши). Кроме того, этот же контроллер осуществляет роль видеокарты.

Проще говоря: IPMI позволяет удаленно через веб-интерфейс управлять питанием процессора и через KVM подключаться к серверу.

На моей плате был контроллер, но не было IPMI, видимо он выполнял роль только видеоконтроллера. Это побудило меня к исследованию вопроса что в конечном итоге вылилось в статью о поисках IPMI.

Самый простой способ понять есть ли IPMI на плате это посмотреть на LAN порты:

Если бы не история с ОЗУ (см. ниже) то наверное я бы не упомянул IPMI.

Форм-фактор

И здесь стоит еще познакомится с существующими форм-факторами материнских плат, потому что это будет влиять на выбор корпуса.

К слову, у меня возникли некоторые трудности в поисках корпуса для размера SSI-EEB, который E-ATX, но тут нужно уточнять в каждом конкретном случае, потому что трактовки этих форм-факторов разные у разных продавцов.

Для самОй материнской платы форма-фактор может влиять на количество и плотность компонентов:

Процессоры

Материнская плата с сокетом LGA 1356 есть, теперь под этот сокет нужно подобрать процессор.

В документации к плате сказано, что она поддерживает всю линейку процессоров Xeon E5-2400 v2, а топовый в этой линейке это Xeon E5-2470v2 с 10-ю ядрами. Поискав на Авито, удалось найти объявления по 1000р за штуку, беру два.

Здесь мало что скажешь, мы ограничены небольшой линейкой моделей, но в LGA 2011v3 выбор будет больше (списки для v3 и v4).

Охлаждение процессоров

Подобрать материнскую плату было не просто, но с охлаждением оказалось труднее из-за отсутствия понимания как оно вообще там должно быть и как организовать воздушный поток.

Есть радиаторы, стоковые кулеры, башенные кулеры. У них есть различные крепления и есть даже переходники с одних сокетов на другие. Что выбрать?

Радиаторы маленькие и это больше про сервера в стоечных корпусах, где мощные/шумные вентиляторы образуют поток воздуха в направлении радиаторов.

Кулеры (радиаторы вместе с вентиляторами) большие но тихие, подходят для десктопов, они вполне умещаются в домашней обстановке. На фото ниже показан воздушный поток внутри корпуса, организуемый вентиляторами с кулерами:

Ладно, кулеры так кулеры, а что с креплениями?

Опытным путем и гуглением было выяснено что крепления для сокетов 1356 1366 и 2011 одинаковые. Значит нужны кулеры для одного из эти сокетов.

Если присмотреть к площадкам для процессоров на материнской плате, то можно увидеть 4 отверстия, вот туда то и должны вкручиваться ножки кулера.

В интернет-магазинах можно найти переходные варианты в виде пластиковых креплений для кулеров под AMD сокеты. Я взял, померил, но пока не стал использовать, субъективно - ненадежно. Сразу фото в цвете:

Поиски в интернете навели меня на башенные кулеры Deepcool GAMMAXX S40 за 1108р за штуку, а их надо 2, итого: 2216р

А вот так они стоят на плате:

Кулеры поддерживают сокеты LGA 1156, LGA 1366, LGA 2066, винты крепления имеют регулируемую удаленность, есть также переходники для AM3, AM3+.

Из-за регулируемых (нефиксированных) винтов монтаж на сокет оказался проблематичным, через несколько итераций монтажа резьба на одном из винтов была сорвана.

Кулерами доволен, дуют мощно, работают тихо. Однако, они большие, а потому неудобны для маленького корпуса и ATX форм фактора материнской платы: снять кулеры без демонтажа платы из корпуса не получится, а учитывая что питание платы и процессоров на верху то их подключение превращается в испытание. Смена плашек ОЗУ на верхней части платы не представляется возможной, а одна из плашек прямо упирается в радиатор.

Для сравнения фото внутренностей моего второго сервера, здесь видно что расстояние между кулерами и верхней стенкой корпуса большое (в корпусе предусмотрена установка водяного охлаждения на верхней части):

К слову, необязательно было брать такие высокие и широкие, можно было чуть ниже и легче, возможно монтаж был бы проще. На фото видно что одну плашку ОЗУ не снять без демонтажа кулера:

Позже я обнаружил существования маленьких, аккуратных и работоспособных стоковых кулеров. Двухнедельный мониторинг Авито навел меня на Intel E47159-001 2U за 1000р каждый (итого 2000р):

А вот так они выглядят в корпусе:

Монтаж/демонтаж таких кулеров одно удовольствие, все максимально удобно. Особенно было заметно заточенность только под один сокет (группу похожих по размерам креплений): здесь не надо куда-то подгонять винты все уже выставлено ровно на том расстоянии, на котором должно быть.

Но, конечно же они не так мощно охлаждают процессоры как башенные кулеры, поэтому они были отложены в коробку на долгое хранение.

Кроме того следует упомянуть про управляемость вентиляторов, как на кулере процессора так и на обычных внутрикорпусных вентиляторах. Под управляемостью вентиляторов подразумевается изменение скорости вращения лопастей, чем сильнее вращение тем быстрее охлаждение и наоборот. Это нужно в случаях высокой нагрузки на CPU для эффективного рассеивания тепла, материнская плата/ОС сама будет управление скоростью вентиляторов.

Для управления вентилятором используется коннектор 4pin (4 контакта) как на самом вентиляторе, так и на плате:

3pin (3 контакта) это неуправляемые вентиляторы, они будут крутиться с одинаковой скоростью все время. Следуя логике, кулеры должны быть 4pin и подключать их нужно тоже к 4pin, чтобы регулировка оборотов вентиляторов охлаждающих процессоры регулировалась в зависимости от нагрузки процессора.

ОЗУ

Вариантов плашек ОЗУ оказалось тоже много и возникают разные непонятные термины: UDIMM, RDIMM, LRDIMM, ECC, ранки, частота, многоканальность. Здесь есть некоторые ответы.

Немного правил выявленных в ходе изучения:

  • в один и тот же сервер нужно ставить одинаковые типы памяти (все RDIMM или все LRDIMM), смешивать нельзя

  • в большинстве случаев серверные материнские платы поддерживают ОЗУ только с ECC

  • желательно занимать все разъемы на плате чтобы включалась многоканальность и как следствие увеличивалась скорость (как минимум так говорят интернеты)

  • детали нужно уточнять в документации к материнской плате, там будет достаточное описание для сужения поиска

Так как это изначально был эксперимент, который должен был вырасти во что-то большее, то я решил взять что-то простое: Klisre DDR3 ECC REG, 4 плашки на 8гб за 2600р комплект.

А позже, мне очень захотелось прокачать до максимума. Зная что DDR3 максимум 32гб, а у меня всего 6 разъемов, значит нужно искать 6 плашек. В тот момент, мой друг, который во многом способствовал, подкинул мне мысль о том, что нужно брать LRDIMM. И судя по документации к плате 32гб LRDIMM плашка выигрывает в частоте и может работать на 1333:

Но чего я тогда не знал, так это то что LRDIMM греется и ее нормальная системная температура 75-85C. И с тех пор начались мои приключения с мониторингом температуры ОЗУ при отсутствующем IPMI, про это была серия постов в моем телеграм канале. История завершилась моим смирением с отсутствующим IPMI и после некоторого времени я замерял температуру при помощи usb-термометров.

На данный момент в моем первом домашнем сервере стоит 6 плашек ОЗУ по 32гб, итого 192гб. Взял я их на Авито, комплектом за 16800р

Блок питания

Теперь определимся что нам нужно питать:

  • плату - 24pin

  • 2 процессора - на каждый по 8pin

  • диски - желательно несколько SATA

Посчитав энергопотребление каждого компонента послушав советы интернетных экспертов я приобрел Deepcool PK500D на 500Вт за 3630р:

Питание 24pin на плату и 2 по 8pin на каждый процессор. Сертификация 80 plus Bronze (рекомендуют брать не ниже Bronze чтобы КПД был не низкий).

Большую ясность характеристик блока питания при выборе внесло это видео.

При установке возникло 2 проблемы:

  • кабель питания платы не дотягивался до разъема, пришлось взять удлинитель

  • кабель питания одного CPU не дотягивался до разъема, купил удлинитель, но он оказался не для CPU, а для GPU, поэтому с ним плата не стартовала, пришлось переделать провода:

А вот так все это выглядит внутри:

Позже я узнал что есть модульные блоки питания, где кабели отстегиваются, оказывается это удобно. На свой второй сервер поставил такой модульный блок питания:

Диски

Изначально я хотел виртуализацию на базе Proxmox, значит именно под это дело нужно планировать хранилище.

Сначала я поставил один SSD WD Blue на 500гб, но позже я подумал что нужна отказоустойчивость дисков и решил сделать RAID1, отдельно для системы, отдельно для хранения данных. Но я тогда еще не знал что старые платы от Supermicro не полностью поддерживают NVMe даже после прошивки модифицированного BIOS.

Как бы там ни было, загружаться можно с SSD дисков по SATA, а после загрузки подключатся диски по NVMe, меня это устраивало.

Для организации этого я купил:

  • для системы Digma SSD RUN S9 на 256гб 2шт по 1400р

  • для хранения данных: адаптер NVMe для SSD m.2 в слот PCI-e 2шт по 340р + Apacer SSD-диск AS2280P4U PRO 2шт по 5400р

Так выглядит конструкция:

А так диски стоят внутри сервера:

Корпус

Для первого сервера я решил экономить и взял Ginzzu SL180 за 2900р. С ним все хорошо только на картинке, и последствия экономии вылезли по ходу эксплуатации (а чего я ждал когда экономил?).

Самое печальное это отсутствие нормальных съемных пылевых фильтров на передней панели, и как следствие через несколько месяцев все внутренности в пыли.

Для сравнения можно посмотреть на XPG DEFENDER (в 2 раза дороже) со съемной передней панелью и съемным пылевым фильтром:

Для установки вентиляторов пришлось снимать переднюю панель, а так как она внутри связана проводами с самим корпусом, то это было крайне неудобно. Для себя я сделал вывод: передняя панель корпуса не должна быть связана с фронтальным управлением (кнопка питания и usb). Для сравнения корпус Cougar Airface где фронтальное управление вынесено в боковую часть корпуса, а значит передняя панель корпуса не обременена проводами:

Более того на переднюю панель корпуса во внутреннюю часть крышки (как и должно быть) встали только средний и нижний вентиляторы (потом убрал нижний), а верхний пришлось размещать уже внутри корпуса, что выглядит криво, вентиляторы 120мм:

Кабель-менеджмент в боковой части корпуса сносный:

Охлаждение внутри корпуса

Перед тем как брать вентиляторы для внутреннего обдува нужно определиться с мощностью, которую подает материнская плата. Техподдержка утверждает что все платы Supermicro выдают по 3А на каждый разъем вентилятора. В других источниках была цифра не более .

Я взял Delta AFB1212SH 120x120х25мм 0.8А (в пределах нормы), 46.5дБ (не слишком шумный) 4 pin(управляемый). Взял 3шт по 440р.

В добавок к вентиляторам понадобилось 2 комплекта винтов M5x10 16 шт за 160р за комплект, и комплект защитных решеток Fan Grill 120x120мм за 400р (5шт):

Позже, опытным путем выяснилось что на моей плате только один нижний разъем вентиляторов может регулировать обороты, поэтому пришлось взять разветвитель питания за 250р:

Расходники и инструменты

Термопаста (большой шприц за 300р):

Набор отверток за 655р:

Еще нужны SATA кабели. Сильно не вникал, взял самые дешевые.

Какова цена?

Подведем итог, сколько все это вышло (цены первой половины 2023 года):

Наименование

Модель

Количество

Цена за ед.

Общая сумма

Материнская плата

Supermicro X9DBL-I

1

4250

4250

CPU

E5-2470v2

2

1000

2000

ОЗУ

DDR3 ECC Reg 32Gb LRDIMM SK Hynix

6

2800

16800

Кулер

Deepcool GAMMAXX S40

2

1108

2216

Блок питания

Deepcool PK500D

1

3630

3630

Вентиляторы

Delta AFB1212SH 120x120х25мм 0.8А

3

440

1320

Комплект винтов

M5x10 (16шт)

2

160

320

Комплект защитных решеток

Fan Grill 120x120мм

1

400

400

Разветвитель для вентиляторов

1

250

250

Desktop корпус

Ginzzu SL180

1

2900

2900

Итого

34086

И это только то, что в итоге оказалось в сервере. Кроме этого было куплено еще много всяких мелочей, который оказались лежащими на полке.

Что теперь?

Оказалось сборка сервера с нуля без опыта это не простая затея и требует много времени на изучение чтобы купить все совместимые друг с другом компоненты. Для первого опыта норм, но можно было сделать лучше. В совокупности у меня это заняло примерно 2 месяца.

После сборки я развернул несколько виртуалок и установил нужное мне ПО. А спустя некоторое время этот сервер продал по цене сборки, на подходе был второй домашний сервер, лучше и мощнее.

За все время сборки я получил интересный опыт и стал ближе к коллегам сисадминам.

Кроме одного домашнего сервера, в моем арсенале инфраструктуры появился блейд сервер и несколько неуправляемых коммутаторов (справа десктопный сервер, слева внизу блейд-сервер на 8 материнских плат, а на нем коммутатор):

Дальше я хочу организовать свою домашнюю инфраструктуру для работы, разработки и хранения данных. Нужно до собрать второй сервер и запустить на нем виртуализацию, а затем доделать инфраструктуру с защищенным сетевым периметром и возможностью прокидывать порты виртуалок наружу.

Возможно, продолжение следует ...

Комментарии (48)


  1. DissXX
    25.10.2024 08:35

    Это точно домашний сервер? )) Просто уточнить)) Отказоустойчивость - это уже не просто "чтобы изучать и тестировать разные интересные штуки" Опять же, 2 CPU нужно для задействования всех слотов памяти. Или работы в трехканальном режиме. А тут всего 32 Gb оперативной установлено.


    1. Sulerad
      25.10.2024 08:35

      А тут всего 32 Gb оперативной установлено.

      Я тоже так сначала прочитал, но по тексту это только одна плашка и в итоге было установлено 32*6=192ГБ памяти


    1. Byurrer Автор
      25.10.2024 08:35

      Да, точно домашний сервер, хотелось собрать его по канонам продакшена)

      В итоге там 192гб ОЗУ (6 плашек по 32гб).


      1. DissXX
        25.10.2024 08:35

        Тогда вопрос по RAID 1)) Ладно если контроллер выйдет из строя у SSD, но деградируют то ячейки памяти у них одинаково. Один не рабочий- почти 100% нерабочий и второй.


        1. Byurrer Автор
          25.10.2024 08:35

          Судя по характеристикам, предполагаю, на мой век этих дисков должно хватить)

          В любом случае критически важное нужно дублировать в другое хранилище.


        1. DaemonGloom
          25.10.2024 08:35

          Этот вопрос решается принудительной заменой одного SSD на новый через пару лет. И освободившийся диск можно использовать, например, в ноут/комп.


          1. DissXX
            25.10.2024 08:35

            Все равно это кажется немного нерациональным. В два раза более объемный диск даст большую надежность при меньшей стоимости. А освободившийся по вашей схеме диск имеет уже гарантированный износ.


            1. tremp
              25.10.2024 08:35

              Тут разговор про надёжность, а не рациональность. В статье, вообще, не рациональная сборка для указанных целей.


          1. tremp
            25.10.2024 08:35

            + покупается 3 диска. 2 ставятся. Через пару месяцев один меняется. Замененный отправляется в ЗИП.


        1. CherryPah
          25.10.2024 08:35

          Вы кстати затронули интересный момент, о котором не всегда задумываются и достаточно много народу обожглось. Но

          Один не рабочий- почти 100% нерабочий и второй.

          тут ошиблись в цифре. По личному опыту эксплуатации могу сказать что на один факап связанный с одновременным износом дисков в зеркале есть 50 случаев когда raid отрабатывал как и должен, обеспечивая надежность.


          1. tremp
            25.10.2024 08:35

            Имел опыт с hdd. Было 2 случая выхода из строя одного из дисков в рейде. Второй умирал в течение недели. В обоих случаях.


            1. CherryPah
              25.10.2024 08:35

              У меня не очень большой опыт по эксплуатации рейдов из двух hdd, да и давно это было, но все равно не помню чтобы hdd так друг за другом сыпались. За ssd да, есть такой грешок, одновременно установленные +/- одновременно и сдохнут, однако даже в вашем случае была неделя чтобы перебэкапиться / перенести данные и заменить вылетевший диск, не потеряв ни данные, ни доступность. С учетом того что ssd там за считанные часы ребилдится.

              Ну в общем либо мы богатые буратины и меняем диски по инструкции вендора (когда ресурс ячеек даже теоретически не мог выработаться) или сами внимательно следим за ресурсом через смарт. Либо злобные буратины, меняющие диски когда "эта лампочка уже надоела мигать красным", тут поможет либо предложенная выше (и вами тоже) стратегия роллить замену и миксовать диски так чтобы у вас в паре не стояли с одинаковым пробегом, или просто быстро менять и молиться что в запасе неделя, а не час =)

              Бэкапы разумеется никто не отменял, ну и если цель в максимизации девяток - то диск - не единственное что может вылететь, рейд может развалиться, да и сам сервак прекрасно может сдохнуть полностью.


        1. Byurrer Автор
          25.10.2024 08:35

          Стало интересно: а как надо если хочется ssd?


          1. DissXX
            25.10.2024 08:35

            Так надо или хочется? )) Надо- это когда критически важна доступность сервиса и простои недопустимы. Тогда можно SSD в RAID, меняя один из дисков по достижении 1/2 TBW. Но тут уже вопросы к NoName адаптерам NVMe, а специализированные контроллеры стоят больше всей вашей сборки.))

            А вот если это все же домашний сервер и хочется - я бы просто взял диск удвоенного объема с хорошим TBW и делал резервные копии образа системы. Все же скорость восстановления SSD позволяет сделать это довольно быстро.


            1. Byurrer Автор
              25.10.2024 08:35

              Хм ... есть над чем подумать, спасибо, взял на заметку)


  1. Tirarex
    25.10.2024 08:35

    Выбор платформы конечно спорный. Конечно что бы повозиться с ipmi и двумя процессорами, вариант неплохой.

    Но современный i5 12400 будет в 3 раза быстрее вашего зеона, а райзен 7500f (за 8-9к рублей) будет уже как 4 таких зеона, и все при очень малом потреблении и минимальном шуме с простым кулером.


    1. Byurrer Автор
      25.10.2024 08:35

      Ryzen 5 7500f от 13к на авито начинается, и это только CPU, в планах рассматриваю вариант попробовать, но для первого домашнего сервера было решено собирать решение "бюджетнее". И потом, имхо, такой мощи (то о чем вы пишите) простаивать под минимальной нагрузкой экспериментов мне показалось не очень хорошо, есть применение лучше.


    1. kuza2000
      25.10.2024 08:35

      Но современный i5 12400 будет в 3 раза быстрее вашего зеона

      Я бы не был столь категоричен. Быстрее - для каких задач?

      Для офисных и игр - может быть.

      А на десятке виртуалок с нагрузкой на память и диски (не один) скорее всего этот i5 сядет в лужу. А старенький зеон - потянет. Потому что каналов памяти больше. И PCI шин на периферию больше.


      1. DaemonGloom
        25.10.2024 08:35

        В целом - для любых задач он будет быстрее, кроме требующих вагон PCIE линий. Память за эти десять лет тоже достаточно неплохо ускорилась. Единственное, что теряется при этом - ECC.


      1. Tirarex
        25.10.2024 08:35

        А на десятке виртуалок с нагрузкой на память и диски (не один) скорее всего этот i5 сядет в лужу. А старенький зеон - потянет. Потому что каналов памяти больше. И PCI шин на периферию больше.

        Каналов памяти больше но они DDR3, 8 каналов ddr3 = 2 канала ddr5 в легком разгоне (+-100гб/сек), цена за обьем это конечно другой вопрос, но вроде падает.

        Ядер меньше но они быстрее судя по бенчмаркам, одно ядро от свежего i5 = 5 ядрам старого зеона из этой сборки. Они банально в разы быстрее на частоте 4,4ггц. И большой бонус что нет NUMA с ее задержками между процессорами.

        PCIe линий у зеонов больше (24 на проц), а у i5 всего 20, но при этом это до 16 линий 5 поколения, либо 2х8 5 поколения + 4 линии 4 поколения до ссд, и до чипсета идет 8 линий DMI 4.0 (те же PCIe 4 поколения) а на чипсет еще кучу всего можно повесить (15гбайт/сек). С новыми дисками (5 поколения либо серверные u.2 4 поколения) и сетевыми картами, IO будет наравне если не быстрее в реальных задачах. На Z чипсете можно pcie bifurcation включить и воткнуть 4 диска в X16 слот и все они gen4 Будут, можете представить себе какие там скорости в той же мелкоблочке.

        В общем старое железо хорошо тем что его кто то на авито покупает, и оно дешевое, но для себя любимого лучше что то посвежее смотреть.


        1. kuza2000
          25.10.2024 08:35

          Каналов памяти больше но они DDR3, 8 каналов ddr3 = 2 канала ddr5 в легком разгоне (+-100гб/сек),

          Это так не работает. Но я спорить не буду, так как окончательный ответ могут дать только реальные тесты.


          1. Tirarex
            25.10.2024 08:35

            Давайте тесты, ибо мы как раз сравнивали 8 ddr3 каналов в легком разгоне и мою ddr5 в разгоне, результаты скорости ддр5 выше.


            1. kuza2000
              25.10.2024 08:35

              Так у меня нет такого железа :)
              Разве что могу свою DDR4 протестировать на 3975х, там четыре канала. Если тесты под линукс.


              Ну и вы же сравнивали на определенных задачах или тестах. К примеру, при копировании больших кусков памяти производительность может быть близка к заявленной пропускной способности. А вот если 20 процессов одновременно лезут в память с запросами небольших кусочков - тут все может быть по другому. 8 каналов на серверном процессоре смогут выполнять несколько запросов параллельно, а на десктопном - вряд ли.


              1. Tirarex
                25.10.2024 08:35

                 А вот если 20 процессов одновременно лезут в память с запросами небольших кусочков 

                ддр5 под капотом как бы 2 канала на планку если говорить очень грубо (от того проблемы с четырьмя планками на всех железках сейчас), кроме того вы забываете про Numa, и если эти 20 процессов полезут за памятью на разных процессорах то результат будет просто плачевный. Кроме того у меня как раз proxox на 13600к с ддр5 живет, на нем в одно время несколько minecraft серверов висело с 15гб на каждый, игровая VM на которой под 200+фпс шел этот самый майнкрафт, умный дом, и еще пачка всего, и каких то затыков не замечалось. Либо 60+ человек на игровых серверах это не показательная нагрузка для памяти, либо что то не так.

                Энивей, хотел бы посмотреть на тесты которые могли бы симулировать ваши задачи в которых это чудо на 8 каналов медленной памяти + numa было бы хоть как то быстрее.


                1. CherryPah
                  25.10.2024 08:35

                  Не в поисках истины, а только флуда ради

                  кроме того вы забываете про Numa, и если эти 20 процессов полезут за памятью на разных процессорах то результат будет просто плачевный

                  Так вроде бы научились с этим бороться, разнося виртуалки/задачи чтобы они не ходили на на соседний проц за памятью. Точно помню на хабре статьи как это победить возглавить.

                  Пока одни страдают от задержек из-за кроссцпушных обращений к памяти, другие вообще гоняют память не то что между процами, а между серваками, по сети через RDMA, и считают zero-copy киллер-фичей

                  умный дом

                  *брюзжит по-стариковски* Что у вас там за хоромы такие, по мне для умного дома должно хватать мощностей если не ESP8266, то уж малинки то за глаза. Ну это точно не нагрузка для 13600 и 5ых ддров. Гагарин с Луноходом вон на лампах прекрасно летали и хватало.


  1. mirwide
    25.10.2024 08:35

    Для домашней лаборатории для виртуализации узкое место будет диск, в первую очередь. Столько ЦПУ без реальной нагрузки не утилизировать, память это тоже на любую фантазию хватит. Собирал для ESXi хост на пользовательском железе, самый дешёвый на 2016 год двухъядерный Celeron с 64Гб RAM вполне справлялся с десятком ВМ. Хватало даже чтобы запустить такие страшные штуки как кластер SAP PI с Oracle RAC одновременно.

    Плюс дешёвого но нового железа, что спустя 8 лет его всё ещё можно ремонтировать не с Авито.


  1. bormanman
    25.10.2024 08:35

    Я уже видел все стадии появления этой болезни у некоторых моих друзей-коллег, когда дома начинает зарождаться горка разнопланового хлама из дата-центров. Кому-то хватает потом здравого смысла распродать/раздать это барахло по другим несчастным (богатеют с этого только авито и барыги на авито), а кто-то до сих пор ушибает ноги о свитч, который в теории может переварить трафик небольшого города, а на практике в домашних условиях вызывает только боль, поэтому пылится в углу.


  1. ABy
    25.10.2024 08:35

    Интересно для чего такое железо можно дома использовать?


    1. Byurrer Автор
      25.10.2024 08:35

      Я использую для изучения обслуживания ПО в кластерах (kafka, consul, mariadb, influxdb и прочее), свои сервисы там же крутились. Можно было бы все это на виртуалках хостинг-провайдера крутить, но мне захотелось на своем сервере, часто изучение растягивается по времени и виртуалки у провайдера простаивают и кушают денег, предполагаю что на своем сервере кушают меньше, хотя тоже считать надо.


      1. ABy
        25.10.2024 08:35

        Для этого обязательно нужен двадцатиядерный двухглавый монстр со 192Гб оперативки?:)


        1. Byurrer Автор
          25.10.2024 08:35

          Можно больше)

          Пока не упираюсь.

          Мне нужен был опыт сборки сервера, а потом решил прокачать его и вот так вышло.


  1. cahbeua
    25.10.2024 08:35

    А чем эта "СБОРКАСЕРВЕРА" отличается от "собираем пк с нуля в картинках для школьников"? То что 2 ЦПУ вместо одного?

    Если нужен демостенд с виртуалками лучше использовать десктопный проц посвежее. Да, 198ггб ОЗУ из ДДР5 выйдет как крыло для дерижабля, но вам в домашних условиях столько и не нужно. Работать будет быстрее, гудеть тише, жрать меньше и поместится в миниатикс корпус.

    Ну а когда придёт осознание что оно нахрен всё не упёрлось и проще на работе заниматься "демовством" купите одноплатник на н100 под домашний медиасервер и будете счастливы.


    1. kuza2000
      25.10.2024 08:35

      А чем эта "СБОРКАСЕРВЕРА" отличается от "собираем пк с нуля в картинках для школьников"? То что 2 ЦПУ вместо одного?

      Ну, мне было интересно узнать, что есть такая штука, как IPMI :)

      но вам в домашних условиях столько и не нужно. 

      Это уже автору виднее. К примеру, это восемь виртуалок по 32 Гб.


      1. CherryPah
        25.10.2024 08:35

        Ну, мне было интересно узнать, что есть такая штука, как IPMI :)

        Только не пользуйтесь советом автора о определении наличия ipmi по поиску lan-порта на материнке =) Это не совсем так работает. Как пример у меня в серваке нет выделенного порта под ipmi (точнее место под него есть, и установить его можно, но это опция) а сам ipmi можно пошарить через интегрированную сетевуху, а можно даже через внешнюю воткнутую в обычный PCI проприетарный flexlom


        1. Byurrer Автор
          25.10.2024 08:35

          Судя по скринам, это уже когда вошел в интерфейс IPMI, я как раз до этого момента не мог дойти, а после нескольких серверов с существующим IPMI понял что самый надежный вариант для новичка это выделенный LAN)


        1. DaemonGloom
          25.10.2024 08:35

          Может быть ещё веселее, у меня на одном из SuperMicro выделенного порта вообще не предусмотрено. Доступ только поверх одного из двух основных портов.


    1. Byurrer Автор
      25.10.2024 08:35

      Я хотел собрать именно сервер с его нюансами. Поковырял IPMI, понял что такое KVM over IPMI. И научиться хоть немного разбираться именно в серверном железе, а не в дескопном, разница в деталях оказалась.


    1. ABy
      25.10.2024 08:35

      А чем эта "СБОРКАСЕРВЕРА" отличается от "собираем пк с нуля в картинках для школьников"?

      Спрведливости ради, у серверных железок своих приколов хватает. Вы статью то чтиали? И у автора ещё не самая дичь.


  1. Grizzlishe
    25.10.2024 08:35

    Зачем Блэйд сервер я так и не понял... Для него шумобокс или отдельное помещение нужно. Там без прижатия роутом он улетит


    1. Byurrer Автор
      25.10.2024 08:35

      Я как-то работал преподавателем по системному администрированию, вот взял блейд для студентов, преподавание закончилось а блейд остался) Его разместил на кухне, где меньше всего бываю, а спать с ним в одной комнате не вариант. В будущем если продолжу с ним работать, то надо будет в датацентр относить. В Казани узнавал для 4 юнитов 1620ватт примерно 15к колокейшен, вроде норм.


  1. TheOldGrouch
    25.10.2024 08:35

    а там много материала по мейнстриму LGA 2011v3 и статьи по сборкам хуананов (к слову сейчас (ноябрь 2024) я себе взял двухсокетный хуанан на пробу)

    судя по верхней же статье "там", санкции дотянулись и до этого рынка


    1. TheOldGrouch
      25.10.2024 08:35

      И кстати, я проверил - память купить ещё можно, процессоры и матплаты, действительно, уже нет. даже в поиске не выдаёт. так шта, ой. только на авито/вайлдбериз/озоне брать у тех, кто оптом возит через третьи страны


  1. sirmax123
    25.10.2024 08:35

    Учитывая что есть блейд и свитч - следующий шаг это выкинуть это баловство самосборное и брать номальные сервера в стойку ) и свитчи не длинк и не гиг а cisco/juniper и с 10+Gig )


    1. Byurrer Автор
      25.10.2024 08:35

      К серверам только 100мб/с подходит, этого хватает, еще не было задач где упирался в ширину канала.


      1. dimsoft
        25.10.2024 08:35

        еще не было задач где упирался в ширину канала.

        А бекап ? У меня уже в 10Гб/с упирается, пришлось бекапную хранилку на 40Гб/с переводить, иначе в "окно бекапа" полный бекап не успевает.


        1. Byurrer Автор
          25.10.2024 08:35

          До бэкапов еще дело не дошло. А что за бэкапы такие объемные на домашнем сервере что в 10Гб/с не умещаются?


  1. Vova88927
    25.10.2024 08:35

    А что за блейд? За сколько брали?


    1. Byurrer Автор
      25.10.2024 08:35

      SuреrМiсrо 5037МR-Н8TRF на последнем фото слева.