Рассылка принесла новости, что начали появляться записи с VMware Explore 2024 - Las Vegas, 26 – 29 августа 2024:
Building Efficient Networking Infrastructure for Private Cloud and AI Clusters
VMware Cloud Foundation Infrastructure Design with NSX
Build Private Clouds with VMware Cloud Foundation Networking: Plan, Design, Deploy and Operate
Лекция уровня Technical 200 на английском - это сколько на Хабре, интересно, -5 к статье или -10, потому что не на русском ?
Одновременно зачем-то взял и разобрал свою старую библиотеку по VMware.
Под катом всякое, для РФ не актуальное.
Нашлось:
Администрирование VMware vSphere 5 – вышедшая в 2012 году книга должна была устареть, но до сих пор безусловный must read для тех, кто хочет познакомиться с предметом, но не готов читать много, и исключительно на английском.
Классика серии «для начинающих»:
Книга на вечер-другой из 2017 года, бесплатная, vSphere 6.5 Host Resources
И от того же автора, но из 2018 года - VMware vSphere 6.7 Clustering
К этой же серии стоит отнести простое пособие 8 летней давности – Vsphere HA fundamental concepts,
И пособие чуть потолще, VMware vSAN 6.7 U1 и ее обновление - VMware vSAN 7.0 U3, кстати доступно почти бесплатно
Завершает пятерку «книг для начинающих» - книжка про хранение, Khalil, Mostafa. Storage Design and Implementation in vSphere 6: A Technology Deep Dive. 2nd ed. Indianapolis: VMware,. 2017.
Еще из не совсем старого нашлось:
vMotion Innovations in VMware vSphere7.0 U1 Performance Study - September 24, 2020, но этот текст лучше читать с продолжением, What’s New in vSphere 8 for vMotion?
Нашлись скучные официальные книжки почти без картинок –
vSAN 7.0 Planning and Deployment Update 1, Update 2, Update 3
vSAN 8.0 Planning and Deployment Update 3 (бесплатная на официальном сайте)
vSAN 7.0 Network Design Update 3
vSAN 8.0 Network Design Update 3 (тоже бесплатная)
По работе файловой системы откуда-то всплыла Reverse Engineering Virtual Machine File System 6 (VMFS 6), а по работе часов – потерянная во времени
Timekeeping in VMware Virtual Machines, вместо которой можно прочитать Timekeeping within ESXi или Timekeeping best practices for Linux guests.
Для автоматизации нашлась совсем-совсем старая
VMware vSphere PowerCLI Reference: Automating vSphere Administration, 2nd Edition из 2015 года, но тут можно начать с более простой VMware PowerCLI User's Guide
По метростроительству тоже ничего нового – все та же VMware vSphere Metro Storage Cluster Recommended Practices
По настройке отдельных приложений – без изменений:
Architecting microsoft sql server on vmware vsphere
Virtualizing Active Directory Domain Services on VMware vSphere
Microsoft Exchange Server on VMware vSphere (Exchange Server 2019 / vSphere 7.0)
Дальше нашелся старый, но неплохой VMware Certified Professional Data Center Virtualization on vSphere 6.7 Study Guide: Exam 2V0-21.19 (есть ознакомительный фрагмент), хотя есть и бесплатный VCP-DCV vSphere 8 Study Guide from NAKIVO, на реддите сообщают про VMware VCP-DCV 2023 Study Guide и не только.
Из какой-то подсобки, видимо, выбросили, а я подобрал -
VMware vSphere Install, Configure and Manage v70 в составе
EDU-EN-VSICM7-LECT (4/2020) и
EDU-EN-VSICM67-LAB (4/2020)
VMware vSphere Optimize and Scale v70 в составе
EDU-EN-VSOS67-LAB (4/2020) и
EDU-EN-VSOS7-LECT (4/2020)
Как говорится, просите — и вам дадут, ищите — и найдете, стучите — и вам откроют. Кто просит — получает, и кто ищет — находит, и кто стучит — тому откроют.
В связи с этим в очередной раз хотел бы выразить отдельную благодарность тем, кто помог в свое время (очень давно) посмотреть на Managing HPE 3PAR StoreServ I HK902S и Managing HPE 3PAR StoreServ II HK904S, до сих пор могу рекомендовать.
Говорят, есть еще VMware Tanzu Mission Control Management and Operations 2022, но у меня нет, да и не искал.
Продолжение, традиционно, на Пикабу и в моем телеграмм канале, желающие рассказать про успехи импортозамещения - в комментарии.
Комментарии (24)
Tsimur_S
30.09.2024 18:52А можно пару предложений для того кто вообще не готов читать книжки 2012 года зачем это вообще нужно в 2024? Что именно vmvare может предложить по сравнению с той же proxmox и можно ли их вообще сравнивать?
ildarz
30.09.2024 18:52+4Если не в паре, а в одном предложении - нет, это вещи несравнимые, Proxmox даже близко не стоит.
321785
30.09.2024 18:52А можно кратко по пунктам?
А то пока смотрится монстром по сравнению с Proxmox в нашем случае.ildarz
30.09.2024 18:52+1Есть такое понятие, как продукт, и довольно сложно "по пунктам" расписать ситуацию, когда один продукт лучше другого буквально во всем (кроме цены). Proxmox, без дураков, проделал просто огромную работу по сборке из линуксвэя, где за каждый чих отвечает отдельный компонент, полноценного продукта, и разработке более-менее вменяемого интерфейса управления для него, и различия минимальны, когда вы ставите отдельный хост без каких-то хитрых заморочек в конфигурации и не слишком нагруженный. Но уже хотя бы в классическом для корпоративной среды сценарии "кластер с СХД" достаточно просто попробовать развертывание, чтобы понять всю боль людей, которые пытаются с VMWare на Proxmox пересаживаться. И чем крупнее масштабы и больше фич задействуется, тем хуже ситуация.
Это не значит, что в целом на линуксе нельзя сравнимые по масштабу с варью инсталляции делать - просто это намного сложнее и в инсталляции, и в управлении.
321785
30.09.2024 18:52Вот и прошу вас отговорить нас от такого. Если получится конечно.
Тезисно конечно, никто вас не просит "простыню".ildarz
30.09.2024 18:52Зачем мне вас отговаривать? Я вашей ситуации не знаю, может у вас Proxmox идеально ляжет на потребности. Но, если хотите, простенький практический кейс. Нужно собрать кластер в несколько узлов с iSCSI СХД в качестве общего хранилища. Для вари/гиперв задача вообще тривиальная, просто базовый функционал.
Начинам собирать на Proxmox. Ноды поставили, сеть настроили, собираем для начала кластер, получаем набор невнятных ошибок при простейших операция типа подключения/вывода ноды. Копание приводит к тому, что Proxmox вручную прописывает IP, полученный мастером настройки в процессе инсталляции, в hosts, и потом, ясное дело, его не меняет при смене адреса, из чего проистекает сразу несколько проблем. Если бы мне такое сделал сисадмин руками при настройке, я бы его прибил за профнепригодность, а тут оно вот как. Ладно, разобрались, подключаем хранилку. Если мы сделаем это через интерфейс проксмокса - получим хрень, потому что там ни мультипасс в комплект не входит, ни iSCSI из штатного интерфейса не настраивается вообще никак, то есть вы либо получите подключение по одному пути, либо размножение лунов. Добро пожаловать в консоль с ручным написанием конфигов iSCSI и multipath, причем документация самого Proxmox тут, мягко скажем, неполная, и придется собирать паззл по частям. Ладно, луны с горем пополам подключили, но что же нам с ними делать? Только LVM Thick с raw форматом дисков - thin provisioning выходит из чата, снэпшоты и нормальные бэкапы выходят из чата. Ну ок, давайте проверим как оно работает хотя бы. Ну да, в принципе работает. Машинки запускаются, работают, мигрируют по нодам. Но при быстром проведении некоторых базовых тестов выходит, что при использовании SSD СХД дисковую производительность внутри виртуалок режет на 20-25% (у вари и гиперв оно на синтетике в пределах погрешности фактически, в крайнем случае небольших единиц процентов). Гуглим решения - все best practice при настройке соблюдены, а дальше "ну, используйте passthrough диски". С СДХ, ага. Достаточно? :)
vikarti
30.09.2024 18:52вы ставите отдельный хост без каких-то хитрых заморочек в конфигурации и не слишком нагруженный.
Даже в этом случае - возможны...варианты, у меня например на хоумсервере на куче простейших операций виртуалка может тупо залочится, нет qm unlock - недостаточно, надо удалять лок-файл. На намного более слабом железе ESXi такого себе - не позволял.
Ну или тупо - клонирование выключенной виртуалки на m.2 nvme диске - внезапно колом становятся другие виртуалки что на том же nvme диске лежат.
Да, железо не особо энтерпрайзное но - с ESXi все было проще...
Что у людей с реальными продакшн нагрузками и сколько сил тратится - я думать боюсь.
fcoder
30.09.2024 18:52+1смотря для чего. в моём анекдотическом случае в 2012 году я использовал vmware esxi примерно для тех же задач для которых в 2024 в хоум-лабе использую проксмокс
modsamara
30.09.2024 18:52+2Потому-что там основы и они не поменялись
Потому-что ESXi 6,7 до сих пор удовлетворяет многих в продакшене
Tzimie
А где про дефицит высококвалифицированных низкооплачиваемых кадров?
Grigory_Otrepyev Автор
30 сентября 2024 В интервью Business Class президент Пермской торгово-промышленной палаты Вячеслав Белов рассказал о кадровом голоде
https://www.business-class.su/news/2024/09/30/klyuchi-ot-biznesa-bolshoe-intervyu-s-prezidentom-permskoi-tpp-vyacheslavom-belovym
В Приамурье обсудили актуальные вопросы подготовки квалифицированных кадров для отраслей промышленности
https://ampravda.ru/2024/09/30/kak-v-priamure-planiruyut-sokratit-deficit-kadrov-v-sfere-promyshlennosti
Работодатели по всей России поставили на паузу гонку зарплат в борьбе за новых сотрудников, хотя кадровый голод никуда не делся. Деньги по разным причинам больше не могут решить проблему.
https://161.ru/text/job/2024/09/30/74141222/
А вы платить не пробовали, спросит экономист? .. На протяжении большей части 2020-х годов сохранялась парадоксальная ситуация, когда реальная зарплата фактически не росла. Зарплата начала расти в начале 2023 года, к концу которого темпы ее прироста ускорились до 6,5%. Но даже когда в экономике начинался восстановительный рост, реальной зарплате все равно не удавалось превзойти уровень начала 2020 года. Таким образом, фактором поддержания рынка труда в неравновесном состоянии (а вовсе не «дефицита») послужила стагнация реальных заработков. Слишком долго российские компании тянули с повышением зарплат.
В 2023 году доля оплаты труда в ВВП РФ составила 40,3%. Это на 2 п.п. больше, чем в 2022 году, но все еще сильно меньше, чем максимум 2016 года — 48,2%.
https://novayagazeta.ru/articles/2024/09/28/v-drugom-meste-u-vas-defitsit