К сожалению, развитие openvz зашло в определенный тупик, платный вариант virtuozo сильно ушел по кодовой базе в бок и в какой-то момент оказалось, что openvz работает только на старом ядре версии 2.6.32, а работы по слиянию openvz и virtuozo7 идут, сказать честно, не быстро.
Собственно это подтолкнуло команду proxmox в версии 4.0 отказаться от openvz в пользу lxc и ядра версии 4.2.6. К сожалению, команда proxmox совершенно не уделила внимания тестированию lxc в proxmox, всем, кто хочет хочет мигрировать с openvz, я настоятельно рекомендую воздержаться.
Ниже я расскажу о всех трудностях и проблемах после миграции на lxc.
Я пробовал несколько раз уже lxc, сказать честно, он был полон детских проблем, и это каждый раз меня отталкивало от использования его в продакшене, а хоумпаги я могу похостить и на openvz без детских проблем lxc, даже тот же докер намного дальше ушел в стабильности и предсказуемости.
Из глобальных проблем openvz мне вспоминается только проблема в centos 7 где не подымалась сеть, и надо было дефолтроут прописать ручками в rc.local, или установкой вот этого патча.
В lxc оказалось все намного хуже, я переходил на него с openvz, когда вышла версия proxmox 4.1, я честно думал все будет работать в lxc ожидаемо и стабильно, как в винде после первого сервис пака. Плюсом было конвертнуть бекап openvz в lxc двумя командами, но к сожалению переезд в итоге откликнулся мучительной болью и кучей потеряного времени, лучше бы я ещё годик посидел на openvz.
lzop -d vzdump-openvz-126-2016_01_27-11_08_32.tar.lzo
pct restore 126 vzdump-openvz-126-2016_01_27-11_08_32.tar --rootfs local:0
Опцию убирающую дисковую квоту --rootfs local:0 используйте если у вас хранилище не на lvm или zfs. Вот более подробное руководство для тех, кто не разобрался.
Пять основных проблем lxc которые я встретил:
- В centos 6 пхп не коннектиться к сокету mysql, надо везде прописывать вместо localhost айпи 127.0.0.1, долго рыл эту проблему но решения не нашел, сперва думал это связано с тем, что я конвертил из openvz, но на свежей инсталяции lxc centos 6 наблюдается такая же проблема. Пробовал ставить percona 5.6 проблема сохраняется.
- Чудовищно медленная работа lxc в image base, то есть если файлы храняйтся в виде образа диска на хостовой машине то производительности дисковой подсистемы падает в разы, от 3 до 20 раз. Я не тестил lxc на lvm и zfs. На lvm до сих пор нет thin provision, но обещают в следующих версиях. У меня довольно много всего развернуто в image base в kvm и там есть определенный оверхед на записать на диск, но он измеряется в процента, даже наверно не в десятках процентов, но такого подвоха чтобы запись в mysql стала в 20 раз медленее от lxc в proxmox я не ожидал. Вылечил в итоге хранением файлов гостей напрямую в файловой системе хоста как в openvz. При этом не работают дисковые квоты, но так как места навалом и стоит мониторинг места то забил на квоты, хотя для ссд систем дисковые квоты более актуальны. При создании и востановление указывайте опцию --rootfs local:0, из вебинтерфейса к сожалению этого сделать нельзя.
- Не работающие бекапы lxc, бекап proxmox просто зависал на suspend vm даже в версии proxmox 4.1, этот баг пофиксили буквально 2 марта.
- Оно реально медленнее openvz.
- Два контейнера у меня намертво зависли и их не получилось убить никакими способами, сервер мягко ребутнуть тоже из за них не получилось в итоге пришлось сделать ресет кнопкой на сервере.
Проблемы миграции:
- Не удалось запустить нормально дебиан 6 после конвертации в lxc, точно не помню в чем была проблема, но в связи с тем что дебиан 6 сильно легаси, перенес все приложения в свежий debian 8 руками.
- Выше уже упомянал что php не коннектиться к mysql по socket.
- В centos 6 не подымается сеть из за переименования сетевых интерфейсов с venet на eth0, надо зайти в контейнер с хоста через pct enter ID и выполнить команды
sed -i -e 's/venet0/eth0/g' /etc/sysconfig/network
rm -rf /etc/sysconfig/network-scripts/ifcfg-venet0:0
rm -rf /etc/sysconfig/network-scripts/ifcfg-venet0
reboot - Нельзя зайти в контейнер redhat based по ssh из за отсутствия tty, как то криво отрабатывает udev после конвертации, полечил вот так
pct enter ID
sed -i -e 's/start_udev/false/g' /etc/rc.d/rc.sysinit
reboot
FYI:
1) Подробное руководство по обновлению proxmox 3->4;
2) Описание проблемы со скоростью дисков в lxc: раз, два, три;
3) Поддержка proxmox 3.x закончится в апреле 2016;
4) Тред, почему lxc плохой;
5) Как смигрировать c lxc обратно в openvz.
Надеюсь, этот пост сохранит кому-нибудь кучу времени.
Комментарии (90)
lolipop
09.03.2016 16:45мучаемся с proxmox 4 с осени, кроме неработающих нормально бекапов и живой миграции всё в целом устраивает. :)
сторэйдж-бекенд — lvm+iscsi.
а так согласен, контейнерам мало времени уделяют. к pct вместо vzctl привык буквально за месяц.
из явных косяков:
если в контейнере больше одного блочного устройства, то бекапится только первое.
апи контейнеров не полностью работает, только через pct.opium
09.03.2016 19:28А что с производительностью дисков у вас на лвме?
Хотя по идее тонких дисков для лвма нет так что должно быть нормально.
lolipop
09.03.2016 17:03Кстати говоря, только вот выпустили criu 2.0, так может быть и до проксмокса вскоре доедет.
http://www.opennet.ru/opennews/art.shtml?num=44015
estet
09.03.2016 17:21-1"платный вариант virtuozo сильно ушел по кодовой базе в бок и в какой-то момент оказалось, что openvz работает только на старом ядре версии 2.6.32, а работы по слиянию openvz и virtuozo7 идут, сказать честно, не быстро."
Похоже что пост писали около года назад, когда мы объявили о слиянии OpenVZ и коммерческой Virtuozzo.
А сейчас, когда уже доступна Virtuozzo 7 Beta с работающей миграцией и в течение следующих нескольких месяцев планируется выпустить RTM, это слышать по меньшей мере странно.
"платный вариант virtuozo сильно ушел по кодовой базе в бок"
в openvz три основных компонента: ядро (vzkernel), ploop и vzctl. Из этих трех компонентов разъехался только vzctl. Новая бесплатная и открытая версия Virtuozzo включает vzctl из коммерческой версии Vz. Если какие-то фичи из vzctl для OpenVZ для вас критичны, то их можно спортировать.
Просто возьмите последнюю версию Virtuozzo 7 и покритикуйте, но не пишите что OpenVZ на старом ядре и прочие неактуальные вещи :)opium
09.03.2016 19:29+1А у него есть веб интерфейс? Я бы сказать честно с радостью смигрировал бы на него.
estet
09.03.2016 20:23можно использовать веб-интерфейс от LibVirt, т.к. в Virtuozzo 7 есть отдельный драйвер для управления контейнерами и виртуальными машинами.
opium
09.03.2016 19:32Почитал я тут ишью известные
https://openvz.org/Virtuozzo_7_Technical_Preview_-_Containers
Как то печаль для продакшена.estet
09.03.2016 20:28Ага, печально. Потому что никто в здравом уме Technical preview не будет ставить в production. Мы об этом честно писали во всех анонсах.
К тому же вы зачем-то ссылаетесь на описание ограничений для 1-го Technical preview, который был в июле 2015 года. Хотя неделю назад вышла Beta. Она также не годится для production, но в ней можно пробовать и ВМки и контейнеры. Следующей версей Vz7 уже будет RTM. Вот список ограничений для последней Beta — https://docs.openvz.org/virtuozzo_7_readme.webhelp/_known_issues_and_restrictions.html
Баги постоянно исправляются и новые валидные билды выкладываются каждый день.opium
09.03.2016 20:35ну так я же не для хоумпаг его ставить то хочу, че его пробовать если оно с такими проблемами.
Ждем релиза.
opium
09.03.2016 19:48Посмотрел, сыромятно все, панельки нативной нет, только либвиртовские, где все довольно убого, ждем релиза и нормальной панели.
estet
09.03.2016 20:29что такое "нативная" панелька?
opium
09.03.2016 20:30Ну у openvz есть нативная панелька например от разработчика из паралелса.
В целом устроило бы любое вменяемое решение на около уровне проксмокса, но там же по большей части полное уг, я их все смотрел год назад, когда думал куда мигрировать.
opium
13.03.2016 22:28Какая производительность плупа дискового? Насколько велик оверхед?
estet
14.03.2016 00:52слишком общий вопрос, смотря какой паттерн нагрузки.
В общем случае производительность близка к обычной ФС,
а лучше сделать тестовый контейнер и погонять под своими нагрузками.
Если хочется побольше про ploop узнать, что можно с этих источников начать:
larrabee
09.03.2016 20:02Не очень понял, что тут имеется в виду:
В centos 6 пхп не коннектиться к сокету mysql, надо везде прописывать вместо localhost айпи 127.0.0.1
Не работает коннект к unix сокету (например /var/run/mysql.sock) или по IP? Если был localhost и помогла замена на 127.0.0.1, то это коннект по IP и подозреваю, что дело в пустом файле hosts.opium
09.03.2016 20:05Когда ты пишешь в коннекте localhost php коннектится по сокету, а не по айпи.
А когда 127.0.0.1 то коннект идет по айпи и его можно видеть в том же tcpdumpNicknnn
10.03.2016 09:33Ну так а mysql слушает этот сокет? Команда mysql может подключится по сокету? Может права на сокет странные?
opium
10.03.2016 11:22ну конечно слушает
ну конечно подключается к сокету мускуль клиент
ну отличные права и любой может читать и писать в него
ну такие то детские проблемы я бы поди на десятке то контейнеров смог бы и сам решить.Nicknnn
10.03.2016 15:14lxc у меня совсем не много, но postgres и mysql там есть и работают. У вас хост случайно не убунта? Беглый обзор гугла выявил такую проблему для включённого apparmor, при хранении фалов гостя на ФС хоста.
opium
11.03.2016 00:51у вас mysql на centos 6 и можете подключиться с php-mysql?
Это баг именно этой связки.Nicknnn
11.03.2016 19:05Какие версии php и mysql взять для теста? Хост будет debian testing
opium
11.03.2016 19:45стандартные из centos 6
Nicknnn
15.03.2016 09:42Итак потестил. Debian testing.
создал контейнер. sudo lxc-create -n ct6 -t centos — R 6
Сразу обнаружилось, что для старта upstart необходима sys_nice. Добавил.
Поставил стандартные mysql-server и php-fpm php-cli php-mysql
Создал скрипт из примера в интернете.
t.php<?php
echo 'hello';
$link = mysql_connect('localhost', 'lxcct6', 'lxcct6') or die('Не удалось соединиться: '. mysql_error());
mysql_select_db('mysql') or die('Не удалось выбрать базу данных');
$result = mysql_query('show tables;') or die('Запрос не удался: '. mysql_error());
while ($line = mysql_fetch_array($result, MYSQL_ASSOC)) {
foreach ($line as $col_value) {
echo "$col_value";
}
echo "\n";
}
?>
Nicknnn
15.03.2016 09:47А не покажите конфиг, сгенеренный проксмоксом для этого контенера?
opium
15.03.2016 10:21arch: amd64
cpulimit: 8
cpuunits: 8024
hostname:
memory: 16000
net0: bridge=vmbr0,gw=148.251.213.222,hwaddr=62:35:63:30:64:30,ip=/24,ip6=auto,name=eth0,type=veth
onboot: 1
ostype: centos
rootfs: local:224/vm-224-disk-1.subvol,size=0T
swap: 512
rhamdeew
14.03.2016 15:21На днях бодался с этой проблемой. Да, дело в правах доступа на файл с сокетом.
Пока не нашел ничего лучше чем в стартовом скрипте воткнуть chmod 777 $socketfileopium
14.03.2016 17:42Что то правами у меня эта проблема не решилась
rhamdeew
15.03.2016 00:27у вас там systemd или V init?
opium
15.03.2016 00:29в centos 6 нет никакого системд
а на всех остальных мускул нормально работает
не запустился только старый дебиан, в целом я уже понял что lxc мертвая технология и уже дураку понятно надо мигрировать.Nicknnn
15.03.2016 09:45в целом я уже понял что lxc мертвая технология
Звучит так, будто это отдельная подсистема ядра, и она не работает.
Следуя этой логике можно сделать вывод, что докер не работает. Так как он является альтернативной утилитой для создания неймспейсов, как и lxc.opium
15.03.2016 10:21Ну я же уже не первый раз пробовал lxc ну всегда у него детские проблемы альфа версии.
RicoX
09.03.2016 20:24+1Отгреб аналогичных проблем при миграции, еще и не все устройства корректно прокидываются с хота в гостевую систему, адски деградировала сеть, у меня есть контейнер с разбором трафика на L7, так производительность упала боле чем в 10 раз, промучился с неделю, откатился назад на 3 ветку прокса, буду сидеть там до последнего. На сколько я понимаю, предлагаемый тут Virtuozzo не умеет KVM, у меня хоть и не много таких машин, но есть с десяток в кластере и городить отдельный гипервизор как-то не хочется. Меня более чем устраивает OpenVZ в плане допиленности и стабильности, надеюсь что OpenVZ все таки догонит virtuozo7 и прокс вернут обратно OpenVZ, к сожалению lxc даже близко не готов к продакшину.
opium
09.03.2016 20:28Сказать честно я ожидал, что все будет не гладко, но что все настолько чудовищно просто сложно представить пока не попробуешь.
estet
09.03.2016 20:32"На сколько я понимаю, предлагаемый тут Virtuozzo не умеет KVM"
Серьезно?
[root@s164 ~]# rpm -qa | grep -e "qemu"
qemu-kvm-tools-vz-2.3.0-31.2.4.vz7.12.x86_64
ipxe-roms-qemu-20130517-7.gitc4bce43.vz7.2.noarch
qemu-kvm-common-vz-2.3.0-31.2.4.vz7.12.x86_64
qemu-kvm-vz-2.3.0-31.2.4.vz7.12.x86_64
libvirt-daemon-driver-qemu-1.3.1-1.vz7.3.x86_64
qemu-img-vz-2.3.0-31.2.4.vz7.12.x86_64
[root@s164 ~]# cat /etc/issue
Virtuozzo Linux release 7.2
Kernel \r on an \m
Одна из особенностей версии 7 это переезд на открытый гипервизор KVM и QEMU.RicoX
09.03.2016 23:21Спасибо, не знал что умеет, буду к лету усиленно копать в сторону Virtuozzo значит.
Amet13
09.03.2016 21:24С виртуалками там все нормально, кстати.
Штатный prlctl практически со всем справляется.RicoX
09.03.2016 23:21Спасибо, последнее что читал в новостях, что виртуалки вроди как в планах, но не знал что допилили. Как только закончится поддержка proxmox 3, самый вероятный кандидат для миграции значит будет Virtuozzo, к лету будет ясно в какую сторону двигаться. Отдельно благодарю за ссылку на вменяемый туториал, я так понимаю вы в теме, подскажите как дела обстоят с кластеризацией? Есть ли живая миграция, поддержка фенсинга и прочие фишки "из коробки" или это уже решается на свое усмотрение средствами самой операционки гипервизора? Есть ли единая система управления кластером? Может по ценам за продукт знаете, а то на сайте нет указаний, только звоните.
Amet13
09.03.2016 23:42Насчет цен не знаю, не уверен что сами Odin уже точно по ценам что-то утвердили. В этом вопросе наверняка estet подскажет.
Что касается кластеризации, в документации я ничего об этом не нашел, немного написано только о storage кластерах.
Живую миграцию недавно тестировал, до сих пор не работает.RicoX
10.03.2016 09:32По описанию выглядит вполне достойной альтернативой, подождем релиза. storage — можно кластеризировать средствами самого СХД, либо собрать CEPH, а вот поддержка со стороны гипервизора перевода виртуалки/контейнера на другой сервер при проблемах на основном — фишка очень нужная, как и фенсинг, без которого сервер может зависнуть наглухо так, что плющить будет весь кластер, пока его по питанию не дернуть.
estet
10.03.2016 12:12Живую миграцию недавно тестировал, до сих пор не работает.
должно работать. Зафайлите пожалуйста баг в https://bugs.openvz.org/
estet
10.03.2016 12:09По фичам можете здесь посмотреть — https://openvz.org/Comparison и заодно посмотреть feature parity с другими решениями для виртуализации.
HA, распределенное хранилище данных (vzstorage) будут доступны только в платной версии, после установки дополнительных пакетов и активации лицензии. По ценам ничего подсказать не могу. Живая миграция и для контейнеров и для вирутальных машин уже доступна в opensource версии.
TRD про функциональность живой миграции:
https://lists.openvz.org/pipermail/users/2016-February/006792.html
https://lists.openvz.org/pipermail/users/2016-February/006793.html
Ну и если просто хотите доступные фичи попробовать, то имеет смысл глянуть гайд "Virtuozzo Beta Homework" — https://docs.openvz.org/opium
13.03.2016 22:27Наймите уже тесторов что ли. Меня например )
estet
14.03.2016 00:39Велкам
А вообще анонсы о новой функциональности это часть открытой разработки. Некоторым пользователям интересно попробовать фичи как только они появляются в продукте, поэтому мы и анонсируем их.
Естественно у нас есть свой отдел QA, который днями и ночами в хвост и гриву тестирует Virtuozzo. Вот чуть-чуть про наше тестирование ядра:
opium
16.03.2016 11:34+1А дайте панельку погонять бесплатно вашу ?
RicoX
16.03.2016 16:02А тут разве не оно лежит? https://download.openvz.org/virtuozzo/releases/ Тоже собрался погонять на выходных.
estet
16.03.2016 17:56тут — https://download.openvz.org/virtuozzo/releases/7.0-rtm/x86_64/iso/
Ставьте ISO и регулярно обновляйте с помощью yum, обновления каждый день появляются.
RicoX
11.03.2016 21:23Дошли руки осилить туториал по вашей ссылке, в его todo наткнулся на ссылку на свою же статью на хабре по пробросу устройств в OpenVZ, страшная вещь рекурсия.
Pilat
10.03.2016 06:44>Два контейнера у меня намертво зависли и их не получилось убить никакими способами
Я на это же напоролся и прекратил эксперименты с LXC. Какой смысл экономить ресурсы, чтобы перегружать весь сервер?opium
10.03.2016 11:23Это полный ахтунг, я был в шоке, в первый раз подумал что это случайность, но когда это стало каждый день (
Nicknnn
10.03.2016 09:52"Два контейнера у меня намертво зависли и их не получилось убить никакими способами"
Имею более 3000 контейнеров с приложениями на openvz centos6.
Так вот залипших таким образом контейнеров скапливается за неделю до сотни минимум. Их невозможно прибить, vzctl залипает и не убивается даже через kill -9. Через gdb выяснил, что зависает на ioctl VZCTL_ENV_CREATE.
Дальше не колупал, так как нашёлся костыль — vzctl CTID --cpulimit 0. После этого, внезапно, все процессы оживают.opium
10.03.2016 11:24у меня тоже куча контейнеров на опенвз и не встречал такой проблемы. Тут есть ещё такая проблема что такой контейнер в lxc ложит всю ноду в итоге.
Nicknnn
10.03.2016 11:31До нахождения костыля регулярно перезагружалась вся хост нода. Но, возможно проблема общая, так как LXC и OVZ частично используют одни возможности ядра.
Dep3kuu
10.03.2016 10:05Все комменты не читал, но с миграциями с PVE3 на PVE4 провозился месяца 2 в общем.
Глобальной проблемой оказались (внимание) обновления проксмокса. Т.е. с каждой новой версией появлялись новые проблемы. После одного обновления вырубилась сеть. После другого — перестала высвобождаться память. Так, создание бэкапов (рсинком) файлов убивал насмерть всю ноду. Сначала грешил на ZFS, но после долгих переборов собрал версии всех компонентов, которые точно работают. Кстати, конкретно проблема с памятью при использовании zfs была прям в оригинальном скачанном с офсайта релизе 4.1.
В одной из миграций вообще получилось так, что в контейнере с редмайном не запускался mysql — не было прав на mysql.pid
До этого в 3 версии все работало пару лет вооообще без проблем. Переезд на 4 нужен был из за нового ядра в первую очередь. В целом, в итоге все вроде стабильно стало работать. Но плевался долго.
Nicknnn
10.03.2016 11:29В общем статья критикует LXC но все проблемы тут исключительно в Proxmox.
- Миграция ovz -> lxc утилитами Proxmox
- IO проблемы скорее всего связаны с монтированием qcow2 образов через nbd.
Зависшие контейнеры, наверное единственная проблема. Но я не встречал такого на LXC ранее. А вот на OVZ — прям сейчас.
По ссылкам на форум в конце поста вообще смешно читать. Просто жалобы без попыток разобраться.
И получается плох LXC, а проксмокс просто ошибся с выбором.opium
10.03.2016 11:34lxc реально плох, я уже два раза до этого пытался его заюзать вместо виртуалок несколько лет назад, тогда это был тоже ад, ещё больший чем сейчас, в целом для домашних страничек он ничего, но в продакшене уж лучше на докер перейти, реально он позже стал развиваться, но счастья в нем намного больше, сейчас в нем держит мой программист все проекты.
Миграция это меньшее из зол, в целом я нашел пути как побороть все проблемы с запуском контейнеров после миграции.
ИО проблемы связаны с loopfs которую юзает lxc ну и как вариат в thin provision тоже работает чертовски медленно.
Проблема в том что мы ставим его не для потестить, а для продакшена.
НУ а 3 процента зависших контейнеров меня бы уже давно заставили бы смигрировать на какой нибудь квм.
RicoX
10.03.2016 11:44Тут проблема именно в реализации LXC в Proxmox. Отдельно LXC плотно не ковырял, однозначно говорить что проблема в нем не буду, но по факту миграции, когда перенес на тест всего около сотни контейнеров из Proxmox3 в Proxmox4 — начался сущий ад, все виснет, тупит, зависает, отваливается и не работает, один глюк чинишь — вылазит 2 новых, производительность деградировала просто в разы, либо разработчики прокса взяли в команду рукожопов, которые и занимались прикручиванием LXC, либо не все так гладко в королевстве LXC. Я не говорю что OpenVZ безупречен, там своих проблем хватает (контейнеры пару раз висли, из примерно 2.5К контейнеров за крайний месяц зависал один и тот-же дважды), но то, что началось после попытки миграции — кромешний ад. Если LXC по вашему хорош — подскажите продукт на его основе, где он работает без сбоев не на локалхосте (напильник в виде, не нравится — перепиши сам, не предлагать) думаю многие скажут спасибо.
По ссылкам на форум в конце поста вообще смешно читать. Просто жалобы без попыток разобраться.
Жалобы идут обычно после попыток разобраться, когда известные методы решения проблем кончились, если вас веселит откровенно хреновая работа технологии, возможно с вашим ч.ю. что-то не так.Pilat
10.03.2016 15:21Proxmox не виноват. У меня LXC зависли в Debian Jessie с оригинальным дебиановским ядром.
g0dlike
10.03.2016 13:33Тоже жду релиза Virtuozzo 7.
Реализация LXC в Proxmox меня не устраивает, виртуальные машины не нужны.
Надеюсь, simfs допилят в Virtuozzo…
Пока же сижу на Proxmox 3.4, благо, обновления безопасности еще год будут выходить.estet
10.03.2016 15:35Надеюсь, simfs допилят в Virtuozzo…
лучше не надеяться и попробовать самому, чтобы о багах узнать до релиза, а не после негоg0dlike
10.03.2016 16:08Ну, "пробовать" я буду уже релиз:)
А если буду переходить, то явно не на свежезарелизенную версию — так мне советует мой опыт:)estet
11.03.2016 11:45Одно из распространённых заблуждений в использовании opensource — люди думают, что надо немного подождать, пока другие выловят все баги, отрепортят их, сами исправят или добьются того, чтобы кто-то исправил, а они потом уже начнут использовать хорошо протестированную версию. Так вот это не так. Ваши сценарии использования могут отличаться от сценариев других пользователей. И если у кого-то все работает хорошо, то это не значит, что и у вас будет тоже все хорошо :) Именно поэтому стоит попробовать тестовую версию до финального релиза — чтобы убедиться, что на ваших сценариях ПО работает.
Ну и хочу напомнить, что стоимость исправления дефекта прямо пропорциональна времени разработки проекта, поэтому после релиза далеко не каждый баг будет исправлен.
rhamdeew
14.03.2016 15:28Эх, нагуглил этот пост только сегодня в понедельник после выходных проведенных с Proxmox 4. Да, скорость работы дисковой подсистемы на запись сильно огорчила. Сделал уже restore с --rootfs local:0. Производительность чуть выросла, но все равно пока грустно.
Один контейнер (из ДВУХ!) уже успел намертво повиснуть разок.
Кстати, пользуясь случаем хотел уточнить, а как правильно ребутить сервер с Proxmox? В случае с подвисшим контейнером пробовал reboot и shutdown -r now на ноде — реакции никакой.RicoX
15.03.2016 10:26Я тестовый с 4 веткой через IPMI передергивал (за 2 суток 4 раза подвис наглухо сволочь), вообще у меня в продакшинах фенсинг настроен, хотя третья ветка и не подвисает особо.
past
17.03.2016 12:02Вы конечно же отобразили свое негодование в багтрекере проксмокса?
opium
17.03.2016 12:17+1Да там как бы всем все известно, проблемы то дикие, и в багтрекере есть и на форуме куча постов и это все прекрасно видят разработчики.
past
17.03.2016 12:20Ага, я прочитал все посты. Как я понял, основной от них ответ по поводу IO в LXC — The suggested way is to use ZFS. Или отключите барьер на ext4, но это не безопасно.
opium
17.03.2016 12:22барьер то отключен не помогает.
есть у меня подозрение что с зфс тоже будет все не гладко.past
17.03.2016 12:28У меня стоит один тестовый сервер с 4 проксмоксом и ZFS. Пока нареканий нет, но что-то действительно тяжелое я там не запускал.
opium
17.03.2016 13:09+1у меня тоже нет нареканий на виртуалках где хоумпаги, но база даже размеров в 30 гигов в мускул заливается два дня местами, а что уж говорить про большие базы.
Konkase
Я не спешу переходить на PVE 4 и LXC из-за одной, по моему, более глобальной проблемы — Live Migration (CRIU — не допилен). В 3й версии Live Migration с OpenVZ — просто счастье.
opium
Да я уже почти месяц занимаюсь сексом с lxc и понимаю что openvz счастье, ниже говорят уже можно немного юзать виртуозо семь бету.