К сожалению, развитие openvz зашло в определенный тупик, платный вариант virtuozo сильно ушел по кодовой базе в бок и в какой-то момент оказалось, что openvz работает только на старом ядре версии 2.6.32, а работы по слиянию openvz и virtuozo7 идут, сказать честно, не быстро.

Собственно это подтолкнуло команду proxmox в версии 4.0 отказаться от openvz в пользу lxc и ядра версии 4.2.6. К сожалению, команда proxmox совершенно не уделила внимания тестированию lxc в proxmox, всем, кто хочет хочет мигрировать с openvz, я настоятельно рекомендую воздержаться.

Ниже я расскажу о всех трудностях и проблемах после миграции на lxc.

Я пробовал несколько раз уже lxc, сказать честно, он был полон детских проблем, и это каждый раз меня отталкивало от использования его в продакшене, а хоумпаги я могу похостить и на openvz без детских проблем lxc, даже тот же докер намного дальше ушел в стабильности и предсказуемости.

Из глобальных проблем openvz мне вспоминается только проблема в centos 7 где не подымалась сеть, и надо было дефолтроут прописать ручками в rc.local, или установкой вот этого патча.

В lxc оказалось все намного хуже, я переходил на него с openvz, когда вышла версия proxmox 4.1, я честно думал все будет работать в lxc ожидаемо и стабильно, как в винде после первого сервис пака. Плюсом было конвертнуть бекап openvz в lxc двумя командами, но к сожалению переезд в итоге откликнулся мучительной болью и кучей потеряного времени, лучше бы я ещё годик посидел на openvz.

lzop -d vzdump-openvz-126-2016_01_27-11_08_32.tar.lzo
pct restore 126 vzdump-openvz-126-2016_01_27-11_08_32.tar --rootfs local:0

Опцию убирающую дисковую квоту --rootfs local:0 используйте если у вас хранилище не на lvm или zfs. Вот более подробное руководство для тех, кто не разобрался.

Пять основных проблем lxc которые я встретил:

  • В centos 6 пхп не коннектиться к сокету mysql, надо везде прописывать вместо localhost айпи 127.0.0.1, долго рыл эту проблему но решения не нашел, сперва думал это связано с тем, что я конвертил из openvz, но на свежей инсталяции lxc centos 6 наблюдается такая же проблема. Пробовал ставить percona 5.6 проблема сохраняется.
  • Чудовищно медленная работа lxc в image base, то есть если файлы храняйтся в виде образа диска на хостовой машине то производительности дисковой подсистемы падает в разы, от 3 до 20 раз. Я не тестил lxc на lvm и zfs. На lvm до сих пор нет thin provision, но обещают в следующих версиях. У меня довольно много всего развернуто в image base в kvm и там есть определенный оверхед на записать на диск, но он измеряется в процента, даже наверно не в десятках процентов, но такого подвоха чтобы запись в mysql стала в 20 раз медленее от lxc в proxmox я не ожидал. Вылечил в итоге хранением файлов гостей напрямую в файловой системе хоста как в openvz. При этом не работают дисковые квоты, но так как места навалом и стоит мониторинг места то забил на квоты, хотя для ссд систем дисковые квоты более актуальны. При создании и востановление указывайте опцию --rootfs local:0, из вебинтерфейса к сожалению этого сделать нельзя.
  • Не работающие бекапы lxc, бекап proxmox просто зависал на suspend vm даже в версии proxmox 4.1, этот баг пофиксили буквально 2 марта.
  • Оно реально медленнее openvz.
  • Два контейнера у меня намертво зависли и их не получилось убить никакими способами, сервер мягко ребутнуть тоже из за них не получилось в итоге пришлось сделать ресет кнопкой на сервере.


Проблемы миграции:

  • Не удалось запустить нормально дебиан 6 после конвертации в lxc, точно не помню в чем была проблема, но в связи с тем что дебиан 6 сильно легаси, перенес все приложения в свежий debian 8 руками.
  • Выше уже упомянал что php не коннектиться к mysql по socket.
  • В centos 6 не подымается сеть из за переименования сетевых интерфейсов с venet на eth0, надо зайти в контейнер с хоста через pct enter ID и выполнить команды
    sed -i -e 's/venet0/eth0/g' /etc/sysconfig/network
    rm -rf /etc/sysconfig/network-scripts/ifcfg-venet0:0
    rm -rf /etc/sysconfig/network-scripts/ifcfg-venet0
    reboot
  • Нельзя зайти в контейнер redhat based по ssh из за отсутствия tty, как то криво отрабатывает udev после конвертации, полечил вот так
    pct enter ID
    sed -i -e 's/start_udev/false/g' /etc/rc.d/rc.sysinit
    reboot

FYI:

1) Подробное руководство по обновлению proxmox 3->4;
2) Описание проблемы со скоростью дисков в lxc: раз, два, три;
3) Поддержка proxmox 3.x закончится в апреле 2016;
4) Тред, почему lxc плохой;
5) Как смигрировать c lxc обратно в openvz.

Надеюсь, этот пост сохранит кому-нибудь кучу времени.

Комментарии (90)


  1. Konkase
    09.03.2016 16:22
    +2

    Я не спешу переходить на PVE 4 и LXC из-за одной, по моему, более глобальной проблемы — Live Migration (CRIU — не допилен). В 3й версии Live Migration с OpenVZ — просто счастье.


    1. opium
      09.03.2016 19:27
      +1

      Да я уже почти месяц занимаюсь сексом с lxc и понимаю что openvz счастье, ниже говорят уже можно немного юзать виртуозо семь бету.


  1. lolipop
    09.03.2016 16:45

    мучаемся с proxmox 4 с осени, кроме неработающих нормально бекапов и живой миграции всё в целом устраивает. :)
    сторэйдж-бекенд — lvm+iscsi.

    а так согласен, контейнерам мало времени уделяют. к pct вместо vzctl привык буквально за месяц.
    из явных косяков:
    если в контейнере больше одного блочного устройства, то бекапится только первое.
    апи контейнеров не полностью работает, только через pct.


    1. opium
      09.03.2016 19:28

      А что с производительностью дисков у вас на лвме?
      Хотя по идее тонких дисков для лвма нет так что должно быть нормально.


  1. lolipop
    09.03.2016 17:03

    Кстати говоря, только вот выпустили criu 2.0, так может быть и до проксмокса вскоре доедет.
    http://www.opennet.ru/opennews/art.shtml?num=44015


    1. opium
      09.03.2016 19:28
      -1

      проксмокс всегда был не тороплив к сожалению.


  1. estet
    09.03.2016 17:21
    -1

    "платный вариант virtuozo сильно ушел по кодовой базе в бок и в какой-то момент оказалось, что openvz работает только на старом ядре версии 2.6.32, а работы по слиянию openvz и virtuozo7 идут, сказать честно, не быстро."

    Похоже что пост писали около года назад, когда мы объявили о слиянии OpenVZ и коммерческой Virtuozzo.
    А сейчас, когда уже доступна Virtuozzo 7 Beta с работающей миграцией и в течение следующих нескольких месяцев планируется выпустить RTM, это слышать по меньшей мере странно.

    "платный вариант virtuozo сильно ушел по кодовой базе в бок"

    в openvz три основных компонента: ядро (vzkernel), ploop и vzctl. Из этих трех компонентов разъехался только vzctl. Новая бесплатная и открытая версия Virtuozzo включает vzctl из коммерческой версии Vz. Если какие-то фичи из vzctl для OpenVZ для вас критичны, то их можно спортировать.

    Просто возьмите последнюю версию Virtuozzo 7 и покритикуйте, но не пишите что OpenVZ на старом ядре и прочие неактуальные вещи :)


    1. opium
      09.03.2016 19:29
      +1

      А у него есть веб интерфейс? Я бы сказать честно с радостью смигрировал бы на него.


      1. estet
        09.03.2016 20:23

        можно использовать веб-интерфейс от LibVirt, т.к. в Virtuozzo 7 есть отдельный драйвер для управления контейнерами и виртуальными машинами.


    1. opium
      09.03.2016 19:32

      Почитал я тут ишью известные
      https://openvz.org/Virtuozzo_7_Technical_Preview_-_Containers
      Как то печаль для продакшена.


      1. estet
        09.03.2016 20:28

        Ага, печально. Потому что никто в здравом уме Technical preview не будет ставить в production. Мы об этом честно писали во всех анонсах.
        К тому же вы зачем-то ссылаетесь на описание ограничений для 1-го Technical preview, который был в июле 2015 года. Хотя неделю назад вышла Beta. Она также не годится для production, но в ней можно пробовать и ВМки и контейнеры. Следующей версей Vz7 уже будет RTM. Вот список ограничений для последней Beta — https://docs.openvz.org/virtuozzo_7_readme.webhelp/_known_issues_and_restrictions.html
        Баги постоянно исправляются и новые валидные билды выкладываются каждый день.


        1. opium
          09.03.2016 20:35

          ну так я же не для хоумпаг его ставить то хочу, че его пробовать если оно с такими проблемами.
          Ждем релиза.


          1. estet
            09.03.2016 20:37
            -1

            Вы смотрите на промежуточный релиз полугодовалой давности и делаете выводы. Как-то это неправильно, не находите?


            1. opium
              09.03.2016 20:39
              +1

              Ну я глянул там баги в трекере не особо стало лучше. Того же симфс нету ещё


              1. estet
                09.03.2016 20:45

                Вы удивляете меня с каждым новым своим утверждением.
                Вот анонс SimFS в RHEL7 ядре.


                1. opium
                  09.03.2016 20:48

                  Ну там же написано что оно еще не доделано.
                  Вы не переживайте так за виртуозо, надеюсь его все таки допилят.


    1. opium
      09.03.2016 19:48

      Посмотрел, сыромятно все, панельки нативной нет, только либвиртовские, где все довольно убого, ждем релиза и нормальной панели.


      1. estet
        09.03.2016 20:29

        что такое "нативная" панелька?


        1. opium
          09.03.2016 20:30

          Ну у openvz есть нативная панелька например от разработчика из паралелса.
          В целом устроило бы любое вменяемое решение на около уровне проксмокса, но там же по большей части полное уг, я их все смотрел год назад, когда думал куда мигрировать.



    1. opium
      13.03.2016 22:28

      Какая производительность плупа дискового? Насколько велик оверхед?


      1. estet
        14.03.2016 00:52

        слишком общий вопрос, смотря какой паттерн нагрузки.
        В общем случае производительность близка к обычной ФС,
        а лучше сделать тестовый контейнер и погонять под своими нагрузками.

        Если хочется побольше про ploop узнать, что можно с этих источников начать:

        1. Container in a file
        2. Ploop vs SimFS
        3. openvz.org/Ploop


  1. larrabee
    09.03.2016 20:02

    Не очень понял, что тут имеется в виду:

    В centos 6 пхп не коннектиться к сокету mysql, надо везде прописывать вместо localhost айпи 127.0.0.1

    Не работает коннект к unix сокету (например /var/run/mysql.sock) или по IP? Если был localhost и помогла замена на 127.0.0.1, то это коннект по IP и подозреваю, что дело в пустом файле hosts.


    1. opium
      09.03.2016 20:05

      Когда ты пишешь в коннекте localhost php коннектится по сокету, а не по айпи.
      А когда 127.0.0.1 то коннект идет по айпи и его можно видеть в том же tcpdump


      1. Nicknnn
        10.03.2016 09:33

        Ну так а mysql слушает этот сокет? Команда mysql может подключится по сокету? Может права на сокет странные?


        1. opium
          10.03.2016 11:22

          ну конечно слушает
          ну конечно подключается к сокету мускуль клиент
          ну отличные права и любой может читать и писать в него

          ну такие то детские проблемы я бы поди на десятке то контейнеров смог бы и сам решить.


          1. Nicknnn
            10.03.2016 15:14

            lxc у меня совсем не много, но postgres и mysql там есть и работают. У вас хост случайно не убунта? Беглый обзор гугла выявил такую проблему для включённого apparmor, при хранении фалов гостя на ФС хоста.


            1. opium
              11.03.2016 00:51

              у вас mysql на centos 6 и можете подключиться с php-mysql?
              Это баг именно этой связки.


              1. Nicknnn
                11.03.2016 19:05

                Какие версии php и mysql взять для теста? Хост будет debian testing


                1. opium
                  11.03.2016 19:45

                  стандартные из centos 6


                  1. Nicknnn
                    15.03.2016 09:42

                    Итак потестил. Debian testing.
                    создал контейнер. sudo lxc-create -n ct6 -t centos — R 6
                    Сразу обнаружилось, что для старта upstart необходима sys_nice. Добавил.
                    Поставил стандартные mysql-server и php-fpm php-cli php-mysql

                    Создал скрипт из примера в интернете.

                    t.php
                    <?php

                    echo 'hello';
                    $link = mysql_connect('localhost', 'lxcct6', 'lxcct6') or die('Не удалось соединиться: '. mysql_error());
                    mysql_select_db('mysql') or die('Не удалось выбрать базу данных');

                    $result = mysql_query('show tables;') or die('Запрос не удался: '. mysql_error());

                    while ($line = mysql_fetch_array($result, MYSQL_ASSOC)) {
                    foreach ($line as $col_value) {
                    echo "$col_value";
                    }
                    echo "\n";
                    }

                    ?>


                    1. opium
                      15.03.2016 10:20

                      Ну в тестинге может уже и пофиксили
                      прокмокс то юзает стейбл


                  1. Nicknnn
                    15.03.2016 09:47

                    А не покажите конфиг, сгенеренный проксмоксом для этого контенера?


                    1. opium
                      15.03.2016 10:21

                      arch: amd64
                      cpulimit: 8
                      cpuunits: 8024
                      hostname:
                      memory: 16000
                      net0: bridge=vmbr0,gw=148.251.213.222,hwaddr=62:35:63:30:64:30,ip=/24,ip6=auto,name=eth0,type=veth
                      onboot: 1
                      ostype: centos
                      rootfs: local:224/vm-224-disk-1.subvol,size=0T
                      swap: 512


        1. rhamdeew
          14.03.2016 15:21

          На днях бодался с этой проблемой. Да, дело в правах доступа на файл с сокетом.
          Пока не нашел ничего лучше чем в стартовом скрипте воткнуть chmod 777 $socketfile


          1. opium
            14.03.2016 17:42

            Что то правами у меня эта проблема не решилась


            1. rhamdeew
              15.03.2016 00:27

              у вас там systemd или V init?


              1. opium
                15.03.2016 00:29

                в centos 6 нет никакого системд
                а на всех остальных мускул нормально работает
                не запустился только старый дебиан, в целом я уже понял что lxc мертвая технология и уже дураку понятно надо мигрировать.


                1. Nicknnn
                  15.03.2016 09:45

                  в целом я уже понял что lxc мертвая технология

                  Звучит так, будто это отдельная подсистема ядра, и она не работает.

                  Следуя этой логике можно сделать вывод, что докер не работает. Так как он является альтернативной утилитой для создания неймспейсов, как и lxc.


                  1. opium
                    15.03.2016 10:21

                    Ну я же уже не первый раз пробовал lxc ну всегда у него детские проблемы альфа версии.


  1. RicoX
    09.03.2016 20:24
    +1

    Отгреб аналогичных проблем при миграции, еще и не все устройства корректно прокидываются с хота в гостевую систему, адски деградировала сеть, у меня есть контейнер с разбором трафика на L7, так производительность упала боле чем в 10 раз, промучился с неделю, откатился назад на 3 ветку прокса, буду сидеть там до последнего. На сколько я понимаю, предлагаемый тут Virtuozzo не умеет KVM, у меня хоть и не много таких машин, но есть с десяток в кластере и городить отдельный гипервизор как-то не хочется. Меня более чем устраивает OpenVZ в плане допиленности и стабильности, надеюсь что OpenVZ все таки догонит virtuozo7 и прокс вернут обратно OpenVZ, к сожалению lxc даже близко не готов к продакшину.


    1. opium
      09.03.2016 20:28

      Сказать честно я ожидал, что все будет не гладко, но что все настолько чудовищно просто сложно представить пока не попробуешь.


    1. estet
      09.03.2016 20:32

      "На сколько я понимаю, предлагаемый тут Virtuozzo не умеет KVM"

      Серьезно?

      [root@s164 ~]# rpm -qa | grep -e "qemu"
      qemu-kvm-tools-vz-2.3.0-31.2.4.vz7.12.x86_64
      ipxe-roms-qemu-20130517-7.gitc4bce43.vz7.2.noarch
      qemu-kvm-common-vz-2.3.0-31.2.4.vz7.12.x86_64
      qemu-kvm-vz-2.3.0-31.2.4.vz7.12.x86_64
      libvirt-daemon-driver-qemu-1.3.1-1.vz7.3.x86_64
      qemu-img-vz-2.3.0-31.2.4.vz7.12.x86_64
      [root@s164 ~]# cat /etc/issue
      Virtuozzo Linux release 7.2
      Kernel \r on an \m

      Одна из особенностей версии 7 это переезд на открытый гипервизор KVM и QEMU.


      1. RicoX
        09.03.2016 23:21

        Спасибо, не знал что умеет, буду к лету усиленно копать в сторону Virtuozzo значит.


    1. Amet13
      09.03.2016 21:24

      С виртуалками там все нормально, кстати.
      Штатный prlctl практически со всем справляется.


      1. RicoX
        09.03.2016 23:21

        Спасибо, последнее что читал в новостях, что виртуалки вроди как в планах, но не знал что допилили. Как только закончится поддержка proxmox 3, самый вероятный кандидат для миграции значит будет Virtuozzo, к лету будет ясно в какую сторону двигаться. Отдельно благодарю за ссылку на вменяемый туториал, я так понимаю вы в теме, подскажите как дела обстоят с кластеризацией? Есть ли живая миграция, поддержка фенсинга и прочие фишки "из коробки" или это уже решается на свое усмотрение средствами самой операционки гипервизора? Есть ли единая система управления кластером? Может по ценам за продукт знаете, а то на сайте нет указаний, только звоните.


        1. Amet13
          09.03.2016 23:42

          Насчет цен не знаю, не уверен что сами Odin уже точно по ценам что-то утвердили. В этом вопросе наверняка estet подскажет.
          Что касается кластеризации, в документации я ничего об этом не нашел, немного написано только о storage кластерах.
          Живую миграцию недавно тестировал, до сих пор не работает.


          1. RicoX
            10.03.2016 09:32

            По описанию выглядит вполне достойной альтернативой, подождем релиза. storage — можно кластеризировать средствами самого СХД, либо собрать CEPH, а вот поддержка со стороны гипервизора перевода виртуалки/контейнера на другой сервер при проблемах на основном — фишка очень нужная, как и фенсинг, без которого сервер может зависнуть наглухо так, что плющить будет весь кластер, пока его по питанию не дернуть.


          1. estet
            10.03.2016 12:12

            Живую миграцию недавно тестировал, до сих пор не работает.

            должно работать. Зафайлите пожалуйста баг в https://bugs.openvz.org/


        1. estet
          10.03.2016 12:09

          По фичам можете здесь посмотреть — https://openvz.org/Comparison и заодно посмотреть feature parity с другими решениями для виртуализации.
          HA, распределенное хранилище данных (vzstorage) будут доступны только в платной версии, после установки дополнительных пакетов и активации лицензии. По ценам ничего подсказать не могу. Живая миграция и для контейнеров и для вирутальных машин уже доступна в opensource версии.
          TRD про функциональность живой миграции:
          https://lists.openvz.org/pipermail/users/2016-February/006792.html
          https://lists.openvz.org/pipermail/users/2016-February/006793.html

          Ну и если просто хотите доступные фичи попробовать, то имеет смысл глянуть гайд "Virtuozzo Beta Homework" — https://docs.openvz.org/


          1. opium
            13.03.2016 22:27

            Наймите уже тесторов что ли. Меня например )


            1. estet
              14.03.2016 00:39

              Велкам

              А вообще анонсы о новой функциональности это часть открытой разработки. Некоторым пользователям интересно попробовать фичи как только они появляются в продукте, поэтому мы и анонсируем их.

              Естественно у нас есть свой отдел QA, который днями и ночами в хвост и гриву тестирует Virtuozzo. Вот чуть-чуть про наше тестирование ядра:


              1. opium
                16.03.2016 11:34
                +1

                А дайте панельку погонять бесплатно вашу ?


                1. RicoX
                  16.03.2016 16:02

                  А тут разве не оно лежит? https://download.openvz.org/virtuozzo/releases/ Тоже собрался погонять на выходных.


                  1. estet
                    16.03.2016 17:56

                    тут — https://download.openvz.org/virtuozzo/releases/7.0-rtm/x86_64/iso/
                    Ставьте ISO и регулярно обновляйте с помощью yum, обновления каждый день появляются.


                1. estet
                  16.03.2016 17:58

                  она не готова пока


              1. opium
                16.03.2016 11:41

                А когда ожидается релиз?


                1. estet
                  16.03.2016 17:57

                  я не могу говорить точных дат, но в ближайшее время. Как я уже писал, мы выпустили TP1, TP2, недавно Beta и скорее всего следующий анонс уже будет про RTM.


      1. RicoX
        11.03.2016 21:23

        Дошли руки осилить туториал по вашей ссылке, в его todo наткнулся на ссылку на свою же статью на хабре по пробросу устройств в OpenVZ, страшная вещь рекурсия.


  1. Pilat
    10.03.2016 06:44

    >Два контейнера у меня намертво зависли и их не получилось убить никакими способами

    Я на это же напоролся и прекратил эксперименты с LXC. Какой смысл экономить ресурсы, чтобы перегружать весь сервер?


    1. opium
      10.03.2016 11:23

      Это полный ахтунг, я был в шоке, в первый раз подумал что это случайность, но когда это стало каждый день (


  1. Nicknnn
    10.03.2016 09:52

    "Два контейнера у меня намертво зависли и их не получилось убить никакими способами"
    Имею более 3000 контейнеров с приложениями на openvz centos6.

    Так вот залипших таким образом контейнеров скапливается за неделю до сотни минимум. Их невозможно прибить, vzctl залипает и не убивается даже через kill -9. Через gdb выяснил, что зависает на ioctl VZCTL_ENV_CREATE.

    Дальше не колупал, так как нашёлся костыль — vzctl CTID --cpulimit 0. После этого, внезапно, все процессы оживают.


    1. opium
      10.03.2016 11:24

      у меня тоже куча контейнеров на опенвз и не встречал такой проблемы. Тут есть ещё такая проблема что такой контейнер в lxc ложит всю ноду в итоге.


      1. Nicknnn
        10.03.2016 11:31

        До нахождения костыля регулярно перезагружалась вся хост нода. Но, возможно проблема общая, так как LXC и OVZ частично используют одни возможности ядра.


    1. estet
      10.03.2016 12:18

      "Два контейнера у меня намертво зависли и их не получилось убить никакими способами"

      Про проблемы лучше писать в рассылку, на форум OpenVZ или в багтрекер.


      1. opium
        10.03.2016 12:20

        Ну причем тут проблемы lxc в багтрекере опенвз


        1. estet
          10.03.2016 12:58

          Да я что-то уже запутался с чем там проблемы. В тексте упоминается vzctl и VZCTL_ENV_CREATE, поэтому и подумал что проблемы с OpenVZ.


      1. opium
        10.03.2016 12:21

        Только что глянул что вы менеджер проекта опенвз.


      1. Nicknnn
        10.03.2016 15:15

        А можно на русском заводить баг?


        1. estet
          10.03.2016 15:34

          не рекомендуется


  1. Dep3kuu
    10.03.2016 10:05

    Все комменты не читал, но с миграциями с PVE3 на PVE4 провозился месяца 2 в общем.
    Глобальной проблемой оказались (внимание) обновления проксмокса. Т.е. с каждой новой версией появлялись новые проблемы. После одного обновления вырубилась сеть. После другого — перестала высвобождаться память. Так, создание бэкапов (рсинком) файлов убивал насмерть всю ноду. Сначала грешил на ZFS, но после долгих переборов собрал версии всех компонентов, которые точно работают. Кстати, конкретно проблема с памятью при использовании zfs была прям в оригинальном скачанном с офсайта релизе 4.1.
    В одной из миграций вообще получилось так, что в контейнере с редмайном не запускался mysql — не было прав на mysql.pid

    До этого в 3 версии все работало пару лет вооообще без проблем. Переезд на 4 нужен был из за нового ядра в первую очередь. В целом, в итоге все вроде стабильно стало работать. Но плевался долго.


  1. Nicknnn
    10.03.2016 11:29

    В общем статья критикует LXC но все проблемы тут исключительно в Proxmox.

    • Миграция ovz -> lxc утилитами Proxmox
    • IO проблемы скорее всего связаны с монтированием qcow2 образов через nbd.
      Зависшие контейнеры, наверное единственная проблема. Но я не встречал такого на LXC ранее. А вот на OVZ — прям сейчас.

    По ссылкам на форум в конце поста вообще смешно читать. Просто жалобы без попыток разобраться.
    И получается плох LXC, а проксмокс просто ошибся с выбором.


    1. opium
      10.03.2016 11:34

      lxc реально плох, я уже два раза до этого пытался его заюзать вместо виртуалок несколько лет назад, тогда это был тоже ад, ещё больший чем сейчас, в целом для домашних страничек он ничего, но в продакшене уж лучше на докер перейти, реально он позже стал развиваться, но счастья в нем намного больше, сейчас в нем держит мой программист все проекты.

      Миграция это меньшее из зол, в целом я нашел пути как побороть все проблемы с запуском контейнеров после миграции.
      ИО проблемы связаны с loopfs которую юзает lxc ну и как вариат в thin provision тоже работает чертовски медленно.

      Проблема в том что мы ставим его не для потестить, а для продакшена.

      НУ а 3 процента зависших контейнеров меня бы уже давно заставили бы смигрировать на какой нибудь квм.


    1. RicoX
      10.03.2016 11:44

      Тут проблема именно в реализации LXC в Proxmox. Отдельно LXC плотно не ковырял, однозначно говорить что проблема в нем не буду, но по факту миграции, когда перенес на тест всего около сотни контейнеров из Proxmox3 в Proxmox4 — начался сущий ад, все виснет, тупит, зависает, отваливается и не работает, один глюк чинишь — вылазит 2 новых, производительность деградировала просто в разы, либо разработчики прокса взяли в команду рукожопов, которые и занимались прикручиванием LXC, либо не все так гладко в королевстве LXC. Я не говорю что OpenVZ безупречен, там своих проблем хватает (контейнеры пару раз висли, из примерно 2.5К контейнеров за крайний месяц зависал один и тот-же дважды), но то, что началось после попытки миграции — кромешний ад. Если LXC по вашему хорош — подскажите продукт на его основе, где он работает без сбоев не на локалхосте (напильник в виде, не нравится — перепиши сам, не предлагать) думаю многие скажут спасибо.

      По ссылкам на форум в конце поста вообще смешно читать. Просто жалобы без попыток разобраться.

      Жалобы идут обычно после попыток разобраться, когда известные методы решения проблем кончились, если вас веселит откровенно хреновая работа технологии, возможно с вашим ч.ю. что-то не так.


      1. Pilat
        10.03.2016 15:21

        Proxmox не виноват. У меня LXC зависли в Debian Jessie с оригинальным дебиановским ядром.


  1. g0dlike
    10.03.2016 13:33

    Тоже жду релиза Virtuozzo 7.
    Реализация LXC в Proxmox меня не устраивает, виртуальные машины не нужны.
    Надеюсь, simfs допилят в Virtuozzo…
    Пока же сижу на Proxmox 3.4, благо, обновления безопасности еще год будут выходить.


    1. estet
      10.03.2016 15:35

      Надеюсь, simfs допилят в Virtuozzo…

      лучше не надеяться и попробовать самому, чтобы о багах узнать до релиза, а не после него


      1. g0dlike
        10.03.2016 16:08

        Ну, "пробовать" я буду уже релиз:)
        А если буду переходить, то явно не на свежезарелизенную версию — так мне советует мой опыт:)


        1. estet
          11.03.2016 11:45

          Одно из распространённых заблуждений в использовании opensource — люди думают, что надо немного подождать, пока другие выловят все баги, отрепортят их, сами исправят или добьются того, чтобы кто-то исправил, а они потом уже начнут использовать хорошо протестированную версию. Так вот это не так. Ваши сценарии использования могут отличаться от сценариев других пользователей. И если у кого-то все работает хорошо, то это не значит, что и у вас будет тоже все хорошо :) Именно поэтому стоит попробовать тестовую версию до финального релиза — чтобы убедиться, что на ваших сценариях ПО работает.

          Ну и хочу напомнить, что стоимость исправления дефекта прямо пропорциональна времени разработки проекта, поэтому после релиза далеко не каждый баг будет исправлен.


  1. rhamdeew
    14.03.2016 15:28

    Эх, нагуглил этот пост только сегодня в понедельник после выходных проведенных с Proxmox 4. Да, скорость работы дисковой подсистемы на запись сильно огорчила. Сделал уже restore с --rootfs local:0. Производительность чуть выросла, но все равно пока грустно.

    Один контейнер (из ДВУХ!) уже успел намертво повиснуть разок.

    Кстати, пользуясь случаем хотел уточнить, а как правильно ребутить сервер с Proxmox? В случае с подвисшим контейнером пробовал reboot и shutdown -r now на ноде — реакции никакой.


    1. opium
      14.03.2016 17:42

      хардресет кнопкой


      1. rhamdeew
        14.03.2016 18:22

        Это не самый корректный способ перезагрузки сервера =)


        1. opium
          14.03.2016 23:57

          А других нету


    1. RicoX
      15.03.2016 10:26

      Я тестовый с 4 веткой через IPMI передергивал (за 2 суток 4 раза подвис наглухо сволочь), вообще у меня в продакшинах фенсинг настроен, хотя третья ветка и не подвисает особо.


  1. past
    17.03.2016 12:02

    Вы конечно же отобразили свое негодование в багтрекере проксмокса?


    1. opium
      17.03.2016 12:17
      +1

      Да там как бы всем все известно, проблемы то дикие, и в багтрекере есть и на форуме куча постов и это все прекрасно видят разработчики.


      1. past
        17.03.2016 12:20

        Ага, я прочитал все посты. Как я понял, основной от них ответ по поводу IO в LXC — The suggested way is to use ZFS. Или отключите барьер на ext4, но это не безопасно.


        1. opium
          17.03.2016 12:22

          барьер то отключен не помогает.
          есть у меня подозрение что с зфс тоже будет все не гладко.


          1. past
            17.03.2016 12:28

            У меня стоит один тестовый сервер с 4 проксмоксом и ZFS. Пока нареканий нет, но что-то действительно тяжелое я там не запускал.


            1. opium
              17.03.2016 13:09
              +1

              у меня тоже нет нареканий на виртуалках где хоумпаги, но база даже размеров в 30 гигов в мускул заливается два дня местами, а что уж говорить про большие базы.