Вы сняли с коптера красивейшие и плавные пролеты, а после монтажа всё дёргается? Если исходное видео вызывает восторг, а результат — слёзы, то, возможно, проблема в неправильном режиме съемки.



На примере DJI Phantom 3 Professional посмотрим доступные режимы съемки.


Если открыть список всех доступных, то сложно определить какой использовать режим?—?их очень много: 24, 25, 30, 48, 50, 60 кадров в секунду.


Однако, и тут всё не так просто. Если посмотреть в свойства отснятых файлов, то вместо 24, 30, 48 и 60 мы увидим там 23.976, 29.97, 47.952 и 59,94. И, хотя отличие аж в сотых долях, при неправильных настройках монтажа мы получим подергивания. Проверено на личном опыте.

Тут стоит отметить, что при монтаже съемки с воздуха не используется аудиодорожка и поэтому в большинстве редакторов это очень просто поправить. Но это тема отдельной статьи.

Так какую же выбрать частоту кадров? Стандарты


Зачем все эти 23.976, 24, 25, 29.97 и почему нельзя выбрать другие? Откуда такие странные дробные числа?

Как часто это бывает причина всему этому безобразию историческая и данные частоты соответствуют различным стандартам:
  • 24/48 кадров используется в кинематографе
  • 25/50 (PAL/SECAM) при вещании ТВ в Европе и России
  • 23.976, 47.952 и 29.97, 59.94 (NTSC) при вещании ТВ в США и Японии?—?на телевидении


Поэтому если материал, который вы снимаете, используется в репортаже на ТВ, то стоит использовать 25 или 50 кадров в секунду.

Так какую же выбрать частоту кадров? Битрейт


Помимо разрешения на качество картинки влияет еще и битрейт (bitrate), т. е. количество информации для хранения одной секунды видео. При этом у фанта битрейт зависит от разрешения, но реальное разрешение может быть ограниченно качеством оптики, что наглядно демонстрируется в следующем видео.



Видео кодек Ambarella A9 установленный на третьем фантоме позволяет кодировать 4K видео с битрейтом 100Мбит/с. Однако DJI ограничила данное значение на 60 Мбит/с у PRO версии. И, вряд ли, это связано со скоростью работы карт памяти?—?12,5 Мбайт/с могут писать даже недорогие карты памяти, но что есть, то есть и из этого и будем выбирать.

Ниже приведена сводная таблица зависимости битрейта DJI Phantom 3 Pro от частоты кадров и разрешения (версия прошивки 1.6).



Как видно, помимо 4K видео с 60Мбит/с присутствует при съемке в 1080 и 60 кадров/с.

Тут возникает вопрос: «Зачем нам снимать с разрешением больше FullHD, если оборудования для просмотра такого контента почти нет?». Ответ: для монтажа видео. Часто на монтаже приходится обрезать кадр, или увеличивать масштаб для фиксирования положения какого-то объекта в нем, и съемка в FullHD не оставляет запаса по разрешению. Но при этом удельный битрейт (бит на пиксель) видео с большим разрешением?—?ниже. Хм… Чувствуется рука маркетологов. По факту, если нужен кроп, можно снимать в 2,7K. Если высокая частота кадров, то 1080p 60fps. В подтверждение ролик про сравнение качества видео 1080, 2704, 4096 на 25 кадрах/с.



Так какую же выбрать частоту кадров? Плавность


Бытует миф, что человек различает лишь 24 кадра в секунду. На самом деле, человек способен различить значительно более быструю смену кадров. Причина выбора 24 кадров в секунду, опять же, историческая, это компромисс между плавностью, экономией пленки и качеством звука на оптической фонограммы.



Пример оптической фонограммы на кинопленке.Как не трудно догадаться частота кадров напрямую влияет на плавность видео. Причем если на наземной съемке зачастую отдаётся предпочтение 24 кадрам из-за «киношной картинки» и фокусе на съемке людей, то на панорамных кадрах, которых в воздушной съемке с избытком, плавности явно не хватает.

Понять насколько сильно дергается 24 кадра можно по этой ссылке.

Так какую же выбрать частоту кадров? Совмещение оборудования


Правило помогающее избежать заморочек:

  • если в ролике используется видео не только с коптера, то хорошим правилом будет снимать с одинаковой (или кратной) частотой кадров на всём оборудовании.


Что-то типа выводов


Таким образом, когда мы выбираем необходимую частоту кадров, нам нужно ответить для себя на множество вопросов. И получить нужный для себя ответ, который, однако, не будет универсальным.

Также стоит помнить, что многие ошибки можно исправить на постпродакшене, и самое страшное, если попадется незнающий монтажник, который убьёт всё качество видео. С нами такое, к сожалению, было несколько раз.

Однако, гораздо хуже если дрожит исходный материал, чтобы не допустить этого прочтите вот эту статью.

По выбору разрешения и битрейта вопрос остаётся открытым, но отмечу 3 режима:

  • 2,7K 24 кадра/с, если необходимо кадрирование
  • 1080 30 кадров/с, как имеющий наибольший удельный битрейт
  • 1080 60 кадров/с, имеет наибольший битрейт и частоту кадров.

Комментарии (35)


  1. Federizzi
    13.05.2016 18:32

    Немного оффтопа, но то же самое справедливо и для экшн камер. Как оказалось, при недостаточном освещении стоит снимать на 24-30 кадрах в секунду. Я вот не сразу это осознал. А снимая без надобности 60fps — получаем лишние шумы


    1. martsen
      13.05.2016 19:02

      Тоже столкнулись с таким, когда первый раз вечером летали. Но благо, что перед глазами текущие параметры съемки, и увидев ISO3200 — быстренько переключились в 24 кадра и ручной режим съемки.


    1. ValdikSS
      14.05.2016 01:15

      Это справедливо для любых фотоаппаратов и камер. Чем выше частота кадров, тем меньше выдержка.


  1. schetilin
    13.05.2016 21:10

    Немного не в тему, но про съемки.
    По телевизору на местных (городских) каналах часто встречается такой эффект:
    Пока картинка статичная — все отлично. Как только в кадре появляется движущийся объект, он начинает двигаться небольшими рывками. Подозреваю что перепутаны четные и нечетные сроки развертки.
    Если кто разъяснит поподробнее причины подобного глюка — буду премного благодарен.


    1. CyberAndrew
      13.05.2016 21:23

      Причина не в перепутанности строк, а в интерполяции частоты кадров:
      ссылка на википедию
      Видеоматериал снят в одной частоте, а телевещание идет в другой, и при некоторых некачественных алгоритмах картинка может дергаться. Теоретически зачем-то могут и 2 интерполяции сделать, то есть материал снят с частотой fps1, его перекодировали в fps2, а потом в fps3.


      1. sidisko
        13.05.2016 21:55
        +1

        коль я работаю на ТВ, расскажу как на самом деле бывает чаще.
        Снимается репортаж, камеры как правило пишут по верхнему полю. Потом это попадает на монтаж, где зачастую монтажеры работают в прогрессиве, либо с полями, но например с нижним полем, как правило, кодек секвенсии, это либо dvcpro-hd, или в случае использования ТВ мониторов, какой-нибудь Blackmagic, (зависит от того, какую плату с HD-SDI выходом ставят в комп), и хуже, если нативный кодек, работает с противоположным полем, и если на монтаже не забудут нажать смену полей, то все хорошо, а иногда забывают, высчитывают мастер-версию, кладут в архив, а исходник уничтожается.
        Перед тем как попасть на playout канала, ОТК на проверке видит не те поля, кладет это дело в тот же премьер, и жмет де-фликер, ибо поля уже впеклись и сменить их уже нельзя.
        Или еще частый пример: съемка репортажа идет с нескольких камер, снимающих в разных форматах, а секвенцию для монтажа создают на основе первого клипа, и опять будет каша. Очень часто встречал, например первый клип снят на Canon 5D Mark2 а другая камера Sony 700
        В одном случае будет прогрессив, в другом верхнее поле, а мастер требуется по нижнему.
        Возможно сумбурно написал, но вариантов когда перепутают поля миллион.


        1. schetilin
          13.05.2016 22:07

          Кстати да, чаще всего такое видел, когда в передаче вставляются любительские съемки (другая камера). Вот там и дергается.
          И огромное спасибо за объяснение.


        1. CyberAndrew
          13.05.2016 22:14

          А что такое поле, секвенция, playout, де-фликер?


          1. sidisko
            13.05.2016 22:20
            +1

            про поля — https://ru.wikipedia.org/wiki/Растровая_развёртка (в английском обозначении во всех кодировщиках видео пишут upper field, lower field)
            секвенция — https://helpx.adobe.com/ru/premiere-pro/using/creating-changing-sequences.html условно это можно назвать монтажный лист, на котором собственно и собирают общую «колбасу» из разных клипов
            playout — опять же условно, конечный сервер, который из эфирного плейлиста генерит выходной сигнал, который уже летит к абонентам в телевизор
            де-фликер (de-flicker) — популярный плагин, устраняющий мерцания, стробления и прочие артефакты видео


            1. CyberAndrew
              13.05.2016 23:03

              Про поле все равно не понял.

              Чересстрочная развёртка — метод развёртки кадров, при котором каждый кадр разбивается на два полукадра (или поля), составленные из строк, выбранных через одну.

              Где здесь верхнее поле и нижнее?


              1. schetilin
                13.05.2016 23:16

                В кадре могут идти сначала все четные строки, а потом все нечетные строки. А могут наоборот. Видимо от того какой полукадр (поле) идет первым их по разному и называют.

                upd. Вот нашел:

                Черезстрочное видео состоит из полукадров, где каждый кадр содержит информацию — либо о нечетных строках изображения, либо о четных. И такие кадры — чередуются, идут друг за другом, формируя видеоизображение. Если в первом кадре видеофайла — нечетные строки (1, 3, 5, ..) — это Upper Field first, если в первом кадре — четные строки (2, 4, 6, ..) — это Lower-field first.


              1. gene4000
                14.05.2016 06:25

                Верхнее/нижнее — терминология Adobe, бывает четные/нечетные, бывает нулевое/первое, первое/второе. По факту цифровые компьютерные форматы хранят полуполя в одном кадре. А значит исправить очень легко, сдвинув кадр на один пиксел вверх или вниз. Никаких супертехнологий (как раньше при аналоговых временах) не надо, но многие этого не знают. Радует, что с полями нетелевизионщики практически уже не встречаются. Десять лет назад было намного хуже.
                Сейчас самая большая сложность — выбрать формат конечного ролика. Если для тв, то проблем почти нет, скорость кадров местного вещателя (обычно это pal и 25 к/с либо 50 к/с с полуполями). С выбором соотшения сторон сложнее, но в целом тоже понятно — в каком формате идет вещание.
                А вот если снимается для ютуба/вимео, то выбор становится сложным. Обычно отталкиваются от возможностей камеры, но ведь есть полностью сгенерированое в программе видео. Тем более возникают проблемы, если нужно использовать разные по к/с форматы со звуком. Если в обычном случае небольшое ускорение на коротких участках можно не заметить (например снято в 25 к/с показать как 30), то при наличии звука придется либо с ним работать серьезно (если что-то говорят, то ускорение/замедление сразу слышно), либо приводить видео к другой скорости кадров — и вот после этого картинка начинает выглядеть от плохо до очень плохо. Не помогает интерполяция меджу кадров, не помогают никаки дефликеры (очень разное под этим подразумевают). Поэтому сейчас лучше снимать с максимальной скоростью, чтобы конвертация была менее заметна, либо использовать кратные изменения скорости: например снятое как NTSC 59,97 (60) умножается на два с помощью какого-нибудь более-менее приличного уплавнителя (да, как в телевизорах, только лучше), а потом уже 120 к/с делится на 24(25) к/с чтобы получить PAL. То есть берется только каждый пятый кадр: для 24 к/с разницы по скорости почти не будет, для 25 она есть, но очень небольшая. Если уплавнитель был качественный, а движения четкие и понятные, то будет очень качестенный готовый материал. Сейчас уже есть возможность снимать со скрость 120 к/с — иногда это хороший вариант, если нужно делать готовый материал с 25 и 30 — но, честно скажу, не знаю, подходит ли настолько серьезно к своей работе.


                1. CyberAndrew
                  14.05.2016 14:58

                  А почему при смене FPS картинка начинает выглядеть от плохо до очень плохо? Неужели даже с современными цифровыми технологиями нельзя сделать нормальную интерполяцию FPS? И как это «плохо» и «очень плохо» выглядит, можно посмотреть на пример такого видео?


                  1. gene4000
                    14.05.2016 15:11

                    Потому-что обычный способ — смешать между собой несколько кадров. Не всегда два, может и три получится. Они просто накладываются с разной степенью прозрачности. Просто наложить кадры друг на друга намного проще, чем высчитать промежуточный с помощью распознования движения (10-15 лет назад вообще нереально было это исползовать из-за ограниченности скорости процессора). Насколько я знаю ни в одном редакторе перерасчет движения для изменения скорости не используется, нигде такое не встроено, используют сторонние плагины. Обычно либо просто дублирование кадров и выкидывание кадров, либо смешивание. И то, и другое выглядит плохо. Качественная интерполация тоже не всегда возможна, так как не всегда конвертация «кратная», может получится, что надо ускорить или замедлить на 10-15% — то есть надо размазать 2,5-3 кадра среди других 25-30 — не всегда понятно как это можно сделать.


                    1. Alaunquirie
                      14.05.2016 15:29

                      На самом деле многие пренебрегают ещё одним правилом: если качество исходников разное, работай в формате самого качественного. Если есть куски 30 FPS, 50 FPS и 60 FPS — привести всё в 60 FPS «растяжением» отображения времени одного кадра, а уже при продакшене париться на тему грамотной «печати» мастер-копии в требуемом формате.


                      1. gene4000
                        14.05.2016 16:11

                        Сложно с ходу решить как будет лучше. Но мне кажется неразумным делать двойное преобразование. То есть вам надо 50i для телевизора, а все переводите сначала в 60 к/с, т.к. у вас это лучший материал, а потом всё-всё переводите в 50 к/с. Мне кажется 50 -> 60 -> 50 будет выглядеть не очень хорошо.


                        1. Alaunquirie
                          14.05.2016 16:33

                          В рабочих файлах я не предлагаю кодировать 50 к/с в 60 к/с, а использовать «настройки монтажного стола», в котором качество выставлено по самому массовому / качественному фрагменту. Если у вас 90% времени 1080р 30 FPS, а остальные 10% — в других форматах, разумеется, работать лучше в нём. К тому же, до «печати» готового файла никаких преобразований не происходит, насколько мне известно, и если вы выставили рабочей среде 60 к/с, то для исходников 50 к/с каждый кадр отображается 0.02 секунды, а для 60 к/с — 0.016(6). А уже потом вы пережимаете в требуемый формат с тонкой настройкой этого процесса.

                          А вот если, наоборот, выставить для рабочей среды, скажем, 23.976 к/с (как требуется, в готовом) — тут как раз придётся выбрасывать часть информации ещё в процессе монтажа, т.к. отобрать один кадр меньше минимального значения не выйдет, а кадров в одном из исходников на единицу времени может быть больше, чем у «рабочей среды». И что там накрутят «быстрые» алгоритмы, который должны обеспечивать комфортную скорость работы монтажного софта — загадка.


                          1. gene4000
                            15.05.2016 06:35

                            Если б в процессе монтажа можно было так легко откидывать обработку лишнего, то это только на пользу шло. Было бы быстрее. Но современные процессоры успевают декодировать 60 к/с быстрее, чем читать с диска. Да и не получается в большинстве бытовых форматов декодировать каждый второй или третий кадр. Но если использовать проксирование в формат вдвое-трое меньший по количеству кадров (не уверен, что это можно сейчас настроить для продуктов adobe, никогда так не делал), то лучше монтировть сразу в меньшем количестве кадров — все будет заметно быстрее происходить.
                            Алгоритмы, которые там используются будут просто выкидывать «лишние» кадры — в процессе монтажа. А уже при выводе готового материала, видимо будет использовать обычный вариант: выкидывание+удвоение либо смешивание кадров. Кстати, frame blending, который появился в AfterEffects несколько лет назад выглядить чуть лучше, чем простое выбрасывание кадров, особенно когда необходимо плавное ускорение на коротком отрезке. Может там уже и не простое смешиение, лень проверять )


      1. schetilin
        13.05.2016 22:20

        Причина не в перепутанности строк, а в интерполяции частоты кадров:
        ссылка на википедию
        Видеоматериал снят в одной частоте, а телевещание идет в другой, и при некоторых некачественных алгоритмах картинка может дергаться

        Эффект выглядит так: объект сдвигается на определенное расстояние, а затем как бы отступает на пол шага назад. Т.е шаг вперед, пол шага назад, шаг вперед, пол шага назад. Так что не из-за частот.


        1. CyberAndrew
          13.05.2016 23:04

          Ну если так, то, видимо, да.


        1. Alaunquirie
          14.05.2016 00:48

          Эт, случаем, не на системе «триколор-ТВ» такую шляпу вы видели?


          1. schetilin
            14.05.2016 01:09

            Обычное аналоговое телевидение.


            1. ValdikSS
              14.05.2016 01:19

              Похоже на неправильный телесайн.


          1. schetilin
            14.05.2016 01:30

            Как написал sidisko перепутан порядок полей (полукадров). Допустим при съемке камера сначала сняла все нечетные строки и в это время движущийся объект находился в позиции 1. Когда камера начала снимать второе поле (четные строки), объект уже успел сместится в позицию 2. Т.е. получается так: 1й кадр нечетные(нч) — позиция(п) 1, 1й четные(ч) — позиция 2, 2нч — п3, 2ч — п4, 3нч — п5, 3ч — п6. При обработке поменяли порядок полей (теперь стали четные первыми) и движущийся объект стал отображаться в позициях 2,1,4,3,6,5 вместо 1,2,3,4,5,6.

            И это не постоянный эффект, а только некоторые сюжеты так корежит :)


            1. Alaunquirie
              14.05.2016 10:07

              Просто впервые такую шляпу я увидел именно на триколоре, до этого ни аналоговое у родителей, ни цифровое там же такой фигнёй не страдали. А вывод правильный, да, чрезстрочку сломали. :(


  1. ValdikSS
    14.05.2016 01:40
    +1

    «Зачем нам снимать с разрешением больше FullHD, если оборудования для просмотра такого контента почти нет?»
    Мы в 2016 году, алё, полки магазинов уставлены UHD-телевизорами, на лаптопы ставят 13.3-дюймовые матрицы с разрешением 3200?1800. Этот комментарий написан с UHD-монитора.

    Чтобы не дрожало, всегда нужно подгонять под частоту обновления устройства, на котором вы смотрите это видео, под само видео. Современные мониторы, как правило, работают либо на частоте 60 Гц, либо 59.94 Гц, но заставить их работать можно на абсолютно любой частоте обновления. Поэтому у вас два выхода — снимать с любой частотой видео, и устанавливать ее для просмотра (некоторые видеоплееры поддерживают это, не такая уж и редкость), либо снимать с такой частотой, чтобы частота обновления вашего монитора более-менее делилась на частоту видео. У ТВ же, зачастую, частота обновления выше.


    1. sidisko
      14.05.2016 09:16

      вы очень сильно удивитесь если посмотрите статистику разрешений
      как пример: статистика по России маил.ру


    1. Alaunquirie
      14.05.2016 10:17

      У среднестатистических ТВ она как раз НИЖЕ, т.к. ставят дерьмовые комплектующие. Полно моделей 4k2k у которых выше 30Hz матрицу не раскочегарить никакими средствами. DisplayPort'а нет, HDMI 1.4 ограничен по пропускной способности (а там ещё и кабель играет роль), могут вообще дешманский декодер поставить который больше 30FPS просто не сможет закрасить экран и всё.


      1. nsklizard
        14.05.2016 15:12

        ну это аргумент, если вы снимаете что-то, что не будете смотреть через 5, 10, 15 лет.
        А если это скажем выступление детей, или что-то, на что вы захотите взглянуть чуть позже?

        У меня с общаги есть видео формата 160х144, снятые на мобилы. Я бы очень хотел сейчас чтобы некоторые из них были хотя бы 640х480.


        1. Alaunquirie
          14.05.2016 15:22

          Я не спорю, у самого 4k2k монитор, но в вопросах видеосъёмки сейчас для НЕархивных материалов, которые устареются через год-два — хорошего, качественно кодированного и сжатого с разумным битрейтом FullHD просто с головой. Уж лучше 48-60 FPS 1080p с хорошим битрейтом записанных, чем 30 FPS видео 4k2k пожатое пропускной способностью дешёвого чипа каком-нибудь девайсе до состояния «вдиео-недоразумение».


    1. sumanai
      14.05.2016 20:57

      > Современные мониторы, как правило, работают либо на частоте 60 Гц, либо 59.94 Гц, но заставить их работать можно на абсолютно любой частоте обновления.
      Хочу 120 на своём Asus PA246!


      1. ValdikSS
        14.05.2016 21:06

        Подключите его через DisplayPort и попробуйте поднимать частоту. 120 вряд ли добьетесь, но 86 мой монитор выдает.


        1. sumanai
          14.05.2016 22:45

          Возможность настройки частоты отвалилась с каким- то из обновлений драйверов.
          И что- то мне подсказывает, что современный дисплей просто не даст себя использовать вне его паспортных параметров, это не ЭЛТ, где можно было творить что угодно, вплоть до неработоспособности.



  1. gene4000
    14.05.2016 05:04

    Видео с воздуха пока не очень распространенное и мозг еще не очень привык к нему. Поэтому можно снимать с любой частотой, а уже потом выставлять нужно для фильма скорость кадров для файла, который снят. То есть 30 можно запускать как 25, а 25 как 30 — разница видна, но не очень сильно. По поводу возражений «будет дергаться». Да, будет, если делать конвертацию. Если 't просто выставить скорость для конкретного файла, то проблем не будет. Есть редакторы, которые это позволяют, есть программы изменяющие скорость кадров редактируя непосредственно видеофайл. В любом случае в процессе сложного монтажа может возникнуть ситуация когда видео нужно ускорить в некоторых местах — тут заранее установленная скорость не поможет, нужно просто аккуаратно работать с материалом.