Всем привет! Так уж вышло, что современная промышленность редко приходит к одному стандарту, а если и приходит, то некоторые компании часто дополняют простые и понятные общие технологии своими костылями. Последней крупной «войной форматов» можно назвать HD-DVD vs BluRay, в которой победил последний. Что ж, новый виток технологий выкатил новые «пушки»: один из основных трендов телевизоростроения в 2016-м году — поддержка формата HDR (расширенного динамического диапазона).



Что это, как оно работает, чем отличается от того HDR, что используется в фотографии и играх и какие форматы воюют в этот раз — в нашем сегодняшнем посте.

HDR – что это такое и зачем небходимо


HDR (High dynamic range) — это технология расширения динамического диапазона изображения. Человеческий глаз адаптируется к уровню окружающего света. При съёмке фотографии или видео параметры оптической системы (то есть чувствительность фотоматериала или сенсора, значение диафрагмы и выдержки) влияют на формирование кадра, и записанная единожны информация содержит определённый диапазон яркостей. От того, что условно считается «чёрным» (но может не быть чёрным в реальности, т.к. количесва отражённого света просто не хватило для записи другого оттенка) до того, что считается «белым» (аналогично, объект может отражать / излучать больше света, чем способен запечатлеть сенсор на текущих настройках, при этом не быть белым с объективной точки зрения).

Разница между самыми яркими и самыми тёмными оттенками и есть искомый динамический диапазон. Если сцена имеет бОльший динамический диапазон, чем способна запечатлить техника, то на картинке будет присутствовать выгорание светлых участков и/или зачернение теней, то есть потеря яркостной и цветовой информации.

Расширение динамического диапазона приводит к увеличению воспринимаемого камерой диапазона яркостей, но вместе с этим снижает контрастность изображения. Для восстановления контрастности используют различные алгоритмы повышения локальной контрастности и тонального преобразования (tone mapping).

Но если при записи контента решён вопрос преобразования расширенного динамического диапазона в обычный, то зачем нужен HDR в телевизорах и как он работает?

HDR в телевизоре


Телевизионный HDR занимается тем же: увеличивает количество допустимых яркостных значений между темнейшими тёмными оттенками и ярчайшими яркими, таким образом правильно закодированный видеопоток может отобразить большее количество различных оттенков в кадре. В целом картинка становится более детализированной, яркой и чёткой за счёт увеличения микроконтраста в «пограничных» зонах, которые на обычном видеопотоке и обычном телевизоре выглядели бы одноцветными или малоконтрастными, а в движении и вовсе терялись бы.

Обеспечить поддержку HDR необходимо сразу в нескольких местах. Телевизор должен уметь декодировать и отображать подобный сигнал — раз. Контент должен быть закодирован соответствующим образом и содержать необходимую информацию — два. Доставить контент с увеличенным битрейтом тоже необходимо, то есть иметь поддержку со стороны «транспорта» сигнала (интерфейстного кабеля). Три. А ещё контент надо как-то снимать, распространять и так далее. Обеспечить совместимость всего этого разнообразия должен (по идее) набор рекомендаций Rec. 2020. Разберём всё по порядку.

Телевизор


Нет, 30-битные матрицы в ТВ ставить никто не станет, они всё так же останутся 18- или 24-битными, а HDR контент будет приводиться к «обычному» перед отображением. Просто в новом формате записи цветового пространства специальные преобразования позволят закодировать яркостную составляющую бОльшим количеством бит. Специальный алгоритм будет преобразовывать исходный сигнал в «правильный» для телевизора, благодаря чему картинка будет одновременно и более детальной, и не потеряет в контрастности.

И вот здесь есть первая проблема. Стандартов HDR-TV два: HDR10 и DolbyVision. Samsung и Sony сделали ставку на HDR10, большинство голливудских студий и некоторые другие компаниии — на DolbyVision. Да и сам бренд Dolby куда сильнее «раскручен». Современные контент-провайдеры решили вопрос по-своему — Netflix и Amazon просто поддерживают оба формата и вы сами можете выбирать, в каком виде получать HDR-кино. LG решили не участвовать в войне форматов и просто предоставили поддержку и той и той технологий.

Контент и носители


Чтобы осуществить поддержку HDR-видео, требуется соответсвующий формат записи данных. Из «старых» форматов цветовое пространство Rec. 2020 поддерживают H.264 (c некоторыми ограничениями), из «новых» — HEVC, он же H.265. Разумеется, «дополнительная» информация требует больше места, поэтому 4k2k-HDR контент доставляется пока только онлайн. BluRay 4k и единственный (на момент написания статьи) распространённый и сравнительно легко покупаемый плеер подобных дисков производятся Samsung, а на какой формат сделал ставку этот промышленный гигант мы уже знаем. Технически, ничто не мешает реализовать поддержку DolbyVision в BluRay 4k, но на данный момент имеем то, что имеем.

Передача данных


Контент есть, телевизор есть. Осталось перенести контент в ТВ. Здесь (пока что) безраздельно царствует формат HDMI, телевизоров с поддержкой DisplayPort — кот наплакал. Теоретически HDMI 2.0 поддерживает 4k2k-видеосигнал с HDR, но с определёнными ограничениями: 24/25/30 кадров в секунду для полноцветного изображения с 12-битным семплированием и 50/60 кадров в секунду для цветовой субдискретизации 4:2:2 или 4:2:0.

На данный момент HDMI 2.0 — бутылочное горлышко в ТВ-технологиях, и о реальном прорыве в качестве картинки говорить до появления стадрата, поддерживающего «честные» 4k2k 120Hz / 8k4k 60Hz, не приходится. Проблемы HDMI находятся в области обеспечения обратной совместимости — HDMI позволяет передавать сигнал, совместимый даже с аналоговым ч/б телевизором, что накладывает определённые ограничения на развитие стандарта.

Что выбрать


Если вы покупаете телевизор в 2016 году и хотите получить от него максимум, логично было бы обратить внимание на модели с поддержкой HDR. На самих телевизорах производители почему-то стесняются писать HDR Ready, поэтому в магазине надо искать отметку UltraHD Premium. У Samsung такие телевизоры есть в серии 9000 (2016 года выпуска), у LG, например, флагманские OLED’ы, 65EG6.



Из проигрывателей дисков на рынке доступно два решения — Samsung UBD-K8500 (с поддержкой HDR10) и Panasonic DMP-UB900. Зарубежные обзорщики вовсю рекомендуют брать «панас» — у него и качество картинки лучше, и (теоретически) должен получить поддержку Dolby Vision, но пока работает только с теми дисками, которые есть (а на них записывают HDR10 формат).

На практике же все эти девайсы стоят… немало, и до популяризации HDR-видеоформатов (а также «спуска» его в 1080p-разрешения) вряд ли цены упадут / эти фичи появятся в «бюджетных» линейках телевизоров.

Чисто теоретически, HDR должен уметь (правда, без 4k-воспроизведения, только FullHD) и сравнительно бюджетный Samsung KJ-7500, но проверить это пока не удалось.

Однако буквально недавно Nvidia представила новые десктопные видеокарты семейства Pascal: GTX 1080 и 1070: они поддерживают новые HDR-форматы, так что разработчики игр смогут использовать «честный» HDR (а не его имитацию) в своих продуктах, а вы — в числе первых оценить эти нововведения.



Правда, пока неизвестно, когда данные возможности появятся в играх. Зато как только появятся — вы сможете оценить их одними из первых.

Есть вопросы? Или, быть может, вы из тех счастливчиков, что уже пользуются преимуществами HDR-телевидения? Мы ждём вас в комментариях!
Поделиться с друзьями
-->

Комментарии (95)


  1. Meklon
    20.06.2016 14:22
    +10

    Я не уловил, нафига оно нужно при 256 значениях яркости на канал? Искренне верил, что хотя бы до 10 бит поднимут, чтобы 1024 значения было. Понятно, что солнце на экране не будет ослеплять, но все же. В текущем варианте выглядит довольно бессмысленным. Информацию теряем либо в виде понижения контраста между темным и ярким (256 значений! Никуда не деться), либо из-за выбора какого-то участка большого диапазона. Например, от 768 до 1024 для яркой сцены. Но при этом тени свалятся в ноль из-за клиппинга диапазона. Чудес не бывает. Все упирается в вывод.

    Понятно, зачем стандарт нужен. В тех же фотографиях хорошо иметь возможность прикрутить экспозицию без потери качества (в рамках диапазона исходного raw). При видеомонтаже аналогично. Но конечному потребителю от этого не особо весело.


    1. RomanArzumanyan
      20.06.2016 14:39

      Если контент (кино) закодировано в 8 бит, то можно делать апскейл до 10 бит при выводе на телевизор. Если же видео закодировано в 10 бит, то делаем нативный вывод без тональной компрессии. Полагаю, именно по этой причине упомянуты плееры от Panasonic и Samsung — поскольку они поддерживают декодирование видео, сжатого с 10 бит на канал.

      Такого видео понемногу становится больше, поскольку помимо HDR, большая точность представления положительно сказывается на компрессии.


      1. Lsh
        20.06.2016 16:33
        +1

        Так, а где телевизор, у которого больше 8 бит на канал в матрице?


        1. Meklon
          20.06.2016 16:41
          +1

          Я только мониторы за дикие деньги видел. И они в основном нужны для узких областей, типа просмотра томограммы в 10-битном цвете, где много переходов.


          1. Lsh
            20.06.2016 17:15
            +1

            Не такая уж они и редкость. Всякие фотографы/полиграфисты часто сидят за монитором с AdobeRGB и 10 битами на канал.


            1. Randl
              20.06.2016 19:04
              +1

              Подключая их к видеокартам с 8 битами на канал. Фотографов с Quadro — единицы.


              1. Lsh
                20.06.2016 19:06

                Это уже другой вопрос.


              1. evtomax
                20.06.2016 20:57
                +2

                Всё правильно делают. Чем больше разрядность матрицы, тем меньше искажений после цифровой обработки сигнала внутри монитора.


          1. Sixshaman
            20.06.2016 17:55

            На презентации Microsoft с GDC 2016 говорится, что современные телевизоры могут отображать 500 – 1000 нитов. И что это число вполне может удвоиться к 2017. Так что у телевизоров с этим всё отлично.


            1. Mad__Max
              20.06.2016 20:10
              +1

              Ниты (nit) это показатель максимально достижимой яркости. А выше обсуждение о количестве различимых градаций этой яркости, а не максимальном ее уровне.


            1. Komei
              21.06.2016 11:54
              -1

              А вы не путаете контрастность и кол-во режимов яркости? Пока всё что может матрица это 256 режимов, смысла от HDR сигнала 0. У меня вот есть монитор с честными 10-ю битами и видеокарта, которая вроде как поддерживает это. Так вот, если выкрутить яркость монитора на максимум (у меня аж глаза болят), то да, я отлично вижу разницу между 8-ю и 10-ю битами (хотя пользоваться монитором на такой яркости одна сплошная боль — тут нужны специальные средства со стороны ОС чтобы обычные вещи отображались в диапазоне 0-255, а то что выше шло именно как «слепящее»). Кроме того у меня рядом стоит ещё один монитор с 8-ю битной матрицей, так вот на нём разницы между картинками 8 и 10 бит нет вообще.


        1. RomanArzumanyan
          20.06.2016 16:57

          Понятия не имею :) Вопрос ещё в том, что производители называют HDR Ready — имеется ли ввиду под этим количество бит на канал и/или мощность подсветки экрана. Знаю точно, что Dolby производит такие экраны (больше битов на канал + ярче подсветка) и параллельно занимается разработкой совместимого кодека на базе HEVC (или расширения к HEVC)


          1. Lsh
            20.06.2016 17:11

            А можно ссылку на 10-битные ТВ панели? А то маркетоиды из мувидео написали вот чего «Нет, 30-битные матрицы в ТВ ставить никто не станет, они всё так же останутся 18- или 24-битными».
            Вообще, я уверен, что такие должны быть, т.к. мониторы с 10-ю битами уже есть давно.

            P.S.: Кстати, чего они тут делают с такими статьями? Неужели аудитория хабра не в состоянии самостоятельно телик купить?


            1. RomanArzumanyan
              20.06.2016 17:28

              То, что производится на данный момент (насколько я знаю) — это не потребительская электроника, а профессиональные мониторы и панели для размещения рекламы. Так что ссылку именно на ТВ-панели привести не могу. Разработки Dolby легко гуглятся по запросу «Dolby HDR screens».


            1. Justlexa
              21.06.2016 11:52

              Очевидно, это чистой воды маркетинг. А на самом деле — «30 битная матрица» в данном случае названа таковой потому что 10 бит * 3 цветовых составляющих. Аналогично и с 18 (6 бит * 3 составляющих) и 24 (8 бит*3) битами.


            1. jamakasi666
              21.06.2016 11:53

              А как же еще можно впарить телек стоимостью 1 комнатной квартиры да еще и с наценкой в 100-200к рублей.


      1. vconst
        20.06.2016 16:53

        можно делать апскейл до 10 бит

        В этом нет смысла. Если в файле нет информации, то они там ниоткуда не появится. Кино закодированное в 8 бит, так и останется 8-битным, на чем бы его ни показывали


        1. RomanArzumanyan
          20.06.2016 17:25

          Смысл в этом есть, и немалый. В начале продаж нужно предлагать покупателям новых дорогих телевизоров 10-битное кино, которое из ниоткуда не возмётся. Пока не снимут новое, придётся апскейлить старое. Как вариант — пока не оцифруют заново и/или не транскодируют в 10 бит уже имеющийся материал, что тоже небыстро и недёшево.


          1. vconst
            20.06.2016 17:26
            +1

            Ну да, как с 4к, которое пока только в демороликах…


      1. amphasis
        20.06.2016 17:47

        О каком нативном выводе в 10 бит идет речь, если цитата: «Нет, 30-битные матрицы в ТВ ставить никто не станет, они всё так же останутся 18- или 24-битными»


        1. RomanArzumanyan
          20.06.2016 17:57

          Задайте этот вопрос автору цитируемого текста. Я склонен считать, что со временем ТВ перейдут на 30- или 36- бит матрицы. Более того, в настоящее время такие панели уже существуют и их можно купить за вполне вменяемые деньги.


  1. Arxitektor
    20.06.2016 14:32

    Надеюсь с мониторами дела будут лучше в них современные интерфейсы быстрее пробираються.
    И да 256 значениях яркости на канал? это очень мало.
    особенно если цветовой субдискретизации 4:2:2 или 4:2:0.
    В играх надеюсь честные 4:4:4?


    1. Massacre
      20.06.2016 14:43

      В играх-то да, учитывая, что все эти извращения с YV12 и прочим сделаны для лучшего сжатия видеопотока.


  1. Makito
    20.06.2016 15:00

    Новый xbox one s как анонсировали будет поддерживать HDR


  1. ElvinFox
    20.06.2016 15:01

    Хотелось видеть примеры и сравнения с обычной картинкой.
    А пока очередной «новый маркетинговый формат»


    1. Alaunquirie
      20.06.2016 16:12
      +2

      А как вы увидите разницу HDR / не-HDR без устройства с поддержкой HDR? :) Или вам просто наглядное представление хочется?


      1. AllexIn
        20.06.2016 21:02

        Дык нет поддержки HDR в этих устройствах.
        Матрица в них такая же как в вашем мониторе. По сути весь вопрос только в софте, который будет перекодировать HDR в LDR для вывода на экран.


  1. Insanie
    20.06.2016 15:01
    +3

    «Если вы покупаете телевизор в 2016 году и хотите получить от него максимум, логично было бы обратить внимание на модели с поддержкой HDR. На самих телевизорах производители почему-то стесняются писать HDR Ready, поэтому в магазине надо искать отметку UltraHD Premium.»

    А лучше всегда покупайте самое дорогое. И лучше несколько штук. Всем родственникам. Поверьте, мы знаем, как лучше. Nuff said.

    А по делу — разве HDR-изображение не может быть уже готовым сигналом? Похоже на историю с 3D-телевизорами, 3D-мониторами и прочими 3D-приблудами, хотя 3D-видео можно крутить хоть на самом дешевом проекторе, просто в нужном плеере (с поддержкой воспроизведения определенного метода) и с нужными очками.
    А вообще, махинации, производимые телевизором, напоминают простейшее растяжение контраста за счет большей информации о сигнале (как бы RAW-формат) с самого темного в черный и с самого светлого в белый. Нужно ли говорить, что цветопередача матрицы ничем не отличается, но сигнал вы просто модифицируете для сомнительного профита? Уникальности в данном алгоритме маловато, учитывая, что это преподносят чуть ли не как открытие.

    P. S. немного обидно, как инженеры стараются изобретать все новые способы передавать свет и цвет реалистичным (IPS-технологии, даже E-Ink в будущем), и как маркетологи раскручивают амолед с его расширенным диапазоном только в зеленом и HDR.


    1. neomedved
      20.06.2016 17:27
      +1

      >А лучше всегда покупайте самое дорогое.
      Если денег хватает, то способ не самый плохой. Если пытаться сэкономить на том, в чём не разбираешься, легко совершить ошибку.


      1. Insanie
        20.06.2016 17:41
        +1

        Соглашусь, но дополню: стараясь купить что-то хорошее, рассчитывая только на мощь своего кошелька, можно тоже купить неплохой такой треш с кучей программных «фич» на уровне смываемой втулки. Имхо, вообще покупать что угодно без понятия о сабже — кот в мешке, независимо от суммы.


        1. neomedved
          20.06.2016 17:53

          К сожалению, быть специалистом во всём невозможно, и покупать кота в мешке приходится часто.


          1. Insanie
            20.06.2016 18:19

            Тоже верно. Но в 90% случаев просто 20 минут в гугле снимает вопрос о возможно неудачной покупке.


            1. neomedved
              20.06.2016 18:28
              +2

              Я бы сказал, 20 минут в гугле приведут к чтению срачей от людей, которые сами не до конца разбираются в теме. Например, я недавно купил видеокарту GTX 960 с 2gb памяти вместо 4gb, о чём уже не раз пожалел. Интернет только помог мне принять неправильное решение.


              1. Insanie
                20.06.2016 18:40

                Прими мои соболезнования. =(
                Сам брал 4-гиговую версию. В основном, мой поиск в инете сводится к алгоритму:
                знаешь, о чем идет речь? — иди подбирай по характеристикам и цене на яндекс.маркете;
                не знаешь? — гугли технологии, читай вики, а только потом выбирать сам девайс.
                Конечно же, читать срачи, вроде «АМД против Нвидии/Интела» или «линь vs винда», смысла нет.

                P. S. я так же как и ты подбирал видяху и остановился на 960. Схема была такая: зашел на futuremark.com, посмотрел мою текущую видяху — ее производительность и цену — в рейтинге. Далее листал вверх до вменяемой цены и производительности, остановился на 960. Зашел на маркет, начал листать все модели 960, увидел, что версия с 4 ГБ стоит на 1-1,5 килорубля больше, и решил, что есть однозначный смысл брать ее. Нашел подходящую по длине версию (маленький корпус), выбрал магазин, в котором не будет проблем с гарантией, но приемлемая цена, и взял.
                А вообще не расстраивайся, скоро будем переезжать на 10ХХ серию. Лишь бы валюта пожалела скромных геймеров.


                1. neomedved
                  20.06.2016 19:42

                  Не всегда очевидно, как найденные в гугле технологии показывают себя на практике. Например, в тестах 960 чуть-чуть лучше 760, но у 760 и размер шины больше и число транзисторов… Что остаётся человеку, который обновляет комп раз в несколько лет? Купить ту, где цифра в названии больше :) Вот и с памятью так вышло — разница неочевидна, а жаба подкралась в самый неподходящий момент.


                  1. neomedved
                    20.06.2016 19:50

                    Я конечно же хотел сказать шейдерных процессоров, а не транзисторов.


        1. glushak
          20.06.2016 20:35
          +1

          А вот Вы когда-нибудь были также счастливы, как люди в рекламе смываемых втулок?
          То-то же.
          /sarcasm


          1. Insanie
            20.06.2016 21:01

            Замените в ролике «смываемая втулка» на «пульт с пищалкой», «просмотр ютуба», «чтение книг», «запись трансляции на самый дешевый хард 5400рпм», «ЛЕД ПОДСВЕТКА!!!» (а чо, светодиоды же такое инновационное изобретение, не?), «Ultra HD» (он же 4К) для просмотра фильмов в FullHD -_-, «Смарт ТВ» из дипломной работы выпускника на ядре линя… Мне нужен экзорцист.


      1. Massacre
        21.06.2016 06:08

        Вот так и появляются покупатели кабелей за $1000…


  1. SanekK
    20.06.2016 15:02
    +3

    Все равно не понимаю что за HDR, почему его нельзя было просто на этапе продакшена вывести в картинку.
    Понимаю, если бы телевизор динамически подстраивал контрастность в зависимости от освещения комнаты, вот это было бы полезно, наверно. Тут расширенная информация о hdr полезна была бы.


    1. Alaunquirie
      20.06.2016 16:18
      -1

      Потому что если вы при продакшне вкатите 16 бит на канал в файл, то получится малоконтрастное говно, на которое никто смотреть не захочет. У вас БУДУТ все детали, и на свету, и в тенях, вот только светов и теней почти не останется, всё будет равномерно размазано по гистограмме. Либо будет неествественно задран контраст и будет блёклое + бесцветно-контрастное говно.

      А если сводить их в 8 бит на канал, то надо применять tone mapping и получится сюрреалистичная картина. Особенно это касается людей.



      Конечно, можно сводить по разным алгоритмам и с разными коэффициентами, но результат всё равно немного непривычный.


      1. Meklon
        20.06.2016 16:32
        +2

        Бессмысленно и беспощадно своей неестественностью. Короче в 8 бит ни фига не впихнешь при всем желании. Ждем нормальных матриц с расширенным диапазоном в широком доступе.


      1. Lsh
        20.06.2016 16:55
        +2

        И? Если у нас телевизоры могут максимум 8 бит на канал, то не проще ли и контент для них поставлять в 8 бит на канал? А чем он снят, как редактирован и т.п. значения не имеет. Там вообще может быть 32 бита с плавающей точкой. Пока это всё похоже на маркетинговый буллшит.


        1. Bazilbrush
          20.06.2016 17:47
          -1

          Полностью поддерживаю про маркетинговую лапшу, экосистема слишком затратная, и мало толку для обычных людей. 'На будущее' вваливать много баксов в телик который будет с хорошей картинкой 'вот как остальная индустрия поддтянется' это для тех кто мерился диагоналями своей плазмы лет 10 назад. Даже на ПК организовать себе рабочую станцию с поддежкой 10-битного цвета не ограничивается только покупкой HP dreamcolor, надо еще и правильную карты поставить и дрова.


      1. vconst
        20.06.2016 16:57

        Может видео обрабатывается как-то по особенному примитивно, но как полиграфист-цветокорректор я с вами не соглашусь. Все дело в последующей обработке. Если из 8-битного исходника ничего вытянуть нельзя, света так и останутся выбитыми, а тени проваленными, то из16-битного RAW, с помощью глобальной и локальной коррекции, можно вытянуть и тени, и света, и при этом средние тона не станут плоскими

        В этом и заключается искусство цветокоррекции. Если человек не владеет приемами цветокоррекции, то будет как вы сказали, средне-серое говно, а если он профессионал – то на выходе будет сочная картинка с деталями по всему диапазону

        Неестественная картинка из видео – типичный результат непрофессиональной обработки. Весь интернет завален подобным псевдо-HDR, его легко отличить даже по превьюшкам


        1. DjOnline
          20.06.2016 20:15
          +3

          Все верно, потому что профессиональные кинокамеры типа Red, Arri давно снимают в RAW с большим динамическим диапазономи в фильмах прекрасно это видно, когда например съёмка ведётся внутри помещения, персонаж стоит в тени комнаты перед выходом из двери, и за дверью видна улица с небом, и при этом и лицо персонажа прекрасно различимо, и деревья с небом за дверью не пересвечены. То что конкретно в этом видеоролике выбран дерьмовый алгоритм тонемеппинга — заслуга именно автора видео. К слову даже для canon есть прошивка magic lantern с поддержкой расширенного ДД и кучей бит в raw.

          Непонятно только зачем для этого нужны ТВ с HDR? Чтобы опять сделать солнце слепящим, и от этого для глаз человек в тени был чёрным как негр? То есть от чего ушли, к тому и пришли?


          1. vconst
            20.06.2016 20:20

            Спасибо, успокоили, я в видео ничего не понимаю и чуть было не решил, что все видео хдр такое ужасное. А с телевизорами все понятно, модный способ продать подороже


        1. mx2
          21.06.2016 11:53

          Дело не в непрофессиональности, а в том, что HDR, по-честному, — это не 12/14/16 линейных бит из рава, а 32 плавающих после мультиэкспозиции и пересчета из нескольких равов, чтобы охватить всю сцену. Такой диапазон невозможно запихнуть в обычный дисплей (и не нужно).


          1. vconst
            21.06.2016 12:01

            «Запихивание» этого диапазона в обычный монитор – называется «обработкой исходных данных», которая в показанном видео отвратительная и непрофессиональная


            1. mx2
              21.06.2016 12:16

              «Запихивание» — алгоритм, он не может быть непрофессиональным. Никто руками ничего не будет подгонять под каждую ситуацию, это не рекламная ретушь и не кинематограф.


              1. vconst
                21.06.2016 12:17

                Значит алгоритм был выбран неподходящий, потому что сделал этот выбор дилетант


  1. muhlyak
    20.06.2016 15:02

    Наличие поддержки HDR предполагает и расширенный цветовой охват?
    Если нет, то очень странно.


  1. mamont801
    20.06.2016 15:02
    +1

    Зачем нужен HDR при записи фото/видео понятно, можно поиграть в постобработке. А вот зачем писать и передавать HDR на телевизор не понятно, если всё равно на выходе 24 бита. Нельзя заранее конвертнуть в 24 бита? Или телевизор подстраивает диапозон в зависимости от освещения в комнате и/или настроек пользователя? Этот момент в статье не раскрыт. Я бы доверил подстройкой заниматься профессионалу, автору, режиссёру, пусть творят. А не моим кривым рукам.


    1. edd_k
      20.06.2016 15:43

      Вопрос в том, КАК конвертнуть в 24 бита. Вы же компрессию диапазона можете производить по-разному.


      1. Zava
        20.06.2016 16:08

        Тем более лучше чтобы это делали в студии, а не как производителю телевизора кажется лучше.


        1. edd_k
          20.06.2016 16:47

          А тут нет «как лучше».

          Можно сделать стандартно — ничего не обрезаем, сжимаем линейно. Телевизор с этим тоже прекрасно справится. Так ведь? Наличие дополнительных плюшек этому же не мешает.

          Но на каком-то контенте какую-то ЦА воодушевит динамическое расширение диапазона. Причем, им больше понравится результат, выдаваемый на теликах А, нежели результат, выдаваемый на теликах Б. А другим — наоборот! А телики С вообще на два бита якобы физически больше могут отображать.

          В чем плохо стремление апнуть существующие стандарты и дать возможность поставлять более качественный контент? Это же не отменяет возможностей показывать и смотреть как раньше.


  1. nlykl
    20.06.2016 15:02
    +1

    >HDMI позволяет передавать сигнал, совместимый даже с аналоговым ч/б телевизором
    Разве? Это же исключительно цифровой интерфейс.


    1. safari2012
      20.06.2016 16:03

      Наверное, имелось ввиду, что он может передавать 480i


  1. madf
    20.06.2016 15:46
    +1

    Помню на закате кинескопных телевизоров выбирал себе модель, там тоже были свои технологии, но как показала реальность, видео процессоры так настроены, что не способны передавать полутона. Тогда я это смотрел на простом примере, брал мультик "Ледниковый период" и смотрел как на снегу видно текстуру, в последних моделях снег рисовался как обычное, белое пятно (на плазмах таких проблем не было...). :D
    Много времени конечно прошло с того момента, возможно с современными моделями сейчас подобная же картинка.


  1. zedalert
    20.06.2016 16:30

    Интересно, на Blu-Ray 4k фильмы будут по-прежнему с частотой кадров 23.976?


    1. SupRo
      20.06.2016 17:47
      +1

      Мне тоже интересно. Смотреть дерганую картинку, не могу. Приходится пользоваться программами уплавнения.


    1. DjOnline
      20.06.2016 20:17

      К сожалению. Хотя было бы проще сразу снимать в 48/60p, и для «обычных людей», которым нравится слайдшоу, выкидывать половину кадров.


      1. ValdikSS
        21.06.2016 10:24

        Но тогда все будет еще больше дергаться на низком фреймрейте же!


        1. DjOnline
          21.06.2016 10:34

          Сейчас же все смотрят на эту дерготню в 24p и «радуются». Даже то же евровиденье, которое снимается как 1080/50i, выкладывают с деинтерлейсом до 1080/25p и «радуются» этой дерготне, не понимая что вырезали половину движения.


          1. ValdikSS
            21.06.2016 10:43

            Я о том, что, из-за выдержки, у вас будет сильно меньший motion blur на 24-кадровом видео, которое вы получили из 48-кадрового, и все будет визуально дергаться сильнее, чем если бы видео сразу снимали с частотой 24 кадра в секунду.
            А люди, которые деинтерлейсят 50i в 25p, просто не разбираются.


            1. DjOnline
              21.06.2016 11:10
              +1

              Да, будет. Но так как изначально есть информация о 50 кадрах, то точно так же на основе неё можно расчитать вектора движения и применить программный motion blur, при этом точность будет заведомо выше, чем те вектора которые сейчас используются для построения промежуточных кадров из 25p->50p. То есть убиваем двух зайцев — в 50p получаем картинку без артефактов, в low framerate 25p получает картинку с программным блюром на основе движения, пусть даже с небольшими артефактами, но которых заведомо меньше чем при frc интерполяции 25->50.


        1. zedalert
          21.06.2016 10:52

          А где он, этот низкий фреймрейт, если контент изначально рассчитан на технику (проекторы, HD-телевизоры, мониторы), которая умеет 50/60гц. По мне так проблема должна быть у тех, кто не умеет более высокую частоту (аналоговая телевизионная сеть). А так получается подавляющее большинство смотрит слайд-шоу, а у кого техника получше, тот смотрит с апскейлом частоты и с вытекающими артефактами.


          1. DjOnline
            21.06.2016 11:12

            Абсолютно верно.
            И даже аналоговая техника прекрасно показывает плавное видео в виде interlaced контента 50/60Гц.
            Проблема только в головах некоторых людей, которые застряли в начале 20 века в древних технологиях и не хотят вылезать из этого болота. По этой причине я не переношу кинотеатры с этим слайдшоу, а наслаждаюсь плавной картинкой на своём ТВ, и в гробу я видал эти честные 24p.


  1. RicardoGonsales
    20.06.2016 17:47
    -3

    Никогда не понимал, зачем в играх делают этот HDR.
    Человеческий глаз действительно адаптируется к изменению уровня освещенности, вопрос только как быстро?

    Цитата из википедии: Наиболее полно изучены изменения чувствительности глаза человека при переходе от яркого света в полную темноту (так называемая темновая адаптация) и при переходе от темноты к свету (световая адаптация).
    … Процесс темновой адаптации занимает несколько часов…
    … Световая адаптация происходит значительно быстрее и занимает при средних яркостях 1-3 минуты…
    eyesfor.me/home/anatomy-of-the-eye/retina/light-and-dark-adaptation.html
    Да, разумеется, реально эффект от адаптации наступает быстрее, но реально эффект от темновой адаптации заметен через несколько минут.
    Т.е. для того, чтобы увидеть этот эффект, нужно залезть в темный сортир минут на 15 (тьма отступит, и можно будет видеть серые водопроводные трубы и, пардон, унитаз), а потом резко выйти и наслаждаться эффектами адаптации глаза в течении нескольких секунд. Далее, если снова заглянуть в этот сортир на пару секунд, там снова будет кромешная тьма — потому что цикл темновой адаптации толком еще не запустится.
    Если мотать головой туда-сюда, заглядывая то в темный сортир, то в ярко освещенный коридор, эффектов адаптации не видно вообще (я, во всяком случае, их не вижу). Получается, что эти эффекты адаптации — столь редко встречающаяся вещь, что ее вообще не стоит делать.

    Я не спорю, что после какой-то обработки фотошопом картинки она выглядит сочнее и лучше. Но в компьютерных играх «фотошоп» автоматизированный, и то, что он иногда выдает, особенно при не очень прямых руках программистов, вряд ли можно назвать приятной на глаз картинкой и произведением искусства (потому что искусство — оно… хм, штучное). Впечатление такое, что эти эффекты — просто маркетинговый трюк для привлечения внимания, типа смотрите, какой хороший скриншот (с какой-то удачной позиции), графика- 10 из 10! А в динамике все это выглядит ужасно и быстро утомляет. В последнее время (примерно 2-3 года), правда, игры делать стали лучше, но еще недавно обилие ужасных спецэффектов просто утомляло.
    Что будет с этим телевизорным фотошопом — вопрос…


    1. Randl
      20.06.2016 19:10
      +1

      Сделайте фотографию из окна так, чтобы захватить часть комнаты и яркое небо в солнечный полдень. Сравните количество деталей в тенях (или светах, смотря как проэкспонируете) с тем, что видите глазами.


      1. DjOnline
        20.06.2016 20:21

        RicardoGonsales прав. Это в фотографиях HDR проходит через реальный tonemapping, что позволяет не допустить клиппинга в тенях и пересветах, а в играх наоборот, включение режима «HDR» делает всё в тенях чёрным, а небо пересвеченным.
        Была статья про это здесь, что у игроделов извращённое понимание HDR — https://habrahabr.ru/post/238425/, пример в виде чайника в конце статьи наглядно показывает это.


    1. Mad__Max
      20.06.2016 20:17

      Речь не о адаптации, а о том что у глаза шире динамический диапазон — т.е. способность различать темные оттенки И светлые оттенки одновременно находящиеся в поле зрения. Даже без учета подстройки. С ней диапазон вообще где-то порядка 1к100 000


      Выше простейший пример как в этом убедиться — глазом нормально видно детали и яркого пейзажа залитого солнцем за окном и слабо освещенные внутренности дома. А при попытке сфотографировать или снять на видео — либо детали внутри, а окно почти чисто белый прямоугольник, либо все детали за окном, но обстановка внутри тонет в тенях.


  1. SHadDim
    20.06.2016 17:47

    Совсем недавно разбирался с современными наворотами ТВ 2016 года. HDR и UHD это «фишки» сезона. От 3D отказались многие производители.

    Для честного HDR нужна честная 10-битная матрица :) что есть в топовых матрицах LG и Samsung 2016 года. На около топовых матрицах используют 8-битные матрицы + техническое волшебство (FRC), что позволяет увеличить цветовой охват матрицы.

    И да, матрицы для телевизовор с поддержкой HDR должны быть с увеличеных цветовым охватом. В спецификациях указывают процент покрытия диапазона Rec. 2020.

    Неправда что только топовые ТВ могу воспроизводить HDR контент. Декодировать HDR могу практически все UHD ТВ 2016 года, но вот честно его отображать только топовые :) Это у них во всех рекламах, чем отличается шильдик «HDR Pro» от «HDR Ultra». Честные 10 бит у LG это OLED и 9 серия, 7-8 серии это 8bit+волшебство, 6я серия может только декодировать.

    Только вот контента в HDR или DolbyVision раз-два и обчёлся.


    1. a553
      20.06.2016 17:57

      FRC это же не про цвета/HDR, это интерполятор кадров.


      1. SHadDim
        20.06.2016 18:37

        Я то же не совсем понимаю что это :) поэтому — «магия». Правильно пишется A-FRC (дезеринг), описание самой технологии не нашёл. Как понимаю это своеобразная интерполяция 10битного сигнала на 8битную матрицу.


        1. Lsh
          20.06.2016 19:03

          Да, так и есть. Субпиксель быстро мигает разными уровнями яркости для получения некоторого среднего за счет «запаздывания» глаза.


          1. Meklon
            20.06.2016 19:25

            ШИМ-эмуляция, короче. Везде обман)


      1. Mad__Max
        20.06.2016 20:27
        +2

        А между кадрами меняются цвета пикселей и за счет этого "эмулируется" большее их количество, чем реально может отобразить матрица.


        Допустим матрица 6 бит, т.е. реально может отобразить 64 оттенка(градаций яркости) каждого из основных цветов.
        Нам для какой-то точки нужно отобразить яркость записанную как 231 в исходом 8бит сигнале. На 6 бит это будет 231/4 = 57.75. Но 57.75 вывести невозможно — нужно выбрать либо 57 либо 58. Проще всего округлить (в данном случае берем 58) и потерять тонкие цвета/оттенки.


        А можно "обмануть" глаз: 3 кадра выводим пиксель(субпиксель) яркостью 58, а 4й кадр яркостью 57. Повторяем по кругу.
        Глаз яркости усреднит (т.к. у него инерция выше чем у матрицы) и для него эта точка будет примерно соответствовать яркости 57.75.
        В результате эмулируем 256 градаций имея в реальности всего 64.


  1. hp6812er
    20.06.2016 17:55
    +2

    Телевизоры с кинескопом люди поменяли на ЖК, кое кто на Led, еще меньше на 3D и «изогнутые» экраны… Но большинство ТВ меняют редко и думаю HDR для 95% пройдет мимо, сложно объяснить людям зачем им это нужно… Как причина смена телевизора — для меня не аргумент.


  1. mrigi
    20.06.2016 18:19
    +2

    Ничего не понял, зачем это уметь телевизору? Вроде как достаточно все эти декодирования делать какой-нибудь android приставке, а телевизору нужно просто иметь хорошую матрицу. Эфир в HDR в этом тысячелетии все равно наврядли будет, а программно куда проще доработать тот же MXPlayer, чем корявые самопалы в каждом телевизоре.


    1. Lsh
      20.06.2016 19:04
      +1

      Кто бы еще делал «телевизор» без всякой начинки (и, соответственно, дешевле). Чтобы просто был монитор дюймов на 40 с пачкой входов. Без всяких говносмартов и прочих ущербных технологий.


      1. a1ien_n3t
        21.06.2016 11:53

        А посмотрите сколько стоят 40 дюймовые мониторы с 4к.
        Получается купить телефизор с «говносмартом и прочими ущербными технологиями» дешевле чем просто монитор без этих технологий.


        1. Lsh
          21.06.2016 12:20
          +1

          Вот я и говорю, что надо телевизор без смарта. А монитор стоит больше из-за лучшей матрицы. Но телевизор не монитор и его не смотрят с полметра, а смотрят с дивана.


      1. d1moncom
        21.06.2016 11:55

        А гора пультов на журнальном столе вас не будет смущать? Один от телевизора, другой от медиаплеера, третий от ресивера или еще чего-нибудь. Если не жаться и не покупать самые дешевые смарты, то надо полагать, там не такие уж и ущербные технологии. Тот же Анндроид встроенный сейчас пожалуйста…


        1. Lsh
          21.06.2016 12:18

          Нет, гора пультов не смущает. У вас есть пульт от монитора? У меня нету. Вот и телевизор должен быть монитором с динамиками. Один раз его включить, потом остается только пульт от приставки/медиаплеера/компа/чего-у-вас-там. Кстати, HDMI-CEC уже давно придумали. Только опять, хреновы упоротые маркетоиды всё извращают и делают кусу несовместимых «Super-Duper-Control», которое нормально работает только если вся техника от одного вендора.


        1. Meklon
          21.06.2016 19:21

          Kodi как источник на все случаи жизни. Пульт — любой телефон или планшет в доме


          1. d1moncom
            22.06.2016 05:58

            Управлять телефоном, по-моему, — это сомнительное удовольствие.


            1. Meklon
              22.06.2016 10:15

              Нет проблем прикрутить инфракрасный приемник. Но это надо будет все время один пульт искать. А телефон всегда с собой. И управлять можно из соседней комнаты, включаю мультфильмы детям. И обратная связь со всеми плюшками. Реально удобнее.
              image
              image


  1. Torvald3d
    20.06.2016 20:56

    Читаю комментарии — все пишут зачем этот HDR… А я давно ждал его. Как по мне, для него идеально подходят AMOLED матрицы, к примеру на современных телефонах с этими матрицами я отчетливо вижу «ступеньки» в градиентах — очевидно не хватает градаций цвета. Но все равно мне очень нравится смотреть на нем фильмы, особенно по ночам — солнце реально слепит, тени очень правдоподобные, хотя опять же видны эти ступеньки на градиентах.
    Вот для этого и нужна возможность вывода хотя бы 10-битного цвета.


    1. darkdaskin
      21.06.2016 03:43

      Ступеньки на градиентах вполне можно задавить дизерингом на этапе продакшна. Если видны ступеньки, значит либо съёмка велась сразу в 8 битах, либо материал некачественно пожат. Хотя непосредственно на телевизоре дизеринг 10-битного изображения получится ещё лучше за счёт повышения временного (а то и пространственного) разрешения, разница уже не будет так бросаться в глаза.


      1. Torvald3d
        21.06.2016 10:42

        Дизеринг так же заметен. Слишком высокий контраст у амоледов. В любом случае дизеринг как решение можно рассматривать, но если HDR формат лучше и качественнее, то почему бы и нет?


    1. Lsh
      21.06.2016 12:21

      А сколько бит показывает сама матрица?


      1. Torvald3d
        21.06.2016 14:19

        Сложно сказать. Но на минимальной яркости она отображает все 8 бит. На максимальной естественно, тоже. А так как яркость там регулируется не подсветкой сзади, а самими пикселями (то есть по сути тот же механизм, что и обычный цветовой переход), то битность этой матрицы должна быть очень высокой.


  1. tronix286
    20.06.2016 21:41
    -3

    Да, ждем 32 бита на канал, чтоб если 4 миллиарда у всех трех каналов — прям дырки в глазах выжигало и можно было воблу вялить перед телеком в дождь, заряжая пару электромобилей в квартире от солнечных панелей на халяву. И самое главное, что бы кушало не больше ватт шестидесяти.

    Если серьезно — смотришь на эти панели — да, красиво рекламка крутиться. Ярко. Но моск все равно дорисовывает все за нас. Вы вспомните, сколько ч/б фильмов, которые все отлично знают и помнят детали, и сколько голливудского «экшена», о котором не вспомнишь через пару часов?


  1. Focushift
    21.06.2016 11:53
    -1

    Когда-то, лет 10 с лишним назад, когда был первый FarCry, вышли новые радеоны с поддержкой 128 битного цвета для поддержки HDR, что было у НВ не помню. И для игры был патч, позволяющий это все увидеть, и это все я попробовал и увидел на своем FX5900… нам хотят второй раз продать то что уже было сделано раньше?