HDR - это широкий динамический диапазон
HDR - это широкий динамический диапазон

Технология HDR если не произвела революции, то стала как минимум большим эволюционным шагом в области отображения изображений, обеспечив невероятную глубину цвета, яркость и контрастность. Звучит красиво и возвышенно. Но главное, что она дала нам возможность увидеть визуальный контент таким, каким его задумали создатели - с потрясающей детализацией и реалистичностью, будь то фильмы, сериалы или игры. В этой статье мы подробно поговорим о том, что из себя представляет технология HDR, как она устроена и в каких сценариях ей удастся показать себя лучше всего.

HDR (High Dynamic Range) - это технология, которая позволяет расширить диапазон яркости, контрастности и цветовую палитру изображения на экране телевизора или монитора и сделать картинку более естественной. Это происходит благодаря использованию более насыщенных цветов, глубоких теней и натуральных перепадов ярких и темных участков. Таким образом достигается большая реалистичность изображения, которое становится комфортнее для восприятия человеческим глазом.

Несмотря на то что HDR не влияет на разрешающую способность изображения, поддержка технологии положительно влияет на детализацию картинки, которая выводится монитором. Высокий уровень яркости и цветового охвата помогает пользователю лучше различать мелкие детали в темных и светлых областях изображения.

Чем HDR отличается от SDR

HDR-контент может быть снят на камеру или создан с применением компьютерной графики. И в том, и в другом случае суть методики сводится к использованию больших объемов входных данных, которые сжимаются меньше, чем в SDR-формате. Это не RAW, но что-то очень похожее. Поэтому контент в HDR обычно весит гораздо больше.

Для отображения HDR нужны специализированные мониторы с поддержкой широкого динамического диапазона. Они способны отображать как очень темные, так и очень светлые участки картинки, сохраняя при этом детали. Это ключевое требование, которое нельзя обойти.

От поддержки HDR напрямую зависит качество изображения
От поддержки HDR напрямую зависит качество изображения

Эффект HDR особенно заметен в сценах с высокой контрастностью, например, при просмотре фильмов или игр. Но эффективность его отображения зависит от качества и типа матрицы монитора, пиковой яркости, поддержки широкой цветовой гаммы (например, DCI-P3), локального затемнения (Local Dimming) и других технологий улучшения изображения.

На мониторах без поддержки широкого динамического диапазона смотреть HDR-контент тоже можно, но есть нюанс. Картинка, безусловно, будет отображаться, но без специфических преимуществ, описанных выше. Изображение будет выглядеть так же, как и стандартный контент, без дополнительной глубины, контрастности и насыщенности цветов.

То же самое работает и в обратную сторону. Обычный (не-HDR) контент будет отображаться на мониторе с широким динамическим диапазоном, но опять же, без характерных преимуществ. Монитор может попытаться самостоятельно улучшить картинку искусственно, используя специфические технологии, такие как расширение динамического диапазона (SDR to HDR) или улучшение цветопередачи, но настоящим HDR-изображением она не станет. 

Какие бывают мониторы с HDR и чем они отличаются

Не все HDR-мониторы одинаковы. Они отличаются техническими характеристиками, которые определяются соответствующими отраслевыми стандартами. На самом деле их много, но эталонные стандарты были разработаны ассоциацией стандартизации видеоэлектроники (VESA) для классификации возможностей мониторов при отображении контента в широком динамическом диапазоне. 

Требования к мониторам с DisplayHDR довольно просты и понятны
Требования к мониторам с DisplayHDR довольно просты и понятны

Существует несколько стандартов VESA DisplayHDR, которые отличают такие показатели, как яркость, глубина цвета, контрастность и поддерживаемая цветовая гамма. Чем выше уровень, тем более высокие требования предъявляются к монитору и тем лучшее качество изображения он способен обеспечить:

  • DisplayHDR 400: пиковая яркость 400 нит, минимальная - 320 нит, 8-битная глубина цвета, цветовая гамма 95% BT.709.

  • DisplayHDR 500: пиковая яркость 500 нит, минимальная - 400 нит, 8-битная глубина цвета, цветовая гамма 90% DCI-P3.

  • DisplayHDR 600: пиковая яркость 600 нит, минимальная - 350 нит, 8-битная глубина цвета + FRC, цветовая гамма 90% DCI-P3, локальное затемнение.

  • DisplayHDR 1000: пиковая яркость 1000 нит, минимальная - 600 нит, 10-битная глубина цвета, цветовая гамма 90% DCI-P3, локальное затемнение.

  • DisplayHDR 1400: пиковая яркость 1400 нит, минимальная - 900 нит, 10-битная глубина цвета, цветовая гамма 95% DCI-P3, локальное затемнение.

Яркость играет важнейшую роль в стандартах DisplayHDR, так как она напрямую влияет на способность монитора отображать яркие участки изображения и обеспечивать высокую контрастность. Кроме того, существуют также стандарты VESA DisplayHDR 400/500/600 TrueBlack. Они применяются в отношении OLED-мониторов, предъявляют меньше требований по пиковой яркости, но более требовательны к контрастности и уровням черного цвета.

Существует множество стандартов HDR
Существует множество стандартов HDR

Помимо яркости, на качество изображения также влияют охват цветовой гаммы и глубина цвета. Поддержка технологий вроде DCI-P3 позволяет монитору отображать более широкую гамму цветов, делая изображение насыщенным, но при этом сохраняя его естественность. А увеличенная глубина цвета (скажем, 10 бит) отвечает за более плавные цветовые переходы и минимизирует противную человеческому глазу резкость, иногда называемую эффектом полосатости.

Наличие локального затемнения (начиная с DisplayHDR 600) позволяет монитору более точно управлять яркостью отдельных зон экрана, что улучшает контрастность и детализацию в темных и светлых участках изображения.

Выбирая монитор с поддержкой DisplayHDR, важно учитывать не только наличие сертификата, но и реальные характеристики устройства, отзывы пользователей и результаты тестирования. Более высокий уровень DisplayHDR, как правило, обеспечивает лучшее качество изображения, но и стоимость таких мониторов будет выше.

Альтернативные стандарты HDR

Помимо стандартов VESA DisplayHDR, существуют альтернативные стандарты HDR для мониторов:

  • Acer HDR350: фирменный стандарт Acer с пиковой яркостью 350 нит, глубиной цвета 8 бит и цветовой гаммой 90% DCI-P3.

  • Quantum HDR: разработан Samsung, имеет различные уровни (HDR1000, HDR1500, HDR2000 и т.д.), основан на технологии квантовых точек.

  • Dolby Vision: проприетарный формат HDR, разработанный компанией Dolby Laboratories, с поддержкой динамических метаданных, 10- или 12-битной глубины цвета и яркости до 10 000 нит. Требует лицензирования и сертификации устройств, что может увеличивать их стоимость.

  • NVIDIA G-Sync Ultimate: стандарт NVIDIA для игровых мониторов с поддержкой HDR, требует пиковую яркость 1000 нит, локальное затемнение и цветовую гамму DCI-P3.

  • AMD FreeSync Premium Pro: стандарт AMD для игровых мониторов с поддержкой HDR, требует пиковую яркость 400 нит, локальное затемнение и цветовую гамму 90% DCI-P3.

Эти стандарты отличаются от DisplayHDR различными требованиями к яркости, контрастности, цветовой гамме и другим параметрам. Некоторые из них, такие как Dolby Vision и NVIDIA G-Sync Ultimate, могут обеспечивать более высокое качество изображения, но требуют специального оборудования и контента. Подробнее об этом мы рассказывали в нашем гайде по выбору геймерских мониторов.

HDR10 является еще одним стандартом HDR, который разработала ассоциация CTA. Но, в отличие от DisplayHDR, он определяет требования не к техническим характеристикам монитора, а качеству видеосигнала. Среди них: 10-битная глубина цвета, цветовая гамма BT.2020 и метаданные статического отображения (ST.2084). HDR10 широко применяется среди стриминговых платформ. Например, Netflix адаптирует свои фильмы и сериалы под этот стандарт, чтобы качество картинки было выше.

Что нужно, чтобы смотреть контент в HDR

Разница между SDR- и HDR-контентом однозначно заметна, но важна далеко не всем
Разница между SDR- и HDR-контентом однозначно заметна, но важна далеко не всем

Возможность воспроизведения HDR-контента, впрочем, определяется не только наличием у вас монитора с широким динамическим диапазоном. Даже если вы уже купили устройство вывода с поддержкой HDR и нашли соответствующий фильм или сериал, необходимо, чтобы и другие компоненты системы соответствовали тем же требованиям.

На низовом уровне отображение HDR-контента зависит от GPU. Вы можете купить любую видеокарту NVIDIA (начиная с серии GTX 900) или AMD (начиная с серии RX 400), и они будут поддерживать HDR. То же самое справедливо и в отношении современных процессоров со встроенным видеоядром, которые умеют обрабатывать широкий динамический диапазон без дополнительных настроек. Разве что драйвера обновить придется, но это мелочи.

В части игр все немного сложнее, и номинальная поддержка HDR видеокартой совсем ничего не гарантирует. Дело в том, что игры гораздо более требовательны к ресурсам системы, а потому нагружают ее больше, чем фильм или, скажем, сериал. Поэтому правильнее всего будет ориентироваться на минимальные или рекомендуемые системные требования. Только их соблюдение гарантирует возможность запуска игр с поддержкой HDR. Без этого никакой, даже самый продвинутый монитор вам не поможет.

Операционная система также должна поддерживать HDR. Windows 10 и macOS Catalina уже ее имеют. Правда, иногда для активации широкого динамического диапазона нужно активировать соответствующий пункт настроек. Но имейте в виду, что HDR-контент требует больше яркости, а потому потребляет больше энергии.

Кроме того, для воспроизведения HDR-видео необходим плеер с поддержкой широкого динамического диапазона. На самом деле сегодня с этой технологией работает большинство приложений, с VLC, MPC-HC или Windows Media Player проблем точно не будет.

Видеосигнал в HDR почти всегда предъявляет повышенные требования к пропускной способности используемого оборудования. Для подключения источника (компьютера, игровой консоли) к монитору необходимы кабели и разъемы с достаточной пропускной способностью. HDMI 2.0 или DisplayPort 1.4 как раз обеспечат стабильную передачу HDR-сигнала. Но не менее важно убедиться, что все компоненты системы совместимы друг с другом и поддерживают необходимые стандарты HDR.

В каких сценариях нужна поддержка HDR

Мы уже разобрались, что HDR дает более реалистичное и детализированное изображение по сравнению с форматом SDR. Но так ли это нужно на практике? Особенно, если не иметь возможности сравнить их напрямую.

В играх поддержка HDR может существенно улучшить визуальную часть, особенно там, где графика отличается высоким уровнем детализации и предусмотрено большое количество спецэффектов. Широкий динамический диапазон делает картинку более живой и реалистичной. Для фанатов и любителей графики высокого качества HDR может стать важным улучшением.

У Netflix много фильмов и сериалов, которые поддерживают воспроизведение в HDR
У Netflix много фильмов и сериалов, которые поддерживают воспроизведение в HDR

Фильмы и видео тоже не становятся хуже от HDR. Его поддержка оказывает самое положительное влияние на качество изображения при просмотре фильмов и видео, особенно в сценах с высокой контрастностью и насыщенными цветами. Многие современные фильмы и сериалы уже доступны в формате HDR, поэтому ждать выхода любимых кинолент вам скорее всего не придется.

В рабочих сценариях необходимость HDR зависит от сферы деятельности и специфики задач, которые вы выполняете. Определенно существуют профессии, где поддержка широкого динамического диапазона может быть крайне важна. В их случае мониторы с поддержкой HDR станут большим подспорьем и позволят лучше делать свою работу.

Сценарии, где HDR необходим:

  • Профессиональная работа с видео и цветокоррекцией, особенно для контента в формате HDR.

  • Пост-продакшн и обработка визуальных эффектов для фильмов и сериалов.

  • Профессиональная фотография и обработка изображений в расширенном динамическом диапазоне.

  • Дизайн и визуализация проектов, где требуется высокая точность цветопередачи и детализация изображения.

В целом, HDR - это перспективная технология, которая позволяет значительно улучшить качество изображения на мониторах. Ее важность и актуальность сложно переоценить. Она открывает новые возможности для более реалистичного и детализированного отображения визуальной информации. Особенно, если знать, как обернуть ее себе на пользу.

Комментарии (28)


  1. gotch
    14.06.2024 11:17
    +15

    Это мило, что вы так здорово демонстрируете разницу между HDR и не-HDR контентом на моём мониторе, не поддерживающем HDR. Оказывается, достаточно завалить яркость и контраст.


    1. Balling
      14.06.2024 11:17

      Ваш монитор выше 100 нит, а значит поддерживат HDR. Они все поддерживают. Например, Apple старые даже не поддерживает прием PQ.


  1. DimPal
    14.06.2024 11:17
    +9

    8 бит глубина цвета, но теперь это назвается HDR. Люблю маркетологов...


  1. VadimProfii
    14.06.2024 11:17

    Интересно, а как задействовать эту фичу для работы с фотографией? При печати на бумаге металлик не особо получаются края диапазонов, даже при сьемке обычным кадром, без хдр...


    1. Balling
      14.06.2024 11:17

      Как вариант — не печатать. Мы в 2024. Но вообще смотреть в сторону CMYKOGV.


      1. evtomax
        14.06.2024 11:17

        Кроме распечатки пока нет массового способа и простого способа хранения фотографий больше 10 лет. Цифровая фотография для той же надёжности требует копии на трёх разных носителях. Жёсткий диск может внезапно отказать. SSD - без комментариев. Облако по надёжности лучше жёсткого диска только тем, что это жёсткий диск в другой точке планеты.


        1. Balling
          14.06.2024 11:17

          Мой SSD на моем первом ПК был куплен в 2014. Всё ещё работает.


      1. VadimProfii
        14.06.2024 11:17

        Не думаю, что это возможно- не печатать. Ну,мб, разве что для любителей вариант))) Для печати выставочных фотографий, я прибег к помощи старой доброй химии. Каким образом HDR помогла бы мне сделать лучше, а не наоборот- потерять в качестве из-за использования (в качестве бутылочного горлышка)) носителя с намного более узким ДД? Да и отображение контента в HDR на обычных LCD- такое себе решение. Вот на плазме, на Оледах- еще соглашусь, есть смысл.


  1. Mulfarion
    14.06.2024 11:17
    +1

    Не более чем маркетинг этот HDR на моника и телика. Мы просто сделаем картинку в другом формате, чтобы на обычных мониках она выглядела не хорошо, а на новых мониках будем показывать как было, только кривые поправим, чтобы показать преимущество.


    1. Astroscope
      14.06.2024 11:17
      +2

      Не более чем маркетинг этот HDR на моника и телика.

      Не согласен. Внедрение HDR в бытовом видео - это, пожалуй, даже более значимо, ну или как минимум сопоставимо со внедрением HD ранее. Потому что HD это качественный скачок в реалистичности за счет роста разрешения, а HDR это качественный скачок в реалистичности за счет роста динамического диапазона и цветового охвата. Маркетинг тут в том, что для этого нужно опять покупать новые устройства, но можно сохранить имеющиеся - они всего лишь не поддерживают новые стандарты, но в остальном все так же пригодны, как и раньше. Впрочем, SD оборудование, даже ЧБ кинескопные телевизоры, тоже точно так же применимы, просто не поддерживают новые стандарты. А еще маркетинг в том, как вам продать не совсем то, что вы как будто бы хотите - отсюда все эти градации "почти HDR", почти совсем HDR", "ну это уже совсем, считай, HDR" и так далее - таблица в статье в помощь. Тогда как сам стандарт в принципе - это самый что ни на есть прорыв в реалистичности изображения.


  1. DachnikGarik
    14.06.2024 11:17
    +1

    А здорово вы это придумали. Я даже сначала не понял.

    Оказывается мой монитор поддерживает HDR, а то уже хотел менять. А тут на картинках явно увидел разницу.


    1. Balling
      14.06.2024 11:17

      Любой моник сейчас имеет HDR, они все выше 100 нит SDR. Лол. 10 бит и P3 не связаны с этим.


  1. MKMatriX
    14.06.2024 11:17
    +3

    Вроде HDR был просто 10 бит на цвет, вместо 8-ми? Разницы для большинства людей это вроде не особо давало. А еще в стандартных мониках плохой синий, и вроде как раз его улучшают. Прогресс короче, хотя 8 бит в массах не спроста задержались. В общем прогресс развития моников замедлился, ничего особо нового, интересного. А еще на старых видюшках hdr нещадно жрет фпс, впрочем владельцам старых видюшек не привыкать)

    Формат не правильный. Слишком много фраз передающих субъективные вещи, типа "От поддержки HDR напрямую зависит качество изображения", суть в том, что "качество изображения" каждый для себя сам определяет. Тут больше подойдет язык сухих фактов, типа вот вам два лишних бита на цвет, и сможете 4-ую матрицу посмотреть, она синяя, все за 170% от обычной стоимости.


    1. Astroscope
      14.06.2024 11:17

      Вроде HDR был просто 10 бит на цвет, вместо 8-ми?

      Нет, не просто. Увеличен цветовой охват, а не просто стало больше более мелких ступенек между крайними точками, хотя и это тоже - проблема градиента с бесящей ослабла до неважной.

      В общем прогресс развития моников замедлился, ничего особо нового, интересного.

      Он всегда был небыстрым. Если судить о прогрессе по бюджетному сегменту, то в панелях 6+2 FRC и на самом деле ничего интересного. Тем временем, в мониторы дороже могут попадать панели получше - и 8+2, и даже 10bit.

      А еще на старых видюшках hdr нещадно жрет фпс

      А на еще более старых - неиграбельное слайдшоу на самых минимальных настройках или вообще не запускается.

      Тут больше подойдет язык сухих фактов, типа вот вам два лишних бита на цвет, и сможете 4-ую матрицу посмотреть, она синяя, все за 170% от обычной стоимости.

      Язык сухих фактов: используется цветовое пространство BT.2020 вместо BT.709. Впрочем, в статье это было. И таблица с сортами мониторов - насколько далеко или близко к стандарту они способны отображать цвета и насколько высок их контраст, в такую группу качества они и попадают. На розничную цену, надо полагать, это тоже влияет.


      1. MKMatriX
        14.06.2024 11:17
        +1

        Наверное весь мой пост был продиктован последним параграфом, который я удалил.
        У меня два моника, оба весьма дешевых, но один заметно дороже другого. Не смотря на то, что дешевый мерцает из-за переходника в hdmi разница не существенна. У моей жены весьма дорогой моник, hrd-4k-144 правда не то у нас нету нужного провода, не то уже старая 1080 не обладает нужной ревизией hdmi в общем выбор между 144 и hrd. Вроде выбрали частоту, впрочем какого-то качества не заметно. А еще у нас есть мальчик, у него видюшка 4080, которая как раз, чтобы hrd не съедал 40 фпс. И тоже качество не заметно.

        Я конечно в этом плане не искушенный, и делаю скидку, может если я годик другой посижу на hrd, то начну сразу отличать. Но пока...

        Пространство цветов это прикольно. Но придумать зачем это, кроме четвертой матрицы, сложно.

        И если кого задел, сорри. Просто часто замечаю, что продающие штуки для меня незначительны. И разница между hrd и srd для меня... Типа разницы между mp3 и flac, или пепси с кока-колой. Если поставить рядом, то различить можно, а так. Много кто говорит что различает, но при проверках оказывается что нет.


        1. Astroscope
          14.06.2024 11:17

          У меня два моника, оба весьма дешевых, но один заметно дороже другого. Не смотря на то, что дешевый мерцает из-за переходника в hdmi разница не существенна.

          Знакомо. У меня тоже есть очень дешевый, мерцающий с переходником с HDMI на VGA - не выбрасывать же монитор, если он исправен и справляется там, куда он подключен? Но, скажу я вам честно, качество изображения у него по любым меркам низкое и использовать его как основной я бы не хотел.

          У моей жены весьма дорогой моник, hrd-4k-144 правда не то у нас нету нужного провода, не то уже старая 1080 не обладает нужной ревизией hdmi в общем выбор между 144 и hrd. Вроде выбрали частоту, впрочем какого-то качества не заметно.

          Конечно не заметно. В отличие от кинескопных мониторов, мерцающих с частотой вертикальной развертки, массовые сегодня LCD мониторы от этой проблемы не сказать, что прямо таки страдают - они страдают от низкой скорости переключения отдельных элементов (пикселей), что приводит к размытию и многоконтурности движущихся по экрану изображений. Приемлемость или неприемлемость этого дефекта довольно субъективна, но она не настолько связана с частотой как таковой, сколько с аппаратными характеристиками панели. На отнюдь не самом дорогом IPS мониторе, просто не на самом дешевом, я уже на 60Hz не обращаю внимания на этот эффект. А ведь IPS - это не самый быстрый тип панели, TN потенциально быстрее, но только не те ультрадешевые панели, которые ставят в самые бюджетные и по совместительству негодные по качеству изображения мониторы. Возможно, вы тоже не видите разницы не из-за частоты как таковой, а из-за свойств панели, которая в дорогом мониторе более вероятно будет лучше по большинству объективных характеристик что при 144Hz, что при даже 60Hz или 75Hz. Но частота требует ширину канала, которая ограничена ревизией HDMI По-хорошему все, что ниже HDMI2.0a - фтопку, если вас интересует HDR (у вас карта, кажется, HDMI2.0b, т.е. ОК, а про монитор не знаю). Кабели не имеют ревизий, соотносящихся с аппаратным обеспечением - не бывает "кабель HDMI2.0", они отличаются пропускной способностью и имеют соответствующие стандартизованные названия вроде "High Speed" или "Ultra High Speed", хотя короткий кабель может оказаться работоспособным на более высокой скорости, чем гарантируется маркировкой. Тут проблема лишь в том, что китайцы могут нанести потребную маркировку хоть на бельевую веревку, то есть можете ли вы доверять производителю или продавцу, декларирующему, что кабель у вас точно подойдет для устройств HDMI2.1 с их скоростями, тогда как на деле может не запуститься и с HDMI2.0a.

          Да, кстати, операционная система и программы по отображению контента, например видеопроигрыватели - у них есть поддержка HDR, она включена и работает? А то тут как во времена начала внедрения HD, когда видеокарта - отдельная или встройка, вроде умеют в аппаратное декодирование, и плеер вроде умеет, а чтобы включить DXVA нужны какие-то неочевидные настройки, без которых ничего не работает. Чуть позже все у всех уже работало "из коробки" и сейчас вспоминать о проблемах включения DXVA даже как-то странно. Ну и изначально не-HDR контент так и будет отдаваться как не-HDR - никакого чудесного улучшения не будет, ему неоткуда взяться, а если попытаться программно растянуть цвета, то получится неестественно, типа как если на телевизоре накрутить на максимум насыщенность, яркость и контраст.

          Пространство цветов это прикольно. Но придумать зачем это, кроме четвертой матрицы, сложно.

          Есть приблизительно два варианта: вы создаете HDR контент или потребляете готовый. Ну или оба варианта поочередно, очевидно. В первом случае требования выше - вы должны видеть некий условный эталон того, что увидит потребитель в лучшем случае, во втором можно пойти на какие-то компромиссы, которые приемлемы лично вам по лично вашему вкусу. Это как мониторинг звука в звукозаписи, когда звукач должен слышать все мыслимые нюансы исходного материала, а уж у потребителя может оказаться что угодно от хайэнда до беспроводных наушников - по вкусу и возможностям потребителя.

          И если кого задел, сорри.

          Точно не меня. Встречно простите, если мои тезисы вам показались грубыми иил как минимум неуместными.

          И разница между hrd и srd для меня... Типа разницы между mp3 и flac, или пепси с кока-колой.

          Для меня разница между HDR и обычным HD ошеломительна. Для меня внедрение HDR - событие уровня внедрения HD после многих десятилетий SD, вершиной которого был, в потребительском сегменте, DVD. В отличие от разрешения, разницу в котором в быту редко видно, разницу в контрасте и цветовом охвате видно всегда и сразу, если конечно монитор (телевизор, проектор) это реально поддерживает, а не как HD-ready мониторы, которые на отлично принимают сигнал до 1080p включительно, но имеют физический растр вроде 480x270.


    1. Balling
      14.06.2024 11:17

      10 бит не причём вообще. Nvidia поддерживает 8bit hdr, также как и камеры.


    1. PaulZi
      14.06.2024 11:17

      В первую очередь HDR это о том, чтобы задрать яркость в определенные периоды и определенные зоны вне стандартного диапазона


  1. aegelsky
    14.06.2024 11:17
    +1

    Зашёл в одну контору посмотреть HDR телеки, посмотрел: 3D они больше не поддерживают, яркость и контрастность чуть лучше, цены космос за такой же 50" как мой древний LG 3D.
    На телефоне есть некоторая разница, на монике компа с VA матрицей и "игровым" режимом - ну хз, местами VA выглядит даже приятнее.
    На мой вкус эта "революция" несколько перехвалена, особенно без поддержки 3D.


    1. Balling
      14.06.2024 11:17
      +1

      LG C7 это хрень. LG c9 120 Hz нативно поддерживает 3D. Просто за счет 120 Hz.


    1. 0x131315
      14.06.2024 11:17
      +1

      Для 3D сейчас целый класс устройств появился - очки виртуальной реальности и сопутствующие аксессуары

      А вот с HDR до сих пор не определились - нарожали 100500 стандартов, и нативно их никто не поддерживает. Что в windows, что в linux HDR прикрутили костылями. Много проблем на ровном месте с этим HDR. Хотя картинка конечно лучше - больше деталей в тенях. Но сейчас и моники научились тени высветлять из коробки, всякие игровые режимы на это и заточены. Хотелось бы чтобы стандарты HDR устаканились и все работало из коробки, как это сейчас с SDR происходит: кабель подключил и не заморачиваешься более.


  1. PaulZi
    14.06.2024 11:17
    +1

    Стандарты менее HDR1000 можно даже не включать, в большинстве случаев это просто маркетологический обман и проблемы с отображением SDR при включенном HDR. Реального эффекта почти не будет.

    Для себя же я сделал вывод, что мне HDR не нужен: на своем телеке HDR1000 провел тест, скачал один и тот же фильм в SDR и HDR, и сравнил. В итоге да, HDR ярче, но в тенях в итоге полный провал, ощущение что тупо контраст выкрутили, и в тенях стало ничего не видно. Может, конечно, что-то где-то не так и не по настоящему, но на 4 матрицах в доме везде одно и тоже: в SDR нормальная картинка где все видно, в HDR вырвиглазная контрастная картинка.


    1. 0x131315
      14.06.2024 11:17

      Что там с фильмом непонятно, но в играх с HDR разница видна: на SDR все хорошо, но нужно выбирать, или яркие источники света и вместо теней черное пятно, или пересвет но зато видно что в тенях делается, а с HDR доступны одновременно и яркие источники света и детали в тенях - динамический диапазон явно больше, можно заглядывать с улицы в пещеру или тоннель и видеть там что-то. Но некоторые игры это портят эффектом адаптации зрения: на ярких сценах через короткое время затемняют тени, а в темных сценах наоборот завышают яркость неба в окнах.

      Также HDR сильно поднимает яркость точечных источников: например яркая-яркая луна ночью на фоне полутьмы окружения. На OLED это неплохо выглядит - там в таких сценах яркости могут быть огромные, хотя на всю панель такую яркость они выдать не способны, перегреваются мгновенно, полная яркость доступна только точечно.


  1. gummybeer
    14.06.2024 11:17

    Я обрабатываю фотографии на компьютере для дальнейшего использования в полиграфии.

    С одной стороны было бы наверное прекрасно иметь возможность видеть на экране компьютера картинки с широчайшим динамическим диапазоном. Красиво и круто.

    А с другой стороны - выходной формат у моих картинок это бумажное меню в ресторане, флаеры, плакаты на стенах и т.п. и вся красота HDR на этих носителях недоступна.

    Как вы думаете, нужен мне HDR монитор? Если да, то какой технологии?


  1. KEugene
    14.06.2024 11:17

    HDR, по сути, сильное искажение изображения. Насколько оно оправдано? Ну, может чисто чтобы самому смотреть. Кто-то любит пастель, кто-то неон. Я помню когда-то давно, когда играли в Doom, то иногда яркость монитора выкручивали на максимум, чтобы "видеть" в темноте. Но это было, скажем, явно не по задумке разработчиков.

    Но если вы готовите фото или видео для публикации или тем более печати, то можете смело ожидать неприятные сюрпризы.

    Я когда калибрую (аппаратно) свой монитор, то должен быть уверен, что в монторе HDR - off, в настройках системы HDR - off. Иначе просто процедура не завершится. То есть, как миримум, реальные цвета не совместимы с HDR.


    1. Astroscope
      14.06.2024 11:17

      Кто-то любит пастель, кто-то неон.

      Это вообще не отсюда. Неважно, любите вы неон или нет, потому что это вкусовщина. Важно лишь, умеет ваш монитор правильно отображать неон или нет.

      Но если вы готовите фото или видео для публикации или тем более печати, то можете смело ожидать неприятные сюрпризы.

      Только если вы некомпетентны. Потому что иначе вы будете работать в целевом цветовом пространстве, а не в каком-то "от балды", чтобы то, что вы видите, соответствовало тому, что будет опубликовано.

      Я когда калибрую (аппаратно) свой монитор, то должен быть уверен, что в монторе HDR - off, в настройках системы HDR - off. Иначе просто процедура не завершится.

      Возможно, у вас что-то не то с калибратором. Или с системой.

      То есть, как миримум, реальные цвета не совместимы с HDR.

      Это бессмыслица. Не реальные цвета могут быть (не) совместимы с устройствами отображения, а устройства отображения в большей или меньшей мере (не) совместимы с реальными цветами. Это в принципе. А теперь в частностях: HDR значительно более полно передает реальные цвета, это объективно. Но если у вас особое восприятие цвета - допустим, вы функциональный тетрахромат или у вас болезнь Дальтона, то ваше субъективное суждение может отличаться от некоего условного консенсуса, образованного большинством функциональный трихроматов.

      Тем не менее, не могу не поинтересоваться вашим мнением: насколько реальные цвета совместимы с ЧБ фотографией?


      1. KEugene
        14.06.2024 11:17

        Только не надо мне диагнозы ставить.

        Я использую SpyderX от Datacolor. Это достаточно профессиональное оборудование. И в нем заложена проверка на отключение функций HDR. Он просто не сформирует цветовой профиль и выдаст ошибку.

        А чем пользуетесь вы?

        Кстати, при чем здесь цветовое пространство, если мы говорим про аппаратную часть? Лично я считаю, что все ок, если я беру образец продукта, сканирую цвет (и такое делаю) , заливаю им в том же фотошопе слой, прикладываю образец к экрану и не вижу разницы. Такого добиться с HDR не возможно. А, идеально будет, если выгнав на печать этот слой и сравнив первоначальный образец с распечаткой я тоже не увижу разницы. Но такое редко. Точнее, это зависит от класса техники. Скажем, там где 4 картриджа такое сомнительно.

        А вы на чем печатаете?

        Ну тема чб фото вообще не отсюда (рука-лицо).


        1. evtomax
          14.06.2024 11:17
          +1

          Такого добиться с HDR не возможно.

          В смысле невозможно? Правильный HDR монитор может отобразить экран вашего монитора с точно такой же абсолютной яркостью и такими же цветами, плюс детали в тенях, которые по абсолютной яркости ниже, чем чёрный на вашем мониторе, плюс небо с абсолютной яркостью выше, чем белый на вашем мониторе, плюс цвета, которые не может отобразить ваш монитор без HDR. Иначе это не HDR, а какая-то пародия на HDR.

          Я использую SpyderX от Datacolor. Это достаточно профессиональное оборудование. И в нем заложена проверка на отключение функций HDR. Он просто не сформирует цветовой профиль и выдаст ошибку.

          Либо что-то не так с конкретной аппаратной или программной реализацией HDR (не добавили дополнительных бит в цветовые каналы?), либо ваше профессиональное оборудование - отсталое (это нормальное явление для профессиональных продуктов).

          Кто-то любит пастель, кто-то неон.

          Я надеюсь, что вы не судите об HDR по вырвиглазным цветам, которые получились из-за отображения не HDR картинки на HDR мониторе без соответствующего необходимого преобразования цветового пространства?