57
HDR とは何ですか? モニターにとってどのような意味がありますか?

新しいテクノロジーの流行語があります。少なくとも、その意味においては新しいものです。ハイダイナミックレンジ(HDR)です。これは、まず新しいタイプのディスプレイと、HDR専用の新しいコンテンツを必要とするディスプレイ技術です。しかし、HDRとは一体何なのでしょうか?

色について話しましょう

まず、人間がどのように色を知覚するか、そしてHDRカラーが現在一般的に使用されている標準ダイナミックレンジ(SDR)とどのように異なるかを理解することが重要です。物理学では、色は光の波長に由来し、赤色は私たちが見ることができる最も短い波長で、紫色は最も長い波長です。ここで言う光の波長、つまり周波数は、様々な音の周波数と直接類似しています。

しかし、私たちの耳は音の周波数を区別できますが、目、あるいは目にある受容体は光の周波数を区別できません。少なくとも、何らかの工夫をしなければ。目の中のそれぞれの受容体は、私たちが見ることができる「スクリーン」上のピクセルとほぼ同等であり、それぞれが特定の波長(色)の光に対して異なる反応を示します。

具体的には、私たちの受容体は3つに分かれており、主に赤、緑、青の3色のいずれかを認識できます。そのため、すべての色を認識するために、私たちの目は情報を推測します。例えば、緑の受容体が弱い信号を受信して​​いるのに、そのすぐ隣に赤の受容体が強い信号を受信して​​いる場合、私たちの目は、この2つの受容体の間に何か暗いオレンジ色のものがあるはずだと推測します。

これにより、画面に色を組み込むための、優れた低コストな方法が実現します。今日の画面では、色の波長を個別に生成する代わりに、赤、緑、青のサブピクセルを組み合わせて使用​​しています。ディスプレイは、これらのサブピクセルからの光量、つまり信号量を変化させるだけで、少なくとも人間の目には本物の色に見えるものを生成します。

色とHDRの関係

では、SDRとHDRの違いとは何の関係があるのでしょうか?ここで色域が登場します。色域とは、利用可能な赤、緑、青のサブピクセルカラーを使って再現できる色の範囲です。これらの3原色の間にある色はすべて再現できますが、この三角形の内側にない色は再現できません。

HDRの背後にある2つのコンセプトのうちの1つは、赤、緑、青の三角形を、現在の「BT.709」と呼ばれる狭い範囲から、人間が認識できる色の範囲全体(上の図を参照)に近い範囲へと拡張することです。ここでの最終的な目標は、「BT.2020」と呼ばれる三角形です。問題は、現在、この色域に必要な赤、緑、青の色を生成する唯一の方法がレーザーを使用することだということです(確かに素晴らしいですが、現実的ではありません)。つまり、高価なレーザープロジェクターだけが、関連するすべての色を表示できる唯一のディスプレイデバイスであり、しかも適切な波長のレーザーを搭載した特定のレーザープロジェクターに限られているのです。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

今日のHDR対応ディスプレイは、プロジェクターだけでなく、OLEDやLCDでも再現可能な、より狭いDCI-P3色域を採用しています。BT.2020のフル色域よりはかなり狭いものの、それでもSDR色域よりもはるかに多くの色を網羅しています。さらに、これは長年映画で使用されてきた色域と同じであるため、既にHDRをサポートし、それを使用している機器やコンテンツが存在しているという利点もあります。

将来的にはBT.2020がすべてのユーザーに採用される予定ですが、一般的なディスプレイ技術が実際にサポートできるようになるまで待たなければなりません。これはHDRのほんの一部に過ぎません。残りの半分は明るいハイライトと暗い…つまり、暗闇です。

明るさと知覚

次に理解すべきことは、人間が明るさをどのように認識するかです。人間は明るさをlog2スケールで認識します。つまり、明るさ(または目に当たる光子の量)が2倍になるたびに、線形スケールでは1ポイント(または1段)だけ上昇したように認識します。例えば、光と紙のある風景を見ているとき、光は紙の32倍の光子を目に照射している可能性がありますが、人間には光が紙の5倍明るく見えるのです。

この理論的な光と紙の明るさは、標準化された単位であるnitsで表すことができます。1nitは1平方メートルあたり1カンデラに相当します。1カンデラは火のついたろうそくと同じ明るさなので、ろうそく1本=1nitです。一方、明るい太陽の下にある白い紙は約40,000nits、つまりろうそくの40,000倍の明るさになります

明るい太陽の下にある紙は4万ニットに達しますが、その紙のすぐ隣にあるオフィスの室内はわずか500ニットに過ぎないかもしれません。人間はこれらすべてを同時に知覚できます。実際、人間は一つのシーンで最大20ストップの明るさを「知覚」することができます。「ストップ」とは、log2スケール上の1点に過ぎないことを覚えておいてください。つまり、人間は一つのシーンの中で、そのシーンの最も暗い部分よりも100万倍明るい部分を同時に知覚できるということです。

明るさとHDR

では、これらはすべてHDRとどのように関係しているのでしょうか?まず、HDRの目標はシンプルでした。ディスプレイ上に非常に明るいシーンの近似値を表示することです。HDR規格のテストを最初に開始した企業であるドルビーは、テスト環境において10,000ニットが最適な輝度であると結論付けました。これが、すべてのHDR規格で使用されている一般的な電気光学伝達関数(EOTF)の輝度上限が10Kニットである理由です。EOTFは、電子信号を目的の光信号に変換する数学的関数、つまりデジタルからアナログへの変換関数です。

比較のために、BT.709の基準は100ニットで上限が決まっています。つまり、私たちの尺度では、HDRはSDRよりも6.5段分広い範囲をカバーしていることになります。ちなみに、SDRは1~100ニット、つまり約6.5段分の明るさをカバーします。一方、HDRは理想的には13.5段分をカバーします(詳細は後述)。つまり、私たちの感覚では、HDRで表現できる明るさの範囲はSDRの2倍になります。

活用する

明るさと色に関するこれらの追加情報はすべて、ディスプレイに出力するために保存する必要があります。色と明るさに関する情報は、デジタル的に表現すると、2進数で保存され、色ごとに出力されます。したがって、色ごとにXビット数でY情報量が得られます(「ビット」はデジタルの1または0です)。

必要なビット数については、2つの考慮事項があります。ビット数が多いほど、バンディング(縞模様)は目立ちにくくなります。バンディングとは、色や明るさの「ジャンプ」のことで、中間の色や明るさに関する情報が不足しているため、スムーズな遷移を実現できないために発生します。これは、画像全体あたり8ビットしか保存できなかった(現在ではほとんど使われていない)オリジナルのGIF形式で最もよく見られ、その結果、非常に目立つバンディングが発生しました(フレームあたりわずか256色!)。ピクセルあたりのビット数を増やすことの欠点は、画像がより多くのスペースを占めるため、デバイスへの転送や読み込みに時間がかかることです。

つまり、目標は、バンディング(縞模様)を避けながら、できるだけ少ないビット数で目的の色と明るさを表現することです。SDRの場合、これは色ごとに8ビットで、結果として得られる画像のピクセルあたり合計24ビットになります。幸いなことに、バイナリはlog2なので、ビットを追加するごとに実質的に保存できる情報が2倍になります。

この場合、実際に伝送される輝度レベル(つまりnit)の方が重要です。10ビットでは、いわゆる「バーテン閾値」(バンディングが見えるようになる閾値)を超えるには情報が足りません。一方、12ビットであれば、HDR信号をバンディングなしで表示するのに十分な情報量をカバーでき、REC 2020の色域も容易にカバーできるはずです。これは全く別の話題、つまりハードウェアとソフトウェアの競合するHDR規格、そしてそれらが現実世界でどのように実装されているかという話になりますが、これはまた別の機会にお話ししましょう。