55
10 ビット (および 12 ビット) カラーとは何ですか?

10ビットカラーは重要かつ新しい技術ですが、一体何なのでしょうか?その詳細に入る前に、まずはビット深度とは何か、そしてディスプレイにとってなぜ重要なのかという疑問を抱かなければなりません。

ビット深度とは

ここでもう一つ注目すべき点は、一般的にビット数が少ないほど良いということです。ビット数が少ないということは情報量が少ないことを意味します。そのため、インターネット経由でデータを送信する場合でも、コンピューターの処理能力にデータを入力する場合でも、必要なデータがより速く得られるようになります。

しかし、実際に到達したい最高(または最低)の数値までカウントアップできるだけのビット数が必要です。上限を超えてしまうのは、最も一般的なソフトウェアエラーの一つです。これは、シヴィライゼーションでガンジーが好戦的で核兵器を投下する暴君になった原因とも言えるバグです。ガンジーの「戦争」レーティングがマイナスになろうとした時、彼は可能な限り最大値まで上げてしまいました。つまり、必要なビット数のバランスを取ることが重要です。使用するビット数は少ないほど良いのですが、必要量よりも少ないビット数を使うべきではありません。

ディスプレイでのビット深度の仕組み

現在ご覧いただいている画像では、デバイスはピクセルごとに赤、緑、青の3つの異なるビットセットを送信しています。これらの3つのチャンネルのビット深度によって、ディスプレイが受信する赤、緑、青の階調数が決まり、出力できる階調数も制限されます。

最低価格帯のディスプレイ(今ではほとんど見かけなくなりましたが)は、1色あたり6ビットしかありません。sRGB規格では、バンディング(縞模様)を避けるために、1色あたり8ビットが要求されています。この規格に適合させるため、古い6ビットパネルではフレームレート制御(FRC)を用いて時間経過とともにディザリング処理を行っています。これにより、バンディングが目立たなくなることが期待されます。

では、バンディングとは何でしょうか?バンディングとは、色や明るさが、要求されていないのに突然、望ましくない変化をすることです。高ビットレート(この場合は赤、緑、青の階調を出力する場合)になるほど、選択できる色数が増え、バンディングは少なくなります。一方、ディザリングでは中間色は発生しません。代わりに、ある色から別の色へとノイズ状に遷移することで、バンディングを隠そうとします。真の高ビットレートほど効果的ではありませんが、何もしないよりはましです。

Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。

今日のHDRディスプレイでは、より多くの色と、はるかに広い輝度範囲をディスプレイに供給することが求められています。これはつまり、バンディング(縞模様)を生じさせずにすべての色と輝度を格納するために、より多くの情報ビットが必要になることを意味します。では、HDRにはどれくらいのビット数が必要なのでしょうか?

現在、最も一般的に使われている答えは、この論文で提案されたバーテン閾値、つまり人間が輝度のコントラストをどの程度知覚するかというものです。ドルビー(ドルビービジョンとHDR10で使用される新しいHDR規格における輝度へのビット適用方法を開発した企業)は、この閾値を検討した結果、10ビットでは若干のバンディングが目立つものの、12ビットでは全くバンディングが見られないという結論に達しました。

そのため、HDR10(および10+、そしてそれ以降の規格)では1ピクセルあたり10ビットが採用されており、多少のバンディングと伝送速度のトレードオフとなっています。ドルビービジョン規格では1ピクセルあたり12ビットが採用されており、ビット数を増やしても最高のピクセル品質を確保できるように設計されています。これにより、HDRがカバーできる輝度(つまり明度)の範囲が広がりましたが、色はどうでしょうか?

バンディングなしで「色域」(規格が生成できる色の範囲)をカバーするために必要なビット数を定義するのは困難です。科学的な理由は数多くありますが、すべては人間の目がどのように色を認識しているかを正確に測定することが難しいという事実に帰着します。

問題の一つは、人間の目が色に反応する方法が、どのような検査を行うかによって変化するように見えることです。人間の色覚は「オプシン」に依存しており、これは赤、緑、青をそれぞれ見分けるための色フィルターです。問題は、人によってオプシンの色が多少異なることです。つまり、遺伝子によって同じ色合いでも見え方が異なる場合があるのです。

しかし、ある程度の推測は可能です。まず、観察に基づくと、HDR非対応の「sRGB」規格と色域で表現された8ビットカラーは、バンディングを回避するのに十分な色をほぼカバーできますが、完全にはカバーできません。8ビット画面でカラーグラデーションをよく見ると、多少のバンディングが見える可能性は十分にあります。ただし、一般的には、よほど注意深く見ない限りは目立たない程度です。

2つのHDR色域は、非常に広い輝度範囲をカバーする必要があり、sRGBよりも広いP3色域、またはさらに広いBT2020色域のいずれかを使用する必要があります。輝度に必要なビット数については既に説明しましたが、より高い色域では何ビット必要でしょうか?P3色域はSRGB色域の色数の2倍未満であるため、バンディングなしでカバーするには名目上1ビット未満で済みます。一方、BT 2020色域はsRGB色域の2倍強であるため、バンディングなしでカバーするには1ビット以上の追加ビットが必要になります。

つまり、HDR10規格と10ビットカラーでは、HDRの輝度範囲全体と拡張された色域の両方を、バンディングなしで同時にカバーするにはビット深度が不十分です。10ビットカラーだけでは、より高い輝度範囲をカバーすることはできず、ましてやより多くの色をカバーすることは不可能です。

これが、HDR10や10ビットカラー(HLG規格も10ビットを使用)が、ドルビービジョンのような10kニットの輝度ではなく、最大1kニットの輝度出力に制限されている理由の一つです。輝度範囲を大幅に広げることなく、目に見えるバンディングを最小限に抑えることができます。実際、今日のパネルは輝度と色範囲が限られており、それが輝度と色コンテンツにも影響を与えているため、12ビット信号と10ビット信号の違いに気付く人はほとんどいません。

では、実際に使用するハードウェアやコンテンツでは、これらはどのように見えるのでしょうか?

実践する

まず、HDR10と10ビットカラーの色域と輝度範囲の狭さについて心配する必要があるでしょうか?今のところ答えは「いいえ」です。あまり心配する必要はありません。多くのコンテンツが10ビットカラーでマスタリング・配信されているため、12ビットカラーのハードウェアは今のところあまり役に立ちません。

2つ目は、モニターで10ビットカラーが確実に表示されるようにする方法です。幸いなことに、これはデバイスの技術仕様にほぼ必ず記載されていますが、HDRディスプレイであっても記載されていない場合は注意が必要です。カラー表示には10ビットの入力が必要ですが、出力は別の話です。10ビットパネル出力でも、FRCを使った8ビット出力でも構いません。

ディスプレイメーカーが使用するもう 1 つのトリックは、ルックアップ テーブルを使用するものです。すべてのシーンが、標準で使用できるすべての色と明るさを使用するわけではありません。実際、ほとんどのシーンは使用していません。ルックアップ テーブルは、使用可能なビットが表す情報を、より限定された色と明るさのセットに変更することで、これを利用します。これにより、バンディングのないシーンを生成するために必要なビット数が制限され、95% 以上のシーンでバンディングを大幅に削減できます。ただし、現在、これは EIZO などのハイエンドのリファレンス モニターでのみ使用されていることに注意してください。また、このトリックが必要なのはそこだけです。なぜなら、カメラ (または他のデバイス) からコンテンツを視聴するデバイスに転送された後、今日の HDR 信号には、任意の時点で表示することになっている明るさの範囲をディスプレイに伝える、メタデータというそれほど変わらないトリックがすでに付属しているからです。

3つ目、そして最後の点は、12ビットカラーについていつ考えるべきかということです。BT2020の色域がモニター、テレビ、スマートフォンなどのデバイスで使用可能になり、それらのデバイスがより高い輝度を実現できるようになった時、初めて12ビットカラーについて考えることができます。業界がその段階に達すると、10ビットカラーではそのレベルのHDRをバンディングなしで表示するのに十分ではなくなります。しかし、まだその段階には至っていません。