カメラのセンサーサイズと画質と色域と色深度とファイル形式のお話

作成日:2019/06/18 更新日:----/--/--

BMW and more(デジタル)のインデックスページ
Mastodon(お一人様インスタンス)

人気ブログランキング

ブログランキング・にほんブログ村へにほんブログ村

PVアクセスランキング にほんブログ村

センサーサイズが大きいと何故画質がいいのか?

これに関しては専門的にいろいろ解説されているけどざっくりと適当なことを言い方をすれば「きちんと色を出せるから」だと思う。写真でよく使われるファイル形式であるjpgは一つの点をR(赤)G(緑)B(青)を各8bit(10進数で0から255)で表現する。センサーサイズが大きければ微妙な色の違いを識別出来るがセンサーサイズが小さい(厳密には一つの点の)と000と001の区別が出来ないのだろう。これに関して「ダイナミックレンジが広い」と言われているがダイナミックレンジは最大と最小の差なのでセンサーサイズが大きかろうと小さかろうと最小が0(RGBが全て0なら黒)で最大が255(RGBが全て255なら白)ならダイナミックレンジは変わらない。むしろ明るさを256に分けられるか半分の128にしか分けられないかでということであれば「ハイレゾリューションである」といった方が正しい気がする。

最近耳にする「色域」って何?

これも詳しい話は専門的なサイトに任せるとしてぶっちゃけ「色の範囲」で「色域が広い」というのは「より赤く」「より緑で」「より青く」といった感じで色の範囲が広くなる。この範囲を定義しているのがDIC-P3とか諸々の規格。RGBの組み合わせに対して実際に表示される色(色温度かな?)を定義していたりする。ここで疑問に思うのは前にも言った通りjpgってRGBが各8bitなのでその組み合わせは最大で16,777,216色。色の範囲が広がったとしてどうやって表現するの?

「色深度」というもの

ここで出てくるのが「色深度」というもの。jpgの場合、色深度は8bitが3色なので24bit。これが1色12bitだと0から4,096まで分解出来る。これであれば「より赤く」も出来るし今まで256にしか分解出来なかったものをもっと細かく分解できる。しかしjpgでは表現出来ないけどどうするの?

RAWとかDNGとかHEIFとか

もともとデジタルカメラ(スマートフォンのカメラも)のイメージセンサーは12bit等でデータを出力している。これがRAWデータ。このRAWデータに映像エンジンと呼ばれるアプリケーションで加工を行ってjpgファイルにしている。そして最近のカメラはjpgに加工する前のRAWデータをファイルとして保存することが出来る。F-02Lもサードパーティー製のカメラアプリで出来る。これがよく言われるRAW出力でファイル形式はDNG等メーカーによって異なる。このRAWデータは12bitか14bitということなので色の情報としては16,777,216色を超えるものを持っている。もっともRAWデータの本来の目的というかメリットは無加工のデータなので加工がしやすいという点のようである。しかしカメラメーカーのエンジニアが組み上げた映像エンジンを超える加工を素人が出来るだろうか。それはおいておいて、ともかくこれをjpgにしてしまっては色は各色8bitに収まってしまい元も子もない。が、8bitを超える状態で保存や表示が出来るjpgのような一般的なファイル形式はPNGとかTIFFとなってしまい写真には向いていない。そんな中でちょっと期待なのがiPhoneで使用されているHEIFという形式(Androidも対応しているらしいのだが)で、これは圧縮率を高く出来るというメリットの他に色深度が1色10bitとのことなのでjpgよりは色域が広くなる。ただし、ブラウザでは対応していないようなのでiPhone等のアルバムアプリで表示するしかない。ブラウザで表示出来るようにするにはjpgにするしかない。そもそも表示装置であるディスプレイが16,777,216色を超える性能を持っている必要がある(最近は10億色表示のディスプレイが増えているけど)。

まとめ

まとめると、「センサーサイズの大きいカメラ」で撮影して8bitを超える「色深度」を持つ「ファイル形式」に加工し(iPhoneのHEIFを使うかRAWデータを自分でjpg以外のファイルにする)10億色表示可能な「色域」の広いディスプレイを使用すると綺麗な写真を見ることができる、ということだ。