MTFによる光学機器の性能評価#5 デジタル固有の制約

前回のおさらい

   • 135フォーマット銀塩フィルムは最大3,500万画素に相当?

   • 同じフォーマットサイズなら、画素数が多いほど高い空間周波数領域でのMTF評価が必要

  • フォーマットサイズが小さいほど、高い空間周波数領域でのMTF評価が必要

 銀塩フィルムの時と同じ空間周波数で「MTF特性図」を示してもらっても、撮像素子の画素数や、フォーマットサイズによっては全くの無意味だよ、という話を前回行った。

 フォーマットサイズによってレンズへの解像度要求が変わるということは、銀塩フィルムでも起きていた。ところが、中判以上を手にする人が限られていたことや、135より小さいフォーマットで画質を云々することがなかったため、あまり知られていなかっただけのことだ。

 それで話は終わりなのだが、デジタルはその名の通り離散量を扱うため、これまでになかった制約がある。このうち、前回も少し触れた標本化定理について解説して最終回としたい。

 

量子化と標本化

 銀塩フィルムでは、光の強度という連続値をそのまま記録していたが、デジタルカメラでは離散値に変換して記録する。離散とは飛び飛びということで、平面を構成する無数の点の中から、ある区域を代表する一点を選ぶことを標本化という。それぞれの点における光の強度は連続値だが、これも飛び飛びの値で読み取って離散値にする。これを量子化という。標本化はsampling、量子化はquantizationである。

 標本化の間隔が長すぎれば、得られる画像は解像度が失われたモザイク像となり、量子化の間隔が開きすぎれば、濃淡の再現性が失われる。どの程度の間隔が適当かを知りたいところだが、実は適切な量子化間隔は定量化されていない。その一方で、適切な標本化間隔は信号に含まれる最大の空間周波数がわかっていれば、定量的に表すことができる。

 

標本化定理

 標本化定理とは、信号に含まれる最大の空間周波数を保存するには、空間周波数の1/2以下の間隔で標本化する必要があるというものである*1。すなわち、最大の空間周波数が10LP/mmの場合、1/20mm以下の間隔で標本化しなければならないということ。

 言い換えれば、長さで見たときの標本化間隔(サンプリングピッチ)の2倍までが再現出来る信号の限界ということになる。この限界をナイキスト周波数といい、周波数で表現すると標本化周波数の1/2となる。たとえば、音楽用CDは44.1KHzで標本化されているので、ナイキスト周波数は22.05KHzである。

 では、ナイキスト周波数より周波数が高い信号を入力した場合、どうなるだろうか。

 

エリアシング

 ナイキスト周波数から求められるサンプリングピッチより空間周波数が高い信号を入力すると、Fig.5.1のようなモアレが生じる。

 

 f:id:aquila2664:20081116192703p:plain f:id:aquila2664:20081124014014p:plain

      Fig.5.1 アンダーサンプリングによるモアレ

 

 モアレはエリアシングエラーの一形態で、出力画像に入力信号にはなかった低周波成分が混入する。

 

 f:id:aquila2664:20081124041120p:plain f:id:aquila2664:20081124041311p:plain

           Fig.5.2 入力信号

 

 Fig.1.1には枠内の1/2ほどの周期の振動成分が現れている。現れる周期はサンプリングピッチと空間周波数の関係によって様々だ。条件を変えると、Fig.5.3のような異なる振動成分が現れる。

 

f:id:aquila2664:20081124041405p:plain f:id:aquila2664:20081124041404p:plain

     Fig.5.3 アンダーサンプリングによるモアレ2

 

 包絡線を取ると、Fig.5.1の場合は入力信号の1/32の周波数の振動成分が現れ、Fig.5.3の場合は1/12の振動成分が現れている。どちらにせよ、入力信号と比べて遥かに低い周波数の振動成分が混入し、偽像(アーチファクト)となっている。*1 

 標本化定理を満たさない条件で入り込んでしまった低周波数成分は、数学的には分離不能だ。 ここをもう少し説明する。

 

 エリアシングエラーは折り返しエラーと呼ばれる。これは、ナイキスト周波数以上の空間周波数成分が低空間周波数側に侵入することを表している。#3で示したMTF、このときのグラフは120LP/mmで打ち切ったが、実はこの先、つづきがある。

 

f:id:aquila2664:20081124041442p:plain

         Fig.5.4 120LP/mmまで

 

f:id:aquila2664:20081124041443p:plain

        Fig.5.5 250LP/mmまで

 

 一度下がった応答が、また立ち上がってくるように見える。しかし、これは250LP/mmの信号が含まれている、というわけではない。空間周波数領域では、周波数成分のスペクトルが鏡像のように繰り返し無限に現れる*2。ナイキスト周波数より上には左右反転したスペクトルが存在する。スペクトル同士の間隔は、サンプリングピッチの逆数に比例する*3。サンプリングピッチが狭いほど、スペクトルの間隔は遠くなる。逆に、サンプリングピッチが広いほどスペクトル同士の間隔が近づき、広げるにつれ、いずれ衝突してしまう。

 

 空間周波数の上限にくらべてサンプリングピッチが広すぎる場合、隣り合うスペクトルが衝突することで高周波数成分が低周波数成分に混入し、エリアシングエラーとなる。エリアシングエラーは、一度混入してしまったら分離できない。このため、ナイキスト周波数以上の信号を切り捨てるためにLPF(Low pass Filter)が用いられる。

 

ローパスフィルターの必要性

 CCDやMOSのような離散型イメージセンサーの場合、サンプリングピッチは素子ごとに一定だ。ナイキスト周波数は一意に求められる。これを超える信号はエリアシングエラーとなるので、センサーに入力させてはならない。このため、ナイキスト周波数より低い空間周波数領域だけを通す、Low pass Filterが撮像素子の前に入っている。後述するがコンパクトデジカメのように、レンズのMTFから、ナイキスト周波数以上が通過しないことが保証されている場合、LPFが省略されることもある。この場合、レンズがLPFの働きをしていると考えれれば良い。

 よくある誤解に、ローパスフィルターはベイヤ型カラーフィルターだから必要、というものがある。三色4セル1セットに同じ信号が落ちなければ、拙いのではないかという素朴な直感に基づくものだろうが、間違っている。モノクロセンサーでもLPFは必要だ。 

 

 f:id:aquila2664:20081116192747p:plain

 Fig.2.1 ベイヤ配列カラーフィルタによる色分解

 Foveon x3にはローパスフィルターは不要というメーカーの主張に対し、ユーザーサイドでその理由が考察されているが*4、その内容は相当に怪しげだ。折り返しによるエリアシングエラーは、離散的に標本化する以上避けられない。画素の面積や開口率云々を挙げられる方がいるが、それでノーマライズされる空間周波数領域はナイキスト周波数の二倍以上で、視覚上問題になるモアレへの影響は少ない。

 ただ、各色のサンプリングピッチが同じFoveon x3の場合、エリアシング成分の色ズレが起きないため目立ちにくい。Fig.2.1の通り、4セルに3色を敷き詰めたベイヤ型カラーフィルタは、フィルタ色ごとにサンプリングピッチが異なる。モアレに色が乗り目立ちやすい。

 Foveon x3でもLPFなしではモアレは発生するが、輝度変動のみで目立ちにくいため省略してしまっても鑑賞上の不都合がない、と言い換えた方が良かろう。ユーザによって撮影されたチャートの像に、しっかいモアレが出ているケースも少なくない。

 

ローパスフィルターを省略できる場合

 先ほど述べたコンパクトカメラにおけるローパスフィルタの省略についてもうすこし詳しく説明する。

 最近のコンパクトデジカメの中にはローパスフィルターを省略しているものがある。繰り返しになるが、ローパスフィルターはナイキスト周波数以上の空間周波数を離散型イメージセンサーに入力しないためにある。言い換えれば、入力信号の空間周波数イメージセンサーナイキスト周波数以下に収まることを保障するためのものだ。

 要するに、入力信号の空間周波数ナイキスト周波数以下であることが保障されている場合、ローパスフィルタは不要だ。

 カメラシステムならば、レンズの解像度がイメージセンサーナイキスト周波数を下回っていれば、イメージセンサ前面に光学的ローパスフィルタは必要ないということになる。

 最近のコンパクトデジカメでは素子の小型化と画素数の向上によって画素の微細化が進み、ナイキスト周波数が非常に高くなっている。ところがレンズの解像度は頭打ちだ。販売価格低下を受けたコスト削減の結果、むしろ精度は劣化しレンズの性能は落ちている。画素微細化による回折の寄与も無視できない。センサーのナイキスト周波数に対して、レンズの解像度が充分に低い関係が成り立っている。

 すなわち、レンズ自体がローパスフィルタの役割を果たしていると言える。

 

センサー画素数と記録画素数

 デジタルの世界では標本化定理があるため、ナイキスト周波数以上の信号は切り捨てなければならないことを説明した。

 ところが、大概のデジタルカメラはセンサー画素数と同じ大きさの画像を出力する。800万画素センサのカメラからは、3,264x2,448画素の画像が出力される。これは実はおかしな話だ。カラーフィルタを措くとしても、本来1,632x1,224画素ぶん、200万画素相当の信号しか得られていないはずだ。

 センサー画素数と同じ大きさの画像が出力されるのは、内部で補完処理されているからに他ならない。長さ方向2倍に拡大をしている。このため、1ピクセル単位で解像することは原理上ありえない。この状態を「ピクセル解像」と呼ぶ方がいるが、これを達成するにはふたつの条件が必要になる。

 ひとつはナイキスト周波数以上をセンサーに入れること、もうひとつはセンサーの標本化位置とチャートの縞模様の位置関係が一致することだ。

 前者を満たすことはモアレの発生を甘受することになる。実際LPFの利きを弱めたとされるカメラでは、モアレが発生している。

 その上で後者の条件が満たされた場合には、ピクセルピッチと同等の縞模様が再現できる。ところがこれはチャートとセンサーの位置関係に依存しておりリニアリティがない。実用上無意味である。

 

番外編のまとめ

   • デジタルには固有の制約があるので注意が必要である

 • 標本化定理によるナイキスト周波数は、サンプリングピッチの二倍である

 

*1: Foveonでのサンプルをよく見ると、こうしたモアレが見つかることがままある。メーカーは注意深く避けているが、個人がチャートを撮影した作例にはしばしば見られる。これはもちろん、光学LPFの省略が原因だ。

*2:Fig.1.5はFFTで算出しているので、空間周波数の上限がサンプリング周波数になっている

*3:δ関数によるクシ関数をフーリエ変換すると同じようにクシ関数になるが、その間隔は空間領域の間隔の逆数になるので

*4:http://ja.wikipedia.org/wiki/Foveon_X3#.E3.83.AD.E3.83.BC.E3.83.91.E3.82.B9.E3.83.95.E3.82.A3.E3.83.AB.E3.82.BF.E4.B8.8D.E8.A6.81.E8.AB.96