↑にメニューバーが現れない場合、
← クリックして下さい。
更新日時:2012年 2月 23日 木曜日 - 11:49 AM
光と光の記録 --- 記録編 (2012.02.23更新)
このコンテンツは、Adobe GoLive6.0で制作しています。
目 次
■ 光の記録
-
光の記録体系表 (希望する項目にカーソルを当てるとリンク先にジャンプします)
■ 光を電子に換える材質 (2006.11.04)(2007.11.18追記)
光と電子との関わりがわかるようになったのは、20世紀の初めでした。 今でも多くの人は、光と電子の間には直積的な関係などない全く別のものというイメージを強く持っています。
電気は恐いけど、光に関しては寛容です。
そうした性質の違う両者は、実はかなり深い関係があることがわかって来ました。
性質の全く異なる両者は、実は仲が良いのです。
光と電気、いや電子は、実は密接な関係があって、原子レベルでは電子と光は絶えずエネルギーの授受を行っています。電子が放出するエネルギーが光を含めた電磁波であり、電磁波からのエネルギーを受けて電子は運動します。
熱も赤外域の電磁波です。物質は、熱によって分子レベルで運動が活発になり固体から液体、気体に変わります。分子が活発に運動する中で、自らも熱を発します。金属などは、固体から液体に変わると大量の熱と一緒に光も放出します。
これらはすべて、分子や原子の運動に伴って電子が放出する電磁波なのです。
結論を述べると、光(電磁波)の記録は電子の助けなしにはあり得ないのです。
【光と電子の関係 - 最初の発見者 ヘルツ】
光と電気、いや、電子は双方密接な関係があり、原子レベルでは電子と光は互いに絶えずエネルギーを受け取りあっています。
1887年、ドイツのヘルツ(Heinrich Rudolf Herz: 1857 - 1894)は、イギリス人(スコットランド人)のマクスウェルによって数式で導きだされた電磁波理論の追試を行っているとき、放電電極に紫外線を当てると放電が起きやすくなることを発見しました。
ヘルツは、電磁波の実験になぜ光(紫外線)を使ったのでしょう。
彼は、追試実験で放電ギャップを使って放電を起こし、それを15メートル離れた位置にコイルで作った受信器を置いて放電観察を行っていました。そのときに、たまたまその発見をしたのです。彼は、放電を肉眼で確認していたので、弱い光だと受信したかどうかわからないために、強い受信信号が欲しくていろいろな工夫を施し、その一環として光の照射(特に紫外線)を行ったというわけです。
最初、彼は受信部の放電を見やすくするために、受信部を暗箱で覆ってわずかな発光をする放電の観察を行いました。そうしたところ、受信部の放電発光は見やすくなるどころか、とたんに何も見えなくなってしまいました。そこで、暗箱のパネルを一つづつ外して行って、見やすい最適な配置を見つけて行きました。そして、観測窓を送信側に設けると、他に配置したときよりも受信部での放電がおきやすくなることがわかりました。
また、観測窓に通常のガラス材を用いると、放電がにわかに鈍るのに対して、石英窓にするとかなりはっきりと放電が認められるようになり、距離を15mに離しても放電が認められたのです。
彼は、このようにして、放電発光に関して何らかの光が関与していると考え、プリズムを使って受信部に特定波長の光を与えていったところ、紫外線が放電を促す強い効果があることをつき止めたのです。
ヘルツ自身は、空中を伝わる電気現象の解明に集中していたため、彼が発見した光と電子による現象を深く掘り下げることはしませんでした。
それに、ヘルツはこの現象を発見した7年後、36才の若さで敗血病のため他界してしまいます 。
当時、「電子」という概念はありませんでした。
ヘルツの発見の翌年の1888年、同国の物理学者ハルヴァックス(Wilhelm Ludwig Franz Hallwachs:1859 - 1922、ヘルツの門下生)は、光と電気に関する研究を別の実験で検証し、照射する光は短い波長であればあるほどこの傾向が強いことを再度確認しました(下左図参照)。
ハルヴァックスは、亜鉛板に紫外光を照射させ、この板を負に帯電させた検電器と接触させると検電器内の電荷が急速に無くなってしまうことを確認しました。また亜鉛に紫外線を照射させていないとき、検電器の挙動は緩慢であり、逆に検電器を正に帯電させておくと開いた金箔は閉じることはありませんでした。
さらに、20年後の1902年、同国のフィリップ・レーナルト(Philipp Eduard Anton von Lenard:1862 - 1947:ヘルツの弟子、1905年ノーベル物理学賞受賞)によって、陰極線(=電子線)と光に関するさらなる興味深い研究成果が得られました。
レーナルトは、特殊な電子管をあつらえて、陰極に強力な炭素アークランプを照射し、それによって流れる電気の度合いを調べたのです。
また、炭素アークランプにプリズムを装着して任意の光を取り出すようにし、光と電気の流れる関係を調べました。
その結果、興味ある両者の関係を導きだすことができました。
その関係とは以下に述べるものです。
・ 光によって電気が流れるためには、最小の印加電圧(バッテリの電圧)が必要であった。
この電圧以下では、どんなに強い光を与えても電気は流れない。
・ 電気が流れる条件の光では、照射する光量を2倍にすると流れる電気は2倍になった。
・ すべての光によって電気は流れるわけではなく、波長が短い光ほど容易に電気を流すことができた。
赤色の光は、どんなにたくさんの光量を与えても電気を流すことができなかった。
この現象は、当時の物理学では解き明かすことができない大きな問題でしたが、1905年にドイツの物理学者アインシュタイン(Einstein、1921年ノーベル物理学賞受賞)が両者(光と電子)の関係を説明し、光が粒子(光子 = hν )からなるというドイツの物理学者プランク(Planck)の光量子仮説を裏付ける結果を導きだしました。
これら光量子説の構築において、レントゲン(Wilhelm Konrad Roentgen、1845-1923) が1895年に発見したX線は、多大なるヒントを彼らに与えました。
光の振る舞いをする電子に近い性質を持った電磁波(X線)は、光と電子を結びつける量子物理学の道を開いたと言っても過言ではありません。
今でこそ、
「光は電磁波であり、電波のマイクロ波、赤外線、紫外線、X線と連綿と続く一連の波長の範囲の一部である」
と、極めて理解の良い説明が与えられているのですが、当時はその概念はなく、「光は電磁波である」と唱えたマクスウェル理論の追試を行っている途上にありました。その途上に電子線が現れ、放射線が現れたのです。
これら諸物性をどう説明するか。それが当時の大きな問題であったのです。
レントゲンがX線を発見した当時、「電子」という明確な概念はありませんでした。
レントゲンが高電圧発生装置で強い電子線を使って不思議な放射線(X線)を発見したにも関わらず、電子線は電子からできていることを理解していなかったのです。
電子は、X線の発見の2年後、1897年に英国人物理学者J・Jトムソン(Sir Joseph John Thomson:1856 - 1940:1906年ノーベル物理学賞受賞)によって解明されます。
■ 光電子(Photoelectron)
光の働きによって個体から放出される電子や、個体内部で励起したり移動する電子を光電子と呼びます。
光エネルギーによって電子が励起したり、放出する現象を光電効果と呼んでいますが、最初に発見された光電効果は、光を金属に当てると金属表面にある電子が遊離する現象でした。
遊離した電子は、電場があれば引き出されて正極に向かいます。
この関係を端的に表したものが以下に示す数式です。
Ep = 1240/λ [eV] ・・・(Rec -1)
Ep : 光子エネルギー(eV)
eVは、エレクトロンボルトと読み、電子を真空中で1Vの
電位差で加速したときの電子が得るエネルギー量を示す。
1 eV = 1.6 x 10 -19 (J)
1240: h c( = プランク定数と光速の積)を1eVで割った定数。
λ: 光の波長(nm)
上の関係は、電子と光を論ずる時に重要な関係式です。
ある波長λ(nm)の光は、Ep という電子換算エネルギー(eV、エレクトロンボルト)を持っていて、この電位差がないと光は放出されないことを示しています。
発光ダイオードを作るときにもこの関係式は重要で、半導体素子のエネルギーギャップをこの理論エネルギー以上にしないと発光しないことを示しています。
例えば、赤色(650nm)LEDであれば1.9V以上が必要であり、青色(420nm)LEDであれば2.9V以上の電位差が必要となります。
短い波長ほどエネルギーが高いことがわかります。
▲ 光電面(光陰極、Photo Cathode)
光電効果は、量子エネルギーが高い光が金属に当たると電気を放出する働きを言います。この作用を効率よく作用させる部位を光電面と言い、光 → 電気に変換させる重要なものとなります。光電面には、従来、銀(Ag)やセレン(Se)、セシウム(Cs)、カリウム(K)、ナトリウム(Na)、テルル(Te)、ガリウム(Ga)、ヒ素(As)、アンチモン(Sb)などの金属や、硫化カドミウム(CdS)、一酸化鉛(PbO)、セレン化カドミウム(CdCe)、三硫化アンチモン(Sb2S3)、ガリウムヒ素(GaAs)などの化合物が使われてきました。これらの材料は、光に対して反応が良いものです。光電面材料は、量子エネルギーの低い赤色から赤外に反応して電子を放出する素材が求められ開発が続けられてきました。
本来、物質はすべて光に反応します。しかし、電子として取り出せる材料には限りがあります。光電効果に対して効率よい物質を求めてきたのが光電面開発の歴史です。光電装置の最初の装置は、セレンを使った光電管でした。
最近では、シリコンが従来の高価な金属に変わって使われだしています。フォトダイオードは、ほとんどの場合シリコンで作られていますし、CCDカメラの撮像素子もシリコンでできています。シリコンはなぜ光に反応するのでしょうか。
■ シリコン(silicon) - 現代の光産業・電子産業の主役
シリコンが光に対して敏感であることがわかったのは、70年ほど前(1940年)のことです。金属が光に対して反応し、電気を発生することはシリコンを使った発見よりもさらに70年も前の1873年、イギリスの電信会社に勤めていた技術者スミス(Willoughby Smith: 1828 - 1891)によって発見されます。そのときの金属がセレン(Se、Selenium)でした。
そもそもシリコンは、電気を通すなどということすらもわかっていなかったのです。それが、トランジスタの発明を契機として、シリコンの素姓が徹底的に調べつくされ、現在では半導体電子機器部品の主役にまで上り詰めました。
▲ シリコン - 光反応の発見
シリコンが光に反応することを突き止めたのは、ベル電話機研究所のRussel Ohl(ラッセル・オール: 1898 - 1987)とJack Scaff(ジャック・スカッフ: 1908〜)でした。1940年のことです。
彼らは、トランジスタを発明した同じベル電話機研究所のショックレー、ブラッテン、バーデンらよりも先に半導体の組成の研究をしていた研究者です。
1939年8月、第二次世界大戦の勃発直前、ベル電話機研究所のラッセル・オール(Russel S. Ohl)は、高純度のシリコンを作る研究を同じ研究所の金属研究者であるジャック・スカッフ(Jack Scaff)に依頼しました。彼は、融けたシリコンを使って部分的に高純度化する方法を採用します。これは、ゾーン・リファイニング(帯溶融精製)として知られる技術で、戦後(1952年)、ベル電話機研究所のプファン(William G. Pfann: 1917.10〜 1982)によって確立される手法でした。 彼らの技術革新によって、シリコンが半導体の寵児となっていきました。
1940年のある日、ラッセル・オールは数ある試験鉱石の中の一つである直径0.3mm、長さ25mmの細いシリコン棒におもしろい現象があることに気づきました。シリコン棒に光が当たると電気が起きたのです。彼がこれに気づいたのは、電気スタンドとシリコン棒の間に扇風機が回っていて、扇風機のゆっくりした動きに合わせて電気スタンドから照射される光がシリコン棒に遮られ、シリコン棒に接続した電流計が扇風機の動きに合わせて動き出したためでした。シリコンに影ができると針は下がり、光が当たると針が大きく振れました。
これが、シリコンが光に反応して電気を起こす現象の最初の科学的発見でした。しかしながら、この発見はシリコンの光の起電力という観点よりも(シリコンで発電できるという発見よりも)、半導体のP型とN型構造によって電気が流れるという発見の方が関心が大きく、これを契機にトランジスタの発明につながって行きました。
現代にあっては、半導体素子と言えばシリコンですが、トランジスタが発明された当初、半導体と言えばゲルマニウムが主流でした。ラッセル・オールらが基礎研究をおこない、P型N型の半導体発見の口火を切ったシリコンであったのに、初期のトランジスタではゲルマニウムに主役の座を譲ってしまいました。その理由は、当時、シリコンの精錬が難しくゲルマニウムのほうが結晶として得やすかったからです。
シリコンが脚光をあびるようになったのは、シリコン単結晶の製造法(ゾーン・リファイニング)が確立された背景要因がまず一つあげられます。
さらにもっと大きな要因は、シリコン素子による高集積化の確立からです。
シリコンは、簡単に酸化皮膜を作ることができ、酸化皮膜は電気を通しません。酸化皮膜をミクロン単位の線巾で描くことができるようになり、シリコン基板上に精緻な回路を作ることができるようになりました。小さな面積に10個、100個、1,000個という具合にトランジスタを描き作ることができるようになったのです。
これが集積回路(Integrated Circuit、IC)の発展につながり、CPUの発明を促し、CCDの発明につながっていきました。ゲルマニウムではICが作れなかったのです。
▲ シリコン - 物性
シリコンそのものについては、「AnfoWorld 別館 奇天烈エレキテル シリコンって何物? 」「同 半導体物質 」を参照下さい。
シリコンの純粋な結晶は、ガラスやダイヤモンドと同じように絶縁体であり、電気を通すことがありません。
結晶構造がしっかりしているので電子を捕縛したり遊離することができないのです。
しかし結晶の中に異種の元素を入れてやると、その部分に原子結合の歪みが生じます。
原子の中のあるもの(ガリウム、ホウ素、インジウムなど)は、電子の手が3本しかないので、シリコン結晶中に入るとシリコンの4本の手の内3本までは握手(共有)できるのに、残りの1本は空いてしまい電子を欲しがるものになります(ホール素子、P型半導体)。また、別のあるもの(ヒ素、リン、アンチモンなど)は、電子の手が5本あってシリコンの4本の手とすべて握手しても1本あまってしまい、電子を持ったままぶらぶらさせることになります。電子を与えやすいキャリア素子、N型半導体となります。
そうしたシリコン原子と電気的な結合がわずかに違う原子を、シリコン結晶中にわずかに打ち込んでやると、絶縁シリコン結晶から半導体結晶ができあがります。
これが、P型(電子を欲しがる)半導体と、N型(電子を持っている)半導体となります。
初期の半導体は、P型とN型の二種類の半導体を別々に作ってこれを接触させてダイオードやトランジスタを作っていました。
その後、一つの半導体結晶にP型とN型を作り込む接合型半導体ができました。
こうした半導体製造は、とても高度な技術が要求されます。基板となるシリコンは、99.999999999%(イレブン・ナイン)の精度で精錬し結晶を作らなくてはなりません。その結晶板を使って、その中に不純物(価電子の違う金属)をドーピングし、N型もしくはP型半導体を作ります。CCDのフォトダイオードもこのようにして作られます。
■ 光電効果(Photoelectric Effect) (2007.04.09)(2007.12.25追記)
光と電子の相互関係を示す光電効果は、以下のような分類ができます。
▲ 光電子放出効果(Photoelectron Effect)
この性質は、歴史的に比較的早くから現象としてわかっていたもので、光子の概念を構築する発端となったものです。
この効果は、端的に言うと光に反応する物質に光を照射させると電子が遊離して表面から飛び出すというものです。光電管(真空管)はこの原理を利用しています。また、暗視カメラに使うイメージインテンシファイアや、高感度光検出素子であるフォトマルチプライア(photo multiplier)にもこの原理が使われています。
▲ 光導電効果(Photoconductive Effect)
この性質は、端的に言うと、光を光に反応する物質に照射すると抵抗値が変わって電気を通しやすくするというものです。
このような物質を光導電体といいます。光導電体は半導体か絶縁体に限られ、金属単体ではこうした性質を持ちません。
代表的なものは可視光域では、シリコン、酸化鉛(PbO)、セレン化カドミウム(CdSe)、無晶形セレン(Se)、硫化カドミウム(CdS)などがあります。
光導電効果を持つ材料は、撮像管の光電面として使われました。
▲ 光起電力効果(Photovoltaic Effect)
この性質は、言ってみれば太陽電池のようなものです。光を受けると電気を発するというものです。
太陽電池といえばシリコンが有名です。ですから、シリコンがこの性質を最も顕著に持っていると言って良いでしょう。
シリコンの他に光起電力を起こすものとして、ゲルマニウム(Ge)や硫化鉛(PbS)、セレン化鉛(PbSe)、インジウムヒ素(InAs)、
インジウムアンチモン(InSb)、水銀カドミウムテルル(HgCdTe)、鉛錫テルル(PbSnTe)があります。
ただし、シリコン以外の物質は赤外域に感度を持っていて、可視光には感度がありません。
↑にメニューバーが現れない場合、
← クリックして下さい。
■ 光の記録原理 その1 - - - 1次元記録 (1998.01)(2006.11.19追記)
光を定量化する測定機器を考えて見ましょう。
光を検知する材料としては、セシウム、ナトリウム、カリウム、などのアルカリ金属があり、銀なども光に良く反応し、ガリウム、ヒ素、テルライド、シリコンなどの半導体も光に反応する性質を持ちます。
これらの素材は、アインシュタインの発見した光電効果で説明のつくものであり、量子エネルギーの小さな可視域(赤色)や赤外域まで感度を持たせた複合材料も開発されています。
ここでは主に可視光域について感度のある検出装置について特徴を述べます。
■ フォトチューブ(光電管 = Photoelectric Tube)
フォトチューブ(光電管)は、光電効果を利用した最もシンプルな光検出素子です。銀、セシウム、ガリウム、ナトリウム、テルル、ヒ素などの光に反応して電子を放出しやすい材質(これを光電素子と呼ぶ)を真空状態のチューブ(真空管 = 電子管、Electron Tube)の中に入れて、これを陰極とします。陽極(プラス極)と光電面である陰極(光陰極、photo cathode)の間に、ある電圧を加えると光が当たった強さに比例して光電子が放出され、プラス電極に向かって電流が流れるようになります。この電流により、回路に組み込まれた抵抗間(出力抵抗RL)で電圧(E)が発生します。 (右図参照)
フォトチューブは、映画フィルム端に光学的に記録された音声信号を取り出す際のエキサイターランプとしての応用が代表的なものでした。通常のフォトチューブは、印加電圧が 5 〜 30V程度で 1:100 程度のダイナミックレンジ(光の強さの度合)を持ちます。
印加電圧を高くすれば電子が加速されやすく応答性がよくなります。2,000V程度まで印加できるフォトチューブがバイプラナ光電管(biplanar photo tube)として市販されています。こうしたフォトチューブは、印加電圧が高いので応答がよく10ps程度の性能を持っています。高速応答性のチューブは、パルスレーザの発光時間を測定するのに使われています。
光電管に使われている光電面の発達が撮像管(Imaging Tube)の発展を促しました。撮像管 とは、ビジコンとかサチコンなどと呼ばれているCCD固体撮像素子ができる前に活躍していたテレビ(ビデオ)カメラの眼のことです。
■ フォトマル(光電子増倍管 = Photo Multiplier)
フォトマルチプライア(フォトマル = photo-electric multiplier、 光電子増倍管)は、光電面から放出された電子を二次電子放出する電極に衝突させ、これを何回も繰り返して、ねずみ算的に2次電子を放出させる真空管です。2次電子放出電極は、通常10段程度あり−1,000〜−2,000Vに印加された光電面から100〜200Vの電圧間隔で電極が配置されています。その結果、光電子増幅度は1,000,000以上に達し、非常に感度の良い光検出素子ができあがります。
2次電子を受ける陽極は、バイアス抵抗を挟んで接地(グランド)されているため、出力(E)はバイアス抵抗間に流れる光電子で起電される負極性の電圧となります。バイアス抵抗を低くとっているため出力インピーダンスが低く、たくさんの電流を要求する測定器でも十分に流すことが可能です。
光の応答は、2次電子電極を用いている関係上フォトチューブより悪く1ナノ秒程度となります。またフォトマルの受光部(光電面)の大きさによっても応答速度が変わり、大きなものでは4ナノ秒の応答となります。
フォトマルは、非常に感度が良いので、微弱な光の検出や、分光器の射出口に取り付けて分光分析などに使われています。小柴昌俊東京大学名誉教授(ノーベル物理学賞受賞)の研究で有名になった神岡鉱山跡に設置されたカミオカンデのニュートリノ検出器にも大口径のフォトマルチプライアが使われています。このフォトマルは、口径が500mm以上もあり、大きな光電面で非常に微弱な光を検出しています。光増幅は1000万倍と言われています。
▲ スーパーカミオカンデ(Super-Kamiokande、Super-K)
フォトマルの使われている代表的な事例を紹介します。
小柴昌俊東京大学名誉教授(ノーベル物理学賞受賞)の研究で有名になったスーパーカミオカンデに使われているニュートリノ検出器には、大口径のフォトマルチプライアが使われています。(モデルR3600。設計製造は、浜松ホトニクス株式会社)
このフォトマルは、口径が500mm以上あり、重量が約8kgもある大きなエチゼンクラゲのような形をしたガラス真空管でできています。形状が大きいのは、大きな光電面で非常に微弱な光を検出するためです。その光増幅率は、1000万倍と言われています。1000万倍の光増幅を達成するために、フォトマルにかけられる電圧は最大2,500Vとなっています。
光電面は、350nm〜650nm(ピーク感度波長は420nm、量子効率20%)の感度を持っていて、チェレンコフ光の青白い微弱な光を検出するために青色域に感度を持たせています。その材質は、バイアルカリ(Sb-K-Cs)であり、1700cm2 (直径46cmの円状)の大きな光電面で受ける微弱光は、11段の増幅段(ダイノード)を経て2次電子を作り出し最大100uAの電流を取り出すことができます。
この素子の光の反応は、10nsで応答し、光がフォトマルに入って電気信号として取り出すまでの遅れは95nsです。また、短いパルス光に関しては、5.5nsまでのパルス光を検出できます(Transit Time Spread [FWHM])。
スーパーカミオカンデは、岐阜県の神岡町(岐阜県飛騨市神岡町池の山)の鉱山跡地に1995年に建設されたニュートリノを検出する巨大水槽と計測装置からなる設備です。初代の設備は、1983年に建設されたカミオカンデですが、スーパーカミオカンデの完成によってその役目を終えています。スーパーカミオカンデは、地下1000mに直径39.3m、高さ41.4mの円筒型水槽が埋設されて、ここに50,000トンの純水が満たされています。この水槽は、さらに内側と外側の2重構造となっていて、内側水槽(直径36.2m、高さ33.8m、容積32,000m3)はステンレス構造体で作られ、11,146本の20インチフォトマルが全水槽を覆うように配置されています(上面・下面各1,748個、側面7,650個)。外側水槽には、8インチ口径1,885個のフォトマルが内側水槽との仕切壁側に外向きに取り付けられています。
これらのフォトマルは、宇宙から飛来するニュートリノが巨大水槽に入って減速する際に発光する青白い光(チェレンコフ光)を検出します。チェレンコフ光が非常に微弱であるのと、巨大水槽内で発光する光の空間位置と時系列を把握するために、11,000本の巨大フォトマル(20インチ)を配置してチェレンコフ光の発生をマッピングしています。8インチのフォトマルを外側に配置しているのは装置のバックグランド光を取り除くためです。
■ フォトダイオード(Photo Diode)
最近脚光を浴びてきている光反応素子として、シリコンフォトダイオードがあります。これは、いままで述べてきた真空管(Electron Tube)と違い半導体構造であるため、以下の特徴をもっています。
フォトダイオード(参考)。形状はいろいろなタイプがある。写真は左部の開口部の円形状がフォトダイオード部。右端子がBNCになっていて使いやすい。
1. 小型
2. 堅牢
3. 安価
4. 高電圧電源不要
5. 過大な光に対して強い
反面、以下の欠点を持っています。
a. 反応速度が遅い
b. 光増幅率が低い
c. ノイズが出やすい
フォトダイオードは、安価で取り扱いが簡単なことから光検出素子としてあらゆる分野で使われだしてきています。シリコン は、光に対して鋭敏で、光を電子に変換することができます。シリコンフォトダイオードは半導体ですから、光(時には熱)に反応して起電した電荷があふれると順方向に流れるようになります。しかし、ダイオード(半導体接合面)のしきい値を越える電荷( = 光)を蓄えない限り何の反応も起こさないので、極めてレスポンス( = 応答)の悪い素子になってしまいます。そこでフォトダイオードに順方向とは逆の電圧をかけておくと、ダイオードの電気的しきい値が低くなり、ちょっとした電気変動( = 光変化)でも電流が流れるようになります。バイアス電圧は5〜30V程度で、シリコンフォトダイオードの種類によって異なります。点接触タイプのPINフォトダイオードやアバランシェタイプはバイアス電圧を高くセットします。応答速度は、通常1マイクロ秒程度で、PINフォトタイプでサブマイクロ秒、アバランシェタイプでナノ秒です。いずれにしても、ダイオードとグランド間に接続された抵抗値により光応答性能と電圧出力が決まり、抵抗が高いものほど出力電圧が高くなる反面、レスポンスが遅くなります。ダイナミックレンジは、比較的広く 1:10,000 程度あります。
フォトダイオードは当初、カメラの露出を決める露出計や照度計等に用いられてきました。半導体発光素子(発光ダイオード、LED)の発達と共に、発光ダイオードの光を検出して電気的なスイッチを行うフォトカプラー、フォトアイソレータという電子素子が開発され、電子機器に組み込まれて電気ノイズの遮断に威力を発揮しています。また、光通信分野においてもレーザ光を受信して電気信号に変換する装置にフォトダイオードが使われています。
フォトダイオードの応用で最も興味深いのが、CCDカメラを代表とする撮像素子です。CCD撮像素子は、実はフォトダイオードの集合体なのです。画素の中心部はフォトダイオードでできていて、レンズによって集光する光を電気信号に変換する働きを持っています。CCD やCMOS についてはのちほど詳しく述べます。
項目
フォトチューブ
フォトマル
フォトダイオード
光電素子
銀、セシウムなどアルカリ金属
50uA/lm
←
100uA/lm
シリコン
150uA/lm
使用電圧
100V〜300V
高い
1,000V〜2,000V
非常に高い
5V〜30VDC
低い
感度
中庸
最も高い
1,000,000倍程度
相対的に低い
応答速度
最も速い
ピコ秒
速い
ナノ秒
相対的に遅い
マイクロ秒
ノイズ
少ない
(真空管の利点)
中庸
(増幅ノイズの影響)
相対的に多い
(固体素子の宿命)
ダイナミックレンジ
1:100
1:1,000
1:100,000
(リニアリティがある)
その他特徴
・真空管
・高い電圧は使用しない
・応答速度速い
・別途電源必要
・真空管
・高い印加電圧使用
・感度が非常に高い
・強い光や衝撃に弱い。
- 取り扱いに注意が必要。
・半導体
・低い電圧で使用
・感度も応答速度も遅い
・使い勝手が良い
光電素子の性能表 (この性能表は、傾向を示すための表です)
■ 光の記録原理 その2 - - - 2次元記録(ビデオ装置) (2008.01.02追記)
前項で述べたシリコンフォトダイオードを、とんぼの複眼のようにカメラ結像面に配置し、カメラレンズによって結像された光学濃淡像をテレビ信号として取り出すものが固体撮像素子CCDカメラです。テレビ技術は、比較的新しい技術ながら驚異的な速度で技術革新がなされて来ました。最近のビデオカメラやテレビカメラというと、CCDカメラが代名詞のようになっていますがCCDカメラができる前までは真空管を使ったカメラが主流でした。画像を見る受像機も真空管(ブラウン管、CRT = Cathode Ray Tube)が一般的でした。
フィルム(銀塩画像)による2次元画像については項を改める として、電気信号処理による2次元画像は、
1875年に端を発し(米国George R. CareyによるTelectroscopeの発明に始まります)、
1931年に電子撮像素子(米国Farnsworthによるイメージディセクタ管)が完成し、
1941年代に米国でテレビ放送規格(NTSC)が決まって大きな礎ができました。
電子画像は、今となっては主流となっているものの、1830年終わりに発明された銀塩画像に比べてその足取りは遅く、1990年頃まではテレビ放送という形での発展に重点が置かれて写真のように個人が扱うまでには長い道のりがかかりました。電子画像は、画質が悪いけれど即時性があるため、テレビ放送などの分野に特化していたのです。
電子カメラがフィルムカメラや映画カメラを凌ぐようになったのは2000年を越えてからでした。1981年に試作品として出品されたソニーのマビカ(Mavica)の品質は、銀塩フィルムに比べてお粗末なものでした(570x490画素、2インチ2HDフロッピーディスクにFM変調アナログ録画、アナログビデオ再生)。しかし、固体撮像素子の向上と記録媒体(CD、DVD、HDD、メモリスティック)の低価格化、再生装置(パーソナルコンピュータ)の高性能、低価格化によって、今は銀塩フィルムを凌駕するほどにデジタル画像は進歩しました。電子画像は、電子技術の成熟発展を待たねばならなかったようです。
▲ 2000年までの動画映像(Legacy video output) (2006.11.05)
画像はとてもたくさんの情報を持っていて、これを記録したり転送したりするためにはこれらの大量データを高速で処理する機器が必要です。デジタル処理は、データの細分化とそれにともなう高速処理の戦いでした。デジタルは、アナログの持つ周波数以上にならないとそれを凌駕できないという宿命を持っています。動画像は、1955年に出発したテレビの送受信の画質と再生速度(NTSCビデオ規格 )が一つの指針となっていました。デジタル画像は、テレビの画質と速度を凌駕しない限り普及できなかったのです。
静止画像においては、銀塩のフィルム画像が一つの指針でした。キャビネサイズに引き延ばされたフィルム画像と、インクジェットプリンタでプリントされた写真を見比べて、遜色がなくなった時点でデジタル画像がアナログ画像に勝ったと言えました。2006年11月時点では、デジタル動画もデジタル静止画もあまねくアナログ画像を凌駕しました。2000x2000画素の静止画像や、1000x800画素で30コマ/秒の動画像はアナログ画像を凌ぐ画質を持っています。
▲ 映像は撮像面で一度にとらえるが、読み出しは1本の信号線から出力する(Serial video Signal)
テレビ放送や家庭用のビデオカメラに使われている一般のアナログ映像信号の読み出しは次のようになっています。つまり、カメラレンズで結像された像は、カメラ内部の読み取り回路によって、左上から右下に順次なぞるような形で映像信号に置き変わります。従って、映像信号は一本の連綿と続くアナログ信号となります。実は、この連綿と続く1系統の信号であることが映像を電送する場合のキーポイントであり、放送電波として信号を送ることのできる原点だったのです。一連の巻き取り糸のような映像電気信号は、映像の記録(VTRの発明)にも便利でした。
映像信号(NTSC規格のビデオ信号 )は、0V〜1Vのアナログ信号であり、0V〜0.3Vは同期信号に割り当てられ、0.3V〜1.0Vを映像信号にあてています。暗い被写体は低い電圧であり、明るい被写体は1Vに近くになります。(ただし、最近の高画素デジタル素子や高速度撮像素子は1本の読み出し口から読み出すと速度が上がらないために複数の読み出し口から情報を取り出しているものもあります。)デジタル信号は、0V〜1.0Vの映像信号を8ビット濃度(256階調、カラーではRGB各8ビットで24ビット)に割り当てられました。
NTSCビデオ信号 については、別の項でも詳しく触れます。
▲ 撮像素子 - - -CCD(Charge Coupled Device)素子 (2004.10.24)(2007.12.23追記)
■ CCDの仲間
CCD固体撮像素子は、光学像を電気出力に変換する撮像素子の中で最も一般的なものです。映像の撮像素子は、CCDだけかと言うとそうでもなく、以下示す固体撮像素子が開発されました。
・ MOS(Metal Oxide Semiconductor)
- 1966年〜。CCDの対抗馬的存在の固体撮像素子。
消費電力が少ない。
・ BBD(Bucket Brigade Device)
- 1969年〜。バケツリレー素子。
松下が研究開発。
・ CID(Charge Injection Device)
- 1970年〜。電荷注入素子。MOS型とCCD型の折衷素子。
フィリップスが発表。
GE社が開発を継続していた。
・ CPD(Charge Priming Device)
- 1978年〜。呼び水転送素子。MOS型を基本構造とし、一部をCCD型とした素子。
松下、日立が研究していた。
・ CSD(Charge Sweep Device)
- 1983年〜。電荷掃き寄せ素子。
三菱電機が研究していた素子。
・ PCD(Plasma Coupled Device)
- 1972年〜。プラズマ結合素子。
NTTが研究開発をしていたX-Yアドレス方式の素子。
・ SIT(Static Induced Transistor)
- 1977年〜。静電誘導トランジスタ。
オリンパスが開発。
発想は東北大学西澤潤一教授。高感度。
・ CMD(Charge Modulation Device)
- 1990年〜。MOS型素子。
オリンパスが開発研究。
・ ISIS(In-situ Storage Image Sensor)
- 2001年〜。CCD型素子。
素子上にメモリ機能を置き100万コマ/秒の撮影を達成。
近畿大学江藤剛治教授開発。
こうした固体撮像素子を見ると、いろいろなメーカがお互いの特許をかいくぐりながらいろいろなアイデアを持ち寄って開発したことがうかがい知れます。
そもそもCCDに代表される固体撮像素子は、テレビカメラの世界では新しい撮像素子です。固体撮像素子が全盛を極める以前までは撮像管(電子管)が使われていました。撮像管によるテレビカメラはとても高価であり、一般市民が簡単に使えるものではありませんでした。撮像管は、放送局関係の人達だけが使っていたプロユースだったのです。
■ 映像信号の記録とCCDの発展
私の記憶では、テレビカメラは1940年代に発明されて1950年代の放送局の設立と無線放送の発展の中で放送局専用として使われたものであり、一般家庭で使われる代物ではなかったはずです。一般家庭では、テレビカメラをたとえ持ったとしてもこれを記録する録画機(ビデオレコーダ)がなかったのです。録画装置がない限りテレビカメラがあっても何の役にも立ちません。当時、アマチュアで動画の記録保存を行うには、機械が好きでお金に融通の聞く人たちが8ミリ映画フィルムを使った8ミリカメラを使っていました。
1970年代後半から発売された1/2インチビデオテープによるビデオテープレコーダによって、家庭にビデオカメラが浸透し始め、1980年代後半に発売された一体型ビデオカメラの登場によってホームビデオが市民権を得るようになりました。
ビデオカムコーダ普及にあたって、CCD固体撮像素子の果たした役割は大変重要なものでした。CCD固体撮像素子は、真空管撮像素子に較べて小型、堅牢、メンテナンスフリーで何よりも安価でした。このカメラが出る前の1970年代は、放送局に加えて産業用用途にそして学術研究用にITV(Industrial TV)という分野が発展し、CCTV(Closed Circuit TV)の分野も立ち上がって、テレビ業界の大きな発展を見ます。撮像管を使ったテレビカメラはその中で使われていたに過ぎませんでした。家庭まで浸透するには値段が足かせとなっていました。
■ CCD以前の撮像素子
こうしたテレビの世界で使われていたカメラの撮像管として、目的に応じてさまざまなタイプのものが開発されました。これらは、赤色領域の感度確保、高画質、高感度化が主な開発目的でした。
・ イメージディセクタ(Image Dissector) - 1931年、Farnsworthにより開発。
・ イメージオルシコン(Image Orthicon) - 1946年、米国RCA社が開発。
・ ビジコン(Vidicon) - 1950年。撮像管の代表的なもの。
・ プランビコン(Plumbicon) - 1963年。オランダ フィリップスが開発。残像が少ない。
・ サチコン(Saticon) - 1974年。NHKと日立が開発。
・ カルニコン(Chalnicon) - 1972年。東芝が開発。
・ ハーピコン(Harpicon) - 1985年。NHKと日立が開発。超高感度。
撮像管については別の項 で詳しく触れています。
これら撮像素子の中で、固体撮像素子であるCCDだけが何故広くゆきわたり、撮像素子の代名詞になったのでしょう。その理由は、CCD撮像素子が一にも二にも大衆マーケットである一体型8mmカムコーダを中心としたビデオカメラにあまねく採用されて、そこそこの画質と使い勝手の良さが認められ、大量供給による低価格化によって市場を席巻していったためです。
■ CCDの発展
CCDカメラは、米国ベル電話機研が開発し、日本のSonyが1970年代後半に市販化しました。ビデオカメラの眼として市販化するそもそもの発端は、日本の航空会社(ANA = 全日空)の要求からと言われています。堅牢な固体撮像素子カメラを航空旅客機に搭載し、離着陸時の機外の様子を客室へモニタする乗客サービスをしたい、という航空会社の要求をソニーが受け入れ開発に本腰を入れて市販化されたということです。当時は、画素数も少なくて画質が悪かったため、放送業界はもとより一般産業分野(当時、これを放送テレビと区別して ITV = Industrial Television と呼んでいました)でも受け入れ難かったのですが、振動、耐久性を重視する航空機搭載の強い要求が CCD 固体撮像素子を育て上げたと言えます。いずれにせよ取り扱いが簡単なことや、過度の光が入射しても素子を傷めないことから、開発当時は、放送局業界より一般産業界で着実に顧客をつかみ、感度、解像度、価格などを向上させていきました。そして現在では、放送局用カメラはもとより、ハイビジョンカメラや計測用カメラにあまねく利用されるようになりました。
CCDの成功は、以下の技術革新によったと言えましょう。
・取扱が簡単 - 低電圧で駆動、焼き付きなし(強い光が入射しても損傷しない)、振動や環境に強い。
・高画素化 - NTSC規格の解像力を凌ぐ高解像力。
・電子シャッタ内蔵 - 電子的に光量を制御可能。及び計測用として利用。
・高感度化(マイクロレンズ) - 照明装置を用いずに撮影可能。
・モジュールによる素子のパッケージ販売 - CCDファミリーの増加。
■ CCDのライバル
同時代、日立からもC-MOSタイプの撮像素子が開発され市販化されました。しかし、1980年代はCCD陣営に追いついて拮抗するまでには至らず、1990年に入って製造中止を余儀なくされました。しかし、その4-5年の後に、MOS型撮像素子の低消費電力の利点が見直され、デジタルカメラや携帯電話の需要を見込んで1997年、東芝によってさらに進化させたMOS型撮像素子が開発されました。現在では米国をはじめ、再び大きな市場に発展する勢いを示しています。皮肉なことに、MOSタイプのカメラが再び脚光を浴びたのは、米国航空宇宙局(NASA)の宇宙開発での要求、すなわち、低消費電力でコンパクト、そして取り回しの良い小型撮像素子開発要求があったことです。CCDはMOSに較べて桁が変わるくらいに多くの電力を消費しました。熱が対流によって逃げない宇宙空間では熱発生が致命的な問題となるのです。(詳細は、CMOSカメラの項目を参照下さい )。この要求が実を結んで、CMOS撮像素子が2000年代の主役に再度躍り出てくるというのも面白い巡り合わせです。
【CCD撮像素子の歴史】
CCD素子は、 1970年 に米国ATTベル研究所で、W.S.ボイル(Willard Boyle、1924.1〜)とG.E.スミス(George E. Smith:1930.5〜)によって発明されました。両氏は、CCD開発の功績で2009年ノーベル物理学賞を受賞しました。ボイル氏85才、スミス氏79才でした。
彼らは、1970年に『The Bell System Technical Journal』という機関誌にCCDの基本原理と8ビットのシフトレジスタの発表をしました。論文名は、「Charge Coupled Semiconductor Device」でした。当時、彼らはCCD素子をメモリの一環として開発したのであって、カメラの目として開発したわけではありませんでした。CCDという名前は、電荷をパルスによって送る方式(Charged Couple)に由来しています。これは、1980年代、CCDカメラと熾烈な競争を展開したMOS素子の開発動機とは好対照です。
MOS固体撮像素子の開発は、 1963年 、HoneywellのS.R.モリソン(Morrison)による「Photosensitive Junction Device」というフォトスキャナの発表に端を発します。CCDよりも7年も前のことです。これが1967年に、Westinghouseのアンダース、Fairchildのヴェクラー(Gene Weckler)、RCAのワイマー(Paul K. Weimer:1914 〜2005.01)などによってMOS型素子として発表されます。MOSは、フローティング状態のpn接合部に光の量に応じて蓄えられた電荷がスイッチング素子で吐き出されるという原理です。MOS素子の構造は、CCD方式に比べるとシンプルで作りやすい反面、各セルに蓄えられた電荷を取り出すのにトランジスタによるスイッチングで取り出すためスイッチングノイズが多く、これが画像に悪影響を与え(S/N比があまり良くなく)CCD転送方式に比べて大きなハンディキャップを背負っていました。しかしCCDに比べてシンプルで高速サンプリングが可能だったので、1990年代の高速度カメラにはMOS素子を使ったものが多く市販化されました(Kodak EM1012、Kodak HS4540、フォトロンFastcam Ultima、ナックHSV-1000)。
両者の固体撮像素子の熾烈な競争の中、1990年代はCCDに軍配があがりました。
CCD固体撮像素子(画像としての素子開発)は、 1971年 、ベル研究所のM.F.トムセット(M. F. Tompsett)によるフレーム・トランスファー方式のエリアセンサーの構想発表からスタートします。1972年にはベトラムが98画素、1973年にはシーガンが106 x128 = 13,568画素のCCD試作に成功します。1974年には、RCAのR.L.ロジャースが、NTSCテレビ標準方式 にのっとった320 x 512 = 16万画素以上のCCDを発表して画素を向上させていきました。
日本では1972年に、研究室レベルでソニーが8画素のCCDを作り電荷の転送を実証し、これをさらに8x8画素の64画素として「S」の字を撮像させたと言います。ソニーは、当時まだまだ問題の多かった固体撮像素子の画質を見る見る向上させ、1990年にはプロユースの撮像管を使った放送用テレビカメラを彼らが開発したCCDカメラで置き換えてしまいました。当時ソニーは、トランジスタで世界を唸らせる製品(小型トランジスタラジオ、小型テレビ受像機、テープレコーダ)を世に送り出していましたが、コンピュータメモリや集積回路では目立った実績を上げていませんでした。CCDは半導体製造技術でも特に高度な技術を要する素子です。こうした難しい製品の開発を成功させ、2000年にあってはカメラの目と言えばCCDと言われるくらいにカメラの代名詞となりました。現在は、ビデオカメラは言うに及ばず、デジタルカメラや放送局用のテレビカメラやハイビジョン用のカメラでさえCCDカメラに置き換わるようになりました。
■ CCDの基本原理 - シフトレジスタ
CCDという名前は、今でこそ一般名詞(カメラの代名詞)として一般の人にも認知されるようになりましたが、名前の由来がどのようにしてできたのかよくわからない不思議な名前です。「CCD」のそもそもの原理や構造を説明できる人は多くはないと思います。最初に発表されたCCDの構造と原理をわかりやすく説明すると以下のような概念になります。
CCDは、基本的に電荷を蓄えるための複数のセルを持っていて、電子回路によるシフト機構によって(電圧をタイミング良く上げ下げして、電荷を右方向に転送する仕組みによって)、順序よく電荷を次のセルに受け渡します。この方式がCCDの基本概念です。この方式によって蓄えられた電荷を時系列の時間情報として取り出すことができます。
CCDが発想された1970年当時は、トランジスタとIC技術の進展でコンピュータ技術が発展している時代だったので、それに伴う周辺機器の開発(特にメモリ開発)が活発に行われていました。CCDは、コンピュータメモリの一環として開発されました。CCD開発には、磁気バブルメモリ(magnetic bubble memory)に代わるメモリ装置という伏線がありました。磁気バブルは、1960年代にベル電話機研究所(Andrew Bobeck、1926.10.01〜)が開発した記憶装置で、1980年代までのコンピュータの大切なメモリ装置でした。磁気バブルメモリは、CCD開発に多大な影響を与えます。つまり、CCDは磁気バブルメモリの欠点を補うべく開発されたのです。しかし、この両者は、1980年初頭に開発された小型HDD(磁気ディスク)の成功によりコンピュータメモリの世界から姿を消すことになりました。1980年当時の磁気バブルメモリは、情報を読み出すのに1/1000秒のアクセス時間がかかり、保存する容量も1Mビットを作るのがやっとでした。磁気バブルメモリは、1Mビット(125kバイト)のデータを読み出すのに、8ビットパラレルで2分もかかるのです。1980年に登場した小型HDD(IBMが開発した ST-506)は、5Mバイトの容量を持ち、250kバイト/秒でデータを転送できました。これは、磁気バブルメモリの40倍の容量と250倍のスピードを持っていたことになります。磁気バブルメモリは、当時、富士通が熱心であり、彼らのパソコンFM-7、FM-8に記録装置として内蔵されていたそうです。CCDは、先に開発された磁気バブルメモリの性能を遙かに凌いでいましたが、どんどん進化していく小型HDDの性能を追い越すことができませんでした。当時の技術では、100万セル(1Mビット)のCCD素子を作るのが精いっぱいで、HDDには太刀打ちできなかったのです。
コンピュータのメモリとしての命が絶たれた磁気バブルメモリとCCDでしたが、CCDは光信号を蓄積転送できるという特徴が活かされ、「カメラの眼」として新たな分野で発展成長を見ることになりました。
【ソニー(SONY)のCCD開発話 - NHK『プロジェクトX』 2004.09.14放送より、一部、別文献を参考】 (2004.09.19記)(2009.01.03追記)
大企業のプロジェクトと言うのは、恵まれた環境の中で育てられて完成するものだと私自身は思っていました。日本のCCDカメラの開発も、ベル電話機研究所の発明を睨んで会社を上げての取り組みだと考えていたのです。しかし、NHKのテレビ番組『プロジェクトX』(2000年3月〜2005年12月)を見て、CCDカメラ開発の発端は閑職とも言えるべき立場にいた若いエンジニア(越智成之氏、東京工業大学電気工学卒、1962年入社)が、会社の意向とは関係なしに自発的に海外の文献を漁って、片手間に(しかし当人にとっては真剣に)手作りしたことに始まったことを知りました。彼は中国生まれで、少年時代手作りの真空管ラジオに熱中し、アンテナも自作して電波の弱い放送を感度良く受信していたそうです。根っからの電気少年でした。
希望に胸ふくらませて入社されたソニーでしたが、配属先はスピーカーの性能を検査する部署だったそうで、毎日オシロスコープとにらめっこして波形データを記録する日々だったそうです。期待した仕事とは全く違った部署の配属となり、ジリジリとした焦りにも似た日々が続いた、と、越智氏は番組で述懐されていました。1962年に入社されて、ベル電話機研究所の文献が出される1970年までの8年間、ある意味の下積みをされていたのでしょうか。彼は、1961年に横浜保土ヶ谷区に建設された「ソニー研究所(現ソニー中央研究所)」に在籍されていたことは確かなようです。とすると、研究所の中でもあまりパッとしない研究職に就かれていたことになります。
越智氏は、外国の文献を読んでCCDの事を知り、興味を覚えて独学でCCDの研究に取りかかります。1970年12月のことでした。当時越智氏は、同じ固体撮像素子であるMOS型素子も研究していたそうです。越智氏は、最初、CCDを遅延メモリの一環として研究を始めましたが(CCDの発明そのものが半導体メモリとしての使い方を考えていた)、撮像素子として使えそうだという着眼をしました。これが非凡な所です。彼の研究は、自分で始めた事なのでもちろん社内のバックアップも何もありません。その手作り製品は、8x8画素の64画素を持った撮像素子で、越智氏はこの撮像素子で『S』の字を撮影し(SONYの「S」なのでしょうか)、ノイズだらけながら文字を浮かび上がらせました。入社11年目(1972年、ベル電話機研の研究者が論文を発表した2年後)のことでした。この手作り製品を、研究所にやってきた岩間和夫副社長(当時、岩間氏は中央研究所の所長を兼任、1976年より1982年まで社長)が目にして、越智氏の人となりをすぐさま見抜いて大抜擢しました。5ヶ月後の1973年11月には、研究員やプロセスのすべてを各工場から中央研究所に結集させ大きなプロジェクトとして発足させました。
当時(昭和48年、1973年)のソニーの会社事情と言えば、シャープが開発した4ビットマイコン内蔵の電子計算機の爆発的な売れ行きのあおりを受けて、6年前の1967年(昭和41年)に開発して主力製品となっていた電気計算機「ソバックス = SOBAX = Solid State Abacus、電子ソロバン」の売れ行きがぱったり止んでしまった時期でした。創業以来の危機に直面した時期だったそうです。岩間副社長は、そんな時期にソニーアメリカから呼び戻され再建を託されます。彼は、伝説的なトランジスタ技術者として社内外に知れ渡った有名な人だったそうです。トランジスタが発明された当時、増幅素子としてラジオに使うにはノイズが多く、補聴器以外に使い道のない電子素子という定説を覆し、トランジスタの性能を向上させ、超小型のトランジスタラジオ開発の成功に導いたのが若き電気エンジニアの岩間氏だったのです。彼が副社長として日本に戻った当時、ソニーは経営のどん底にあり、新しい核となる商品が咽から手が出るほど待ち望まれていた時期でした。岩間副社長(ソニー中央研究所所長)は、核となる商品の一つとして越智氏が自発的に進めたCCDの開発を一大プロジェクトとして指定したのです。
彼らのプロジェクト目標は、8ミクロンの窓を持った20万画素(525画素x381画素)の撮像素子の開発でした。この最終製品の前段階として、昭和51年(1976年)に7万画素素子を開発し、引き続き12万画素の開発を続けていきます。製品開発は、歩留まりの向上、ゴミとの戦いだったと言います。当時の素子の歩留まりは1/3,000以下だったそうです。12インチのウェハーから8.8mm x 6.6mmの素子がおよそ1,000個程度できます。歩留まりが1/3,000ということは、3枚のウェハーからたった1個のCCD素子しか作れないことになります。彼らが手がけるCCD開発のプロジェクトは、彼ら自身にCCDの製造技術がなかったために一から出発をせざるをえず、完成させるまでに200億円の投資を行ったそうです。5年の実用計画に対して6年3ヶ月を要し、最初の顧客である全日空に初号機を納めます。
社長の岩間氏は、製品も完成していない時に全日空に開発途上のCCDカメラを売り込み、注文を取ってしまいました。目標があった方が拍車に開発がかかるだろうという社長の思惑があったそうです。この件は、別の文献では全日空側が商品に対してすごい乗り気で、ソニーを説き伏せたような紹介がありましたが、テレビ番組ではソニー側から強力なお願いをしたように紹介されていました。いずれにせよ、全日空も空の路線拡大に競争会社と激しいしのぎを削っていたので、目新しいサービス商品が欲しかったのだと思います。そのCCDカメラが、1年の納期を経て1980年(昭和55年)6月1日に全日空のジャンボジェット機に搭載されました。納品したカメラは、12万画素で、価格は1台30万円。13機のジャンボ機にコックピットと前後輪脚にそれぞれ1台ずつ取り付けられました。合計52台の納品だったことになります。
岩間社長は、その3年後の1983年、ガンのため63才の生涯を閉じます。全日空のジャンボ機に搭載され、世に初めて固体撮像素子が出てこれからという矢先でした。ソニーは、この成功の後、2kgの重量を切るレコーダ一体型カメラ(カムコーダ)の開発に乗り出します。1985年1月には、最初の8ミリビデオカメラCCD-V8を発表しました。画素は25万画素でした。これでソニーは市場を独占することになります。1987年にはカメラの画素を38万画素に上げました。
1989年に発売した「パスポートサイズ」のHandycam TR-55は、2/3インチ25万画素のCCDで、これにはオンチップ・マイクロレンズが取り付けられていました。これは直径7umの世界最小のレンズで、このレンズをつけたカメラは70年代半ばの試作機から比べ20,000倍の感度向上を達成しました。岩間社長はその成功を見ることなく他界されました。
【越智成之氏の書籍 - 「 イメージセンサのすべて 」(工業調査会、2008年10月15日初版)】 (2009.01.03)
越智氏自ら書かれた「イメージセンサのすべて」に、CCD開発当時の様子が詳しく書かれてあります。これを読むと、上記の記述とはいささか異なっている箇所が見受けられます。その違っている部分を少しだけ紹介します。
入社当時の越智氏の仕事 - 越智氏は、トランジスタの研究を行いたくて、当時、トランジスタ(バイポーラ)で世界的に技術力の高かったソニーに入社されました。そこで、エサキダイオードに代表されるようなトランジスタの研究をするつもりであったそうですが、企業では、基礎研究よりも製品に結びつく研究が優先されるため、そうした研究につくことはできず、MOS の研究部門に配属されました。MOSは、米国RCAが開発した集積トランジスタの一種類で、ソニーが開発していた電子計算機(SOBAX)の回路に使われていたものの、ソニー内部ではMOSを主力に育てる機運がなかったそうです。SOBAXも、1973年に市場から撤退します。MOSの研究をしていた越智氏は、その応用が利くCCDの開発に目を留めました。
闇研 - CCDの基礎研究は、当初、会社のお墨付きをもらえない自分勝手な研究(いわゆる闇研)と一般的にとらえられていますが、実は会社からの認可をもらって、研究室長や研究所所長には定期的な報告をされていたそうです。ただし、研究費はつかなかったそうです。当時のソニー中央研究所は、研究者の自由な研究活動の裁量が認められ、若々しく闊達な雰囲気があったのは事実だそうです。
死の谷の10年 - CCDの開発は、製品化にこぎ着けるまでに、大変な努力があったそうです。新しい技術の発想があって(CCDの開発)、これを実用レベルに達するまでの製品化には、発想の10倍から100倍の技術が必要とされ、10年間も地下に潜って黙々と問題点を潰していく作業が繰り返されるそうです。CCDの製品化が思うように行かない途上で、日立や日本電気との共同開発の話もあったそうです。そこまで行き詰まりながら、会社を上げた一大プロジェクトに指定され、CCDの製品化が進められたとその本で紹介されていました。
【CCD素子のキーワード】 (2007.04.09)
CCDの性能を理解するには以下のキーワードが不可欠です。
下の図が固体撮像素子の模式図です。固体撮像素子は、精度の良いシリコン平面板に微細加工を施してシリコンのホトダイオードを作りあげ、一つ一つ埋め込んであります。このホトダイオード1つを1画素(または1ピクセル)と言っています。
▲ 画素(pixel):
画像を構成する単位です。デジタル画像は、すべて画素(がそ、ピクセル、pixel)のモザイクによって構成されています。画素が多いほどきめ細かい画像が得られます。もちろん、画素の内容(白黒なら濃度 = 8ビット、12ビット、16ビット、カラーなら色情報)が多ければより一層きめ細かい画像が得られます。従来は、640画素x480画素あれば十分な画像と言われましたが、最近では1000x1000画素を越える画像が一般的になっています。
▲ 画素サイズ(pixel size):
1画素の大きさです。1画素の大きさにはこれと言った規格がなく、メーカがまちまちに規定している感じを受けます。たとえば、あるCCDでは12x12umであったり、9.4umx9.4umであったり7umx7umであったりという具合です。画素サイズが小さい場合の利点は、顕微鏡などの撮影の場合、高額な顕微鏡をあつらえて拡大撮影したときに、CCDの画素サイズが小さいとキメの細かい画像を得ることができます。また画素サイズが小さいと、限られた寸法の撮像素子面上にたくさんの画素を入れ込むことができたり、同じ画素数であるならば小さい撮像素子にすることができます。これは製造メーカにとって、製造上(歩留まりの観点から)有利です。画素サイズが大きいメリットは、受光部が大きいので感度が良くなることです。高速度カメラや高感度カメラには画素サイズが大きいものが使われ、16umx16um、25umx25um、40umx40umのものが作られています。
なお、画素サイズは正方形のものが計測用では一般的ですが、放送用には縦長の画素サイズが使われています。こうしたカメラを計測用に使う場合には注意が必要です。
▲ イメージサイズ(image size):
1画素のサイズ(Ph、Pv)が決まって画素数(Mh、Mv)がわかっているとその掛け合わせでイメージサイズ(Ih、Iv)がわかります。
Ii = Pi x Mi ・・・(Rec -2)
i = h、v (横方向、縦方向)
イメージサイズは、その大きさを表す場合、一般的に1インチ型、2/3インチ型、1/2インチ型、1/3インチ型という言い方で呼び、この呼称でだいたいの大きさがわかるようになっています。この呼び方は対角線の長さではなく、電子管時代の呼び径を踏襲した言い表し方です。大きいイメージサイズの撮像素子を使うメリットは、画素サイズを大きくすることができるためたくさんの電荷を蓄えることができ、相対的に感度の高い素子とすることができます。また、カメラレンズも作りやすく性能の良い通常のレンズが流用できます。イメージサイズが小さい素子のメリットはコンパクトなカメラができる可能性があることと、製造上、同じ大きさのウェハーからたくさんの撮像素子が出来上がるのでコストが下がり安価になることです。
私のように映像を計測手段とした仕事に従事していますと、固体撮像素子はできるだけ大きいものがうれしく感じます。撮像素子が1インチ程度のものですとニコンFマウントのニッコールレンズが使用でき、広い範囲を撮影する際にも焦点距離の短いレンズを用意しなくてすみ、また画素も大きいため感度の高い素子となります。レンズメーカも小型撮像素子用のレンズを作るのは難しいと言っています。
例えば1/3インチサイズ(4.89mm x 3.66mm)のCCDでは、768(H)x 494(V)画素のものが出回っていますが、この素子の1画素当たりのサイズは6.37um相当となります。この値はすごい意味をもっています。結論から言いますと、小さくて高解像力撮像素子を満足するレンズ製作は理論的に極めて困難です。その理由は英国の物理学者レーリー(Reyleigh)が導き出したレーリーの回折限界で説明されるように、光の特性上結像面に光がうまく結ばずに光が回り込んでボケがでてしまうというものです。レーリーの導き出したボケ量(許容錯乱円)dは、以下の近似式で表されます。
d = 2 x λ x F ・・・(Rec -3)
d:許容錯乱円
λ:波長
F:レンズ絞り
この式によりますと、λ = 550nm、F = 5.6でd = 6.16umとなり、レンズをF5.6以上に絞り込むとレンズが撮像素子に負けてしまいます。従って、今後はむやみに細かな画素を持った小さな撮像素子は出てこないように思われます。ICの製造技術は驚くほど進歩して小さな画素の製造など簡単に行えるようになりました。しかし、レンズが悲鳴を上げています。撮像素子のイメージサイズが大事な理由の一つがこのレンズとの相性なのです。
▲ 受光サイズ:
実際に光を受けるフォトダイオードの大きさです。1画素サイズそのままの大きさが受光部になるものはフルフレームトランスファ型CCDだけで、他の多くのCCDは転送回路などが配置されるため受光サイズは小さくなります。
▲ 開口率(fill factor):
1画素面は全てを受光部としているわけではなく画素の中のある部分をホトダイオード部としているため撮像素子に入射する光をすべてホトダイオードで受けられるわけではありません。この受光部面積と、素子面積の比を開口率(Fill Factor)と呼んでいます。CCD撮像素子は、数種類のタイプのものがありますが、その中の最もよく使われているインターラインライントランスファ型CCD(電子シャッタ内蔵のCCD)では、同一平面内に受光した電荷を電気信号として取り出すための転送部を配置しなければならないために、開口率が小さくなります。フレームトランスファー型CCDは電荷の転送を画素を使って転送するために、つまり素子上に電荷を転送する専用の道がないために開口率を100%にすることができます。解像力を述べるとき、画素数よりもこの開口率が大きく影響を及ぼすことがあります。
▲ 受光電荷容量(dwell capacitor):
1画素に光を蓄えることができる能力を受光容量とか受光電荷と呼んでいます。当然、画素サイズが大きいものや開口率が大きいものほど受光電荷量が大きくなります。 この受光容量に関してはCCDカメラ素子は色々なタイプのものが出回っていてそれぞれに特徴があって簡単に言い表せないのですが、フレームトランスファタイプのCCDカメラで電子冷却を備えている素子ほど受光容量は多く、インターライントランスファ型のように受光面積が小さいものほど受光容量は小さい傾向にあります。この受光容量の度合いは画像の濃度情報に影響を与えます。受光容量の大きいものは16ビット(65,500階調)のものがあり通常は8ビット(256階調)です。シリコンによるフォトトランジスタは、基板の熱によって電荷をランダムに発生してこれがノイズとなります。光によって蓄えられた電荷と熱電子によって運び込まれるノイズによって信号と雑音信号の比(S/N比)が決まりますが画質の良いCCDはこのS/N比がよくノイズに影響されないキチンとした信号成分を取り出すことができます。撮像素子のノイズは熱電子の他に、アンプ雑音(受光部で検出した光電荷を増幅するときに生じる初段トランジスタ発生ノイズ)、リセット雑音(読み出しのリセットをする際に発生する雑音)、光ショットノイズ(入力光そのもののノイズ)などがあります。物理学用で使われるフレームトランスファ型のCCDは16ビットのものが多く、高速度カメラ用には8ビットのものが一般的です。
▲ 量子効率(Quantum Efficiency、QE):
1つの光子(hν)で1エレクトロンの電子が発生することを量子効率100%と言います。計測用CCDなどで、光子エネルギーが論議される分野では、重要な性能要素です。
詳細は、 ■QE(Quantum Efficiency、量子効率) を参照を参照してください。
↑にメニューバーが現れない場合、
← クリックして下さい。
【CCD撮像素子の種類】
CCD型固体撮像素子は、いろいろな進化、発展を遂げてきました。
現在の所、受光方式、転送方式の違いによって以下の5種類のものがあります。
I. インターライントランスファー型(IT-CCD) - 現在、一般的なもの
II. フレームインターライントランスファー型(FIT-CCD) - 放送局用として使われているもの
III. フルフレームトランスファー型(蓄積部なし)(FF-CCD) - CCDの初期のもの
IV. フレームトランスファー型(蓄積部あり)(FT-CCD) - フレームトランスファ型の改良版
V. 全画素読み出し(プログレッシブスキャン)型 - インターライントランスファの改良型(インターレースを行わないもの)
(ただし、これは1.のIT-CCDのジャンルに組み入れられている)
8mmビデオカメラやビデオカメラでは、ビデオ信号に変換しやすい1.のインターライントランスファー型CCD(IT-CCD)が使われ、放送局用のビデオカメラには2.のフレームインターライン型CCD(FIT-CCD)が使われています。400万画素などのデジタルカメラや計測用の高解像力カメラには3.のフレームトランスファ型CCDカメラ(FF-CCD)が使われます。
最近は、プログレッシブスキャン型CCDカメラ (Progressive Scan、全画素読み出し方式CCDカメラ) が開発されて、放送規格にとらわれないデジタルカメラやハイビジョンカメラに多用されるようになりました。上図にCCD素子の概念図を示します。
CCD撮像素子の特徴は何れのタイプも受光した電荷を一つ一つバケツリレーのように転送していく方式です。
■ フルフレームトランスファー型CCD
III.に示したフルフレームトランスファー型CCD素子は、上の図を 見てもおわかりのように構造が比較的シンプルであり受光部も大きく取れ、撮像素子面に占める受光部(開口率)が大きいのが特徴です。開口率が大きいというのは、被写体の空間情報に連続性が得られ、被写体情報に欠落がない画像が得られます。受光部が大きいのは、光をたくさん受けますので感度が良くなります。また構造がシンプルなのでたくさんの受光部を作ることが可能で、1024x1024画素とか、2048x2048画素、4096x4096画素のCCDが開発されています。計測用のCCDカメラにはできるだけ開口部が大きく、明るく、S/Nが良く、高解像力で、ダイナミックレンジが大きいカメラが求められますので、このタイプのものが使われます。天体観測用のCCDカメラもこのタイプのCCDカメラが多いようです。
フレームトランスファ型CCDは、CCDの中では最もシンプルな構造で製造も簡単ですが、インターライン型のように受光した電荷を転送する転送部を別に設けていず、受光部がそのまま転送部の役割も果たすので、受光された電荷は垂直の画素(受光部)を跨ぎ(またぎ)ながら転送されていきます。このときにカメラレンズを通して光が入り続けると転送中に電荷が増え、結果的に像が縦方向に流れたようになります(スミア現象 )。従って、フレームトランスファ方式では受光が終わったら撮像面をメカニカルシャッターのようなもので遮光し転送を行うか、蓄積時間時にストロボのような短時間発光をする照明を用いてシャッタリングをする必要があります。
以下に、わかりやすいフレームトランスファ型CCDの受光・転送メカニズムを説明します。
■ フレームトランスファ型CCDの受光・転送メカニズム説明 (2007.03.28)(2007.09.01追記)
上図に、フレームトランスファ型CCD撮像素子の受光メカニズムを概念図として示します。
光を雨粒と見立てました。
光を電荷に変えて転送するメカニズムをバケツリレーに見立てました。
FT(フレームトランスファ)は、CCDの最初のタイプです。
構造がシンプルなので、CCDの仕組みを理解するには一番良いタイプだと思います。
現在のCCD素子はこのタイプのものとは違いますが、基本的な考え方は同じです。
また、実際のCCDは、上の模式図とは違って、レンズで受光し光電変換した電荷を転送する方式となります。
ですが、ここでは便宜的にメカニカルな機構に置き換えて説明します。
【模擬図の説明】
CCDは、光の雨を受けるバケツ(画素)がたくさん配列されたものと見なすことができます。
バケツが512x512個並んで雨を受けていることを想像すれば良いでしょう。
バケツが大きければたくさんの量を溜めることができます。
また、長い時間をかけてバケツをかざしていれば、相当な量を蓄えることができます。
長い時間をかけてバケツをかざすことは、カメラの露出時間を長く取ることを意味します。
【受光 - 光の雨】
バケツが光の雨を受けているときは、バケツをリレーする機構部は停止しています。
ずっと光の雨を受け続けています。
光の雨を受けるバケツには実は少々問題があって、長い時間受けているとバケツで受けた光の雨が漏れ出たり、回りのバケツやリレー機構部から水が漏れ入ってきます。
漏れる度合いは、バケツ(CCD)の大きさや性質によって違いますが、通常ですと1秒程度で現れます。
これはCCD用語(トランジスタなどの固体素子)では熱ノイズと呼んでいるもので、本来の受光による光量電荷ではなく、画像に悪影響を与えます。
光の雨が非常に微弱ですと揺らぎとよばれる特殊な光の性質によりショットノイズ というものも現れます。これはフォトンを扱う領域で現れます。
光の雨による電荷(signal)と漏れ入る電荷(noise)の量は、計測カメラなどでは公表されていることが多く、S/Nという言い方で示されいます。
S/Nが40dBですと、ノイズが信号に対して1/100であることを示しています。
60dB程度の性能があれば1/1000(1:1000)であるので、とても優秀なバケツ及び送り機構であると言えるでしょう。
また、別の計測カメラではこの不純成分をダークカレントノイズ(暗電流ノイズ、dark current noise
)という言い方で表し、2e-/pixel/sというような表記がなされます。
これは、1ピクセル、1秒当たり2エレクトロンノイズが入ることを示しています。10秒露光すると20エレクトロンの電荷が貯まることになります。
【バケツの種類】
さて、バケツですが、バケツには光の雨を受けるものと、光の雨は受けずにバケツリレーを担って受光した光の雨を受けてそれを運ぶものの二つがあります。
前者は画素と呼ばれているものであり、後者は水平転送部と呼ばれるものです。転送部は垂直転送部と水平転送部の二つがあり、整然とバケツリレーを行います。
垂直転送部は、初期の頃のものは受光バケツが行っていました。受光と転送の二つの機能を受け持ちます。
これが今回説明してるものです。
水平転送部は、右の図では左端の少し大きめに描かれたもので上に蓋が乗っているものです。
この模擬図では、垂直転送をメインに描き表しているので、水平転送のセル(バケツ)は一つしか描かれていません。
しかし、実際のところ水平転送部はこの図から見て奥行き方向に水平方向分の画素列数だけ転送用のバケツがあります。
【フレームトランスファ】
受光が終わると、CCDは画像を転送するプロセスに移ります。
この時、多くのフレームトランスファ型CCDでは撮像素子の前をメカニカルシャッタで遮光します。
なぜなら、フレームトランスファでは光の雨を受けたバケツそのものを使ってバケツリレーを行うので、雨よけをしないと、バケツリレーをしている間にも雨が入ってきてうまくないからです。
【水平転送の仕組み】 まず、最初に水平転送部(左図の一番上の図、左端)のバケツが下がります。
光の雨を受けたバケツからのリレーを行いやすくするためです。
水平転送部のバケツが下がったら蛇口機構部(遮断板)が下がってバケツの底に設けられている排出孔から光の雨に相当する電荷が開け渡されます。
【バケツの昇降】
バケツが上がったり下がったりする仕組みが実は、フレームトランスファの真骨頂です。
これは、実際のCCDでは、電位を上げたり下げたりしてこの機能と同じことをしています。
パナマ運河の水門を開け閉めして水位を上げたり下げたりして船を運航させるのを想像すれば良いかと思います。
CCDの原語であるCharge Coupled Device のCharge Coupled というのが、実はこの電圧の上げ下げによる光量電荷の転送を意味しています。
【転送の仕組み】
水平転送部に電荷を開け渡した1番目(左端の水平転送部のセルから数えて右方向1番目)のバケツが空になると、バケツは下がります。
1番目のバケツが下がるのを見計らって、2番目のバケツの蛇口機構部(遮光板)が下がり、電荷が1番目のバケツに移ります。
2番目の電荷が移し終わると、以下同様に、次のバケツの電荷を受け取って、順繰りに電荷を若い番号のバケツに移し替えて行きます。
垂直画素のバケツの電荷がすべて1画素分若いバケツに移し替えられると、1番目のバケツは水平転送部に明け渡すタイミングを見計らいます。
と言いますのは、水平転送部は垂直転送部から下りてきた1水平画素分の電荷を休みなく出力段に送り続けていてとても忙しいからです。
例えば、512画素(水平)x512(垂直)のCCDがあったとすると、右に示した垂直転送部は512列水平に並ぶことになり、それぞれの1番目の画素が512個同時に水平転送部に移ります。水平転送部では、512回バケツリレーによって電荷を転送します。
水平転送部が転送している間に、垂直転送部では上で示したような機構によって1番目のバケツに次の電荷が来るように準備します。
512x512画素の場合には、垂直と水平の画素数がちょうど同じなので、垂直転送部の初期段階は同じ画素数となります。
しかし、転送の終わりになってくると垂直成分に残っている画素が少なくなってくるので、短時間で垂直転送部から水平転送部に移す作業が終わり待ち時間が多くなります。
【転送のタイミング】
フレームトランスファ機構を見てみると、一種のオートメーション工場のようです。
古い言い方をすればベルトコンベア工場のようです。
転送部は絶えずバケツが上下していて、蛇口機構でバケツの中身を転送するかどうかのタイミングを図っています。
CCD撮像素子は、このようなベルトコンベア機構と同じような電子回路があって忙しく立ち働いているのです。
忙しく立ち働くというのは電気をたくさん食うことにもなります。
絶えずベルトコンベアが動いているのでそのための駆動電源が必要になるのです。
CCDカメラから電荷を取り出す場合、デジタル回路ではクロックによって理路整然とバケツリレーを行っています。
例えば、100kHzのクロックで512x512画素を読み出したとすると、1クロックに1画素の転送を行いますから、
512画素x512画素 / 100,000 Hz = 2.62秒 ・・・(Rec -4)
1枚の画像を読み出すのに2.6秒かかることになります。
クロックを1MHzにすれば、0.26秒となります。
クロックを速くしてバケツリレーを速く行わせると、これは容易に想像できることですけれど、バケツ内のデータが暴れて飛び散ったり他のバケツに入り込んだりします。
つまり画像の画質が悪くなります。
CCDは、電子制御によってデータ転送を行っているとは言え、一般のバケツリレーと同じような現象が起きます。
従って、貴重な画像データをきれいに送るには、慎重にゆっくりと送らなければなりません。
その意味で、天体観測用のCCDカメラなどは、転送に1分程度の時間をかけてゆっくりと転送をしています。
フレームトランスファ型CCDでは、高速データ転送が難しい理由がこれで理解できると思います。
またこのタイプでは、受光が終わって転送を行う際に遮光をしなければ余計な光が紛れ込んでしまいます。
メカニカルシャッタを素子に付けなければならないという点においても、高速撮影が苦手なことが理解できます。
従ってこのタイプでは、5 - 10コマ/秒程度の撮影が最大となります。
■ 蓄積部を持つフレームトランスファー型CCD
IV.の蓄積部を持ったフレームトランスファー型CCDは、III. の蓄積部なしのフルフレームトランスファー型CCDに比べて蓄積部への転送を速く行うことができます。この機能をもたせたのは、CCDの特徴の一つであるスミア(スメア) を除去する目的がありました。蓄積部は、アルミの遮光幕で覆われているので、蓄積部から水平転送部へ送る時間をゆっくりにしても外部からの余分な光を十分に遮ることができます。したがって、このタイプでは、フルフレームトランスファ型CCDで必要であったメカニカルシャッタの装備は必ずしも必要でなくなり、30コマ/秒の撮影が可能になりました。ただし、このカメラの場合、縦方向成分の500画素から1000画素程度を一気に蓄積部に転送しなければならない関係上、これが転送時間の限界となっています。転送のタイミングは、カメラが受光を終わって読み出しを始める垂直ブランキング期間に転送する事が多く、この期間がだいたい1ms〜2ms(1/1,000秒〜1/500秒)です。この時間では、強いスポットが被写体にある場合に依然としてスミアが出てしまう可能性があります。
いずれにしても蓄積部のあるフレームトランスファ型CCDの転送は、それほど速く機能させることができません。蓄積部のあるフレームトランスファ型CCDは、撮像素子の半分が遮光膜で覆われているので外見から一目でそれとわかります。CCD素子の初期の頃には、このタイプのものが作られましたが、スミアが現れるのでインターライントランスファ型CCDの完成とともに作られなくなりました。
■ インターライントランスファー型CCD
I.のインターライントランスファー型CCD(IT-C CD)は、CCDの代名詞とも呼ばれる代表的なものです。このタイプのCCDは、「電子シャッタ」が行えるという画期的なものでした。もちろん開発の目的は、電子シャッタではなく、CCDカメラの特徴であるスミア(スメア) 低減の目的で開発されました。電子シャッタは、VOD(Vertical Overlfow Drain) という機能を追加することで完成します。
インターライントランスファー型CCD は、歴史的に見ると最後の方に開発されたもので、1986年には、露出時間をサブミリ秒まで制御できる電子シャッタ機能が付加されました。シャッタ機能は、我々計測屋にとってはとても好ましい機能です。通常の市販のCCDカメラでは1/10,000秒(100us)程度のシャッタ機能が設けられ、計測用のCCDカメラでは1/1,000,000秒(1us)から0.1us(100ns)のシャッタ機能を持つものも市販されています。
CCDカメラを市販化しようとした1980年代前半は、放送規格(NTSC規格) がテレビ規格の標準でしたから、これに準拠させようとして、すなわち525本の走査線で、30枚/秒の撮像ができるように設計が行われ、そして改良につぐ改良を経て良好な製品ができるようになりました。インターライントランスファー型CCDは、そうした高速取り込み(30フレーム/秒)ができるものとして開発されました。
インターライントランスファー型CCDの撮像原理は、【CCD撮像素子の撮像、転送原理】 で詳しく触れています。
このタイプのCCDから派生したプログレッシブスキャン型CCDカメラ (インターレース方式ではなく全画素を一気に読み出す方式のカメラ)が、工業用、計測用、コンシューマー用のデジタルカメラに受け入れられるようになっています。
当初、2/3インチから始まった撮像面サイズも、放送局用のCCDカメラは別として、1/2インチ、1/3インチと小型化が進み、現在では1/4インチが主力製品となっています。画素数も、1982年当時は20万画素(480V x 400H)であったものが、100万画素を越えるものが市販化されるようになりました。1画素の大きさも、発売当初は、13um x 22um程度でしたが、5um x 5um以下のものまで製品化されるようになりました。
■ フレームインターライントランスファー型CCD
II.のフレームインターライントランスファー型CCD( FIT-CCD) は、インターライン型でありながら蓄積部を兼ね備えたCCDであり、初期のインターライン型よりさらなるスミア(スメア) 現象防止のために開発されました。テレビ放送などで、夜間撮影で街路灯や車のヘッドライトの強いスポットがカメラに入ると上下に縦の輝線が走る現象を見られたことがあるかと思いますが、あれがスミア現象です。もっともこの現象は2000年前半頃までの話で、最近ではほとんどこうした現象は見られなくなりました。この不具合を持った放送局用のカメラはもう使われていないということです。携帯電話についているカメラや安価なデジタルカメラには現在でもこの現象が現れることがあります。この不具合は、画像を垂直転送部で転送する場合に1/60秒かけて転送するので、その間に強い光の迷光が転送部に入り込んでそのためにおきる現象です。この現象をおさえる手だてとして、垂直転送部に留まっている時間を少なくして速やかに蓄積部に移す方式が考えだされました。それがフレームインターライントランスファ型CCDです。通常のインターライン型CCDは、16.67ms(1/60秒)で転送を完了しますが、フレームインターラインタイプのものは240us程度にすることができ、1/69.4倍(1.4%)に時間を短縮できるので、転送中に光が当たるのを短くすることができます。フレームインターラインは、このようにスミア低減に効果があり、高級CCDカメラ(放送局用CCDカメラ、ENG = Electronic News Gathering カメラ)に採用されています。放送局用カメラは、現在2/3インチのFIT-CCDが使われ、画素数が40万画素から60万画素が使われています。
■スミア/スメア(smear): (2007.04.09追記)
スミアとは、CCD撮像素子に起きる特有の現象で、光の漏れ込みによって画像の明るい点を中心に画像縦方向に縞状の強い輝線が走るものです。スミアの発生は、受光した電荷の垂直転送を行う際に順送りに電荷を転送することに起因しています。インターライントランスファー型CCDでは、垂直転送部に遮光処置を施して、入射光の影響が極力出ないように作られています。しかし、それでも100%完全というわけにはいきません。現実には受光部と垂直転送部の境界部分で遮光が完全でなかったり、撮像素子面で光が多重反射して側面から光が侵入したり、遮光幕も完全ではかったりとわずかな光の混入は避けられないのです。
シャッタ機能を使って非常に短時間のシャッタを働かせたり(これは相対的に受光部に入る光が強くなることを示しています)、感光部の一部に輝度の高い部分がある場合、遮光を施している垂直転送部にもわずかですが影響が出てきます。通常のインターライントランスファ型CCDは、垂直転送部を1/60秒かけて画像を転送しています。つまり転送部には最大16.67ms時間分電荷が留まっていることになります。たとえ電子シャッタ機能によって1画素に1/10,000秒(100us)の蓄積を与えても、転送部で16.67msの足止めをかけられるため、光の漏れが0.01%程度あったとすると、以下のような計算によって、
0.01/100 x 16,667/100 = 0.0167 ・・・(Rec -5)
見かけ上、1.67%もの余分な光を拾ってしまいます。これが10usのシャッタ時間だと16.7%、1usのシャッタ時間だと100%を越えてしまう、つまり露光時間に得た光量より転送時間で入射した光量の方が多くなってしまう計算になります。
画面の中にスポットのような明るい輝度の被写体がある場合も同じような現象が起きます。明るい輝度のものは100%近い飽和電荷量でセル(画素)に電荷を蓄えます。これがインターライントランスファー型CCDで転送部に移されても読み出し期間中わずかながらも遮光漏れが生じると、本来あるべきハズのない部分に光が被るようになり、視覚上無視できない像となって現れてしまいます。初期に作られたCCDには、スミアを持ったものが多くありました。現在のカメラはスミア対策を施してあるので、よほど安価なCCDでない限りスミアを認めることはなくなりました。しかし、極限的なカメラの使い方をするとスミアが現れます。以下にその参考例を示します。
右の写真は、計測用のCCDシャッタカメラ(インターライントランスファ型CCD)で撮影したサンプルです。白熱電球のような非常に輝度の高い被写体を電子シャッタを使って撮影する場合、1/1000秒程度までであれば特に画像に支障がでることはありませんが、電子シャッタを短くしていくと像が垂直方向に流れてしまいます。右の写真の#4は、100ナノ秒というとても短いシャッタを設定したときの画像です。(計測用のCCDカメラではそれができるのです。)100ナノ秒に露光をセットして撮影すると、非常に明るい白熱電球自体でさえも露光時間が短いため撮影されず、代わりに1/30秒の転送時間中(33.3ms = 100ナノ秒の333,000倍も長い時間)に強い光が撮像面に入り続けるため(なにせ、100ナノ秒で露光を行うので相当強い光を撮像面に入れないと適正露光が得られないので)、結果として垂直方向に画流れが起る画像となってしまいます。
また別のタイプのCCDであるフレームインターライントランスファー型CCDは、インターライン型でありながら蓄積部を兼ね備えたCCDで、転送部に電荷が留(とど)まっている時間を最小に抑えて速やかに蓄積部に移すタイプのものです。このタイプは放送局用のENGカメラに使われているものです。通常のインターライン型CCDは16.67msで転送を完了しますが、フレームインターラインタイプのものは240us程度で蓄積部に移すことができます。こうすると、垂直転送部に留まっている時間を1/69.4倍(1.4%)に短くすることができます。フレームインターライン型CCDは、このようにスミア低減に効果があり高級CCDカメラ(放送局用CCDカメラ)に採用されています。しかし、この値は、スポーツ放送を含めた一般的な撮影には許容できる時間となるでしょうが、1usを扱う科学技術計測分野では依然スミアが出てしまう危険性があります。
スミアは、CCD固体撮像素子を使う以上避けて通ることができない特性です。通常の画面では検知しにくくはなっていても、現実には数%のオーダーで転送中に余分な光を被って画質に悪影響を与えていると考えて良いと思います。メーカではこの点を憂慮して迷光が垂直転送部に入らないようにCCD製造工程の製造精度を上げたり(マスク合わせ誤差の低減)、受光部に効率よく光を集めるマイクロレンズを使って光を画素方向に集中させる工夫をしています。
■ブルーミング(blooming) (2000.09.16) :
bloomとは、もともとは花びらが広がるという意味です。CCDの画素に明るいスポットが当たると周辺まで光が回り込み(電荷が隣の画素にあふれ出し)にじむような現象になることをブルーミングと言います。
CCDは、構造上垂直方向に電荷が漏れやすいので光量漏れは縦方向に広がります。従って、丸いスポット輝度でもブルーミングが激しいと縦長となります。(下の右写真、天体写真の星を参照。)
ここで気をつけなければならないのは、ブルーミングはスミアと違うということです。ブルーミングは受光部に飽和光量以上の強い光が入射して溢れだすもので、スミアは垂直転送時に入ってはいけない光が漏れ入る現象のことです。スミアの方が縦線が長くなります。
ブルーミングを避けるには、受光部(ホトダイオード)の下部、基板面に対して、垂直縦方向に強い光によって溢れ出た余剰電荷を捨て去る構造(VOD = Vertical Overflow Drain )を組み入れて、ブルーミングの改善を施す方法があります。現在のCCDカメラは、この方式を採用して大きな効果を得ています。VOD構造は、大きな副産物も生み出しています。VOD部にある時間タイミングで掃き出しパルスを与えて、ホトダイオードに蓄えられた電荷を逐次掃き出しを行って必要時間分だけの電荷を蓄えるという「電子シャッタ」機能を付加できたことです。したがって、最近のCCDカメラは、初期の頃に比べてほとんどブルーミング現象が起きなくなりました。
初期の頃のカメラ、つまりフレームトランスファ型CCDは、100%の開口率であるため余分な光を排除するドレインを作ることができないため、オーバーフローした電荷が右の写真のように垂れるように上下の画像に流れ込んでしまいます。天体観測用分野では、現在でもこのタイプのカメラが使われているので、ブルーミングは撮影を行う上で気をつけなければならない要素となっています。
■ VOD(Vertical Overflow Drain) 構造 (2008.05.07)
CCDの開発の歴史をひもといてみますと、CCD撮像素子開発はスミアとブルーミングとの闘いだったような気がします。こうした現象をいかに抑えるかがCCD性能向上を計る上で大きな課題だったといえます。これを低減させるために、いろいろなタイプのCCDが作られてきた印象を受けます。
ブルーミング低減の一つの方式として、受光部に溢れ出た電荷をグランドに速やかに流し去る方法が考えだされました。これがオーバーフロードレインという方法です。これは洗面所やお風呂の浴槽にあるオーバーフロードレインと同じで、あふれそうになる水を槽内の排出孔から強制的に流し去る構造と類似しています。そうしないと溢れ出た水が周りにまき散らされて水浸しになってしまいます。ブルーミングとはそういう現象なのです。
オーバーフロードレイン構造は、初期は撮像素子の画素の横に溝を掘って排水溝を作っていました。これをLateral Overflow Drainと呼びました。しかし、この方法は、素子の受光面を掘割してドレイン回路を作るので、受光部面積が圧迫されてしまいます。
この方法に対して、ドレイン部を素子の垂直方向に配置して受光部下部の基板に余分な電荷を直接排出する構造が考え出されました。受光部の底にドレイン孔を設けて、電荷を浴槽の下から抜いてしまおうというのがVODです。こうすれば、素子面をドレイン部(排水溝)で取られることがなく広く使うことができ、感度低減を回避することができます。また、このドレインは、水位の高さ調整を任意に行うことができ、受光槽が溢れるレベルよりも下に設定しておけば回りの槽に電荷が溢れる出ることはありません。ドレインの高さは必要に応じて槽内の下部まで下げることができます。
このドレインを下側に設けたことで、副次的な産物を生み出しました。この構造は、電荷を完全に抜き取ることができるので、必要に応じて受光部を空っぽにしておくことができます。これが電子シャッタ効果を生み出すことにつながりました。30フレーム/秒で撮影するカメラでは、1/30秒のほとんどをVODのドレインに流し続け、転送が始まる直前にドレインコックを締めて受光を開始し、その後貯まった電荷を転送部に明け渡すという芸当ができるようになりました。
【インターライントランスファ型CCD撮像素子の撮像、転送原理】
インターライントランスファー型CCD撮像素子の構造は、下の図を見てわかるようにかなり複雑です。CCDの基本的な転送方式は、上のフルフレームトランスファ型CCDの所 で述べました。下の図のインターライントランスファタイプは初期の頃のもので、最近のものはかなりの改良が施されているため必ずしも同一のものとはなっていません。下図のタイプに示したCCD撮像面のシリコン基板の上には、光を電荷として蓄える受光部と、貯めた電荷を一ヶ所に集めるための転送部が設けられています。模式的に転送部を大きく描いてありますが、下の図のような小さな感光部では開口率(素子全体に占める受光部の割合)が悪く、光を撮像素子上に投影しても多くの光を受光できずに低感度の撮像素子となってしまいます。この欠点を補うため転送部をできるだけ細くしたり、感光部に光を集光させるためのマイクロレンズをつけて集光度を上げる工夫をしています。構造を見ているとオートメーション工場のベルトコンベアのような感じを受けます。縦横無尽に電荷を運ぶための転送部が張り巡らされていて、タイミング良く各セル(画素)で蓄えられた電荷が運び出されて行くようになっています。転送の方式は、縦方向は4相電極による転送が一般的で、水平は2相駆動が主流です。相駆動というのは、垂直転送部のV1からV4の電極に90度ずつずれたパルスを印加させる方式です。この方法によって、転送部に移された受光蓄積電荷が各相の駆動パルスによってバケツリレーのように運ばれて行き、左下の取り出し口(下図)から押し出されて画像信号として取り出されます。このようにして、平面に展開された撮像素子の各画素で蓄えられた受光電荷が一箇所から順序よく取り出されます。
■インターライントランスファー型CCDのシャッタ機能
垂直転送部とVOD機構 を持ったインターライントランスファ型CCDは、電子シャッター機能があります。これは高速度カメラや計測用カメラでは非常に有効な機能です。初期の(グローバルシャッタ機能を持たない)MOS型固体素子や、フルフレームトランスファー型CCDにはシャッタ機能がありません。
IT-CCDでは受光した電荷をあるタイミングで1-2usの時間で転送部に渡します。転送部に渡すタイミングはCCD素子で若干の違いがありますが、垂直ブランキング(テレビ画面の左上から読み出し始めるタイミング)の前後5us程度で行われます。
電子シャッタは、電荷を垂直転送部に渡す直前までの一定の時間だけ受光し、それ以前に受光した電荷は強制的に掃き出すものです。掃き出すのは一回の動作でなく水平読み出し時間(1H)のタイミングで何度も吐き出し信号を与えて各セル(画素)に貯まった電荷をオーバーフロードレインに掃き出します。垂直転送部にシフトするタイミングが近づくと、予め決められた露光時間分のタイミングで掃き出しを止めて露光を開始し、露光時間が経過した時点で垂直転送部にシフトさせます。こうして電子シャッタが働きます。
■フレーム蓄積とフィールド蓄積(フレーム読み出しとフィールド読み出し)(Frame/Field Integration, Frame/Field Readout) (2008.05.18)(2008.006.01追記)
1990年代までの計測用CCDカタログを見ると、CCDの性能の欄にフレーム蓄積とフィールド蓄積という機能が書かれています。
また、計測用のCCDカメラを購入すると、取扱説明書にフレーム蓄積とフィールド蓄積の設定の仕方が書いてありました。
しかし、現在主流になっているプログレッシブスキャン型CCDではこの機能を設けていません。新しいカメラは、従来の煩わしい考えをしなくてもそれ以上の画質とシャッタを行えるようになったからです。1990年代までのビデオカメラは、高速撮影(=短時間露光などの計測撮影)に複雑なテクニックを必要としました。ビデオ信号を利用したカメラを計測カメラとして使おうとした場合、面倒な所作が必要だったのです。
フレーム蓄積とフィールド蓄積とは、いったいどういう意味と効果があるのでしょうか。
インターラインフレームトランスファ型CCDは、今まで何度も述べているように、NTSCと呼ばれる放送規格 に準拠した読み出し方式の撮像素子として開発されました。ビデオカメラ用の素子として開発されました。この規格では、1秒間に30枚の映像が作られ、1枚の映像(1フレーム)は2つの画面(2つのフィールド)によって構成されていました。(これをインターレース方式と言い、2011年まで放送されているアナログ放送はこの規格に従っています。)また、1枚の映像(1フレーム)の垂直走査線は、525本と決められていますから、1フィールドはその半分の262.5本となります。1フレームの半分が1フィールドです。このフレーム、もしくはフィールドを使った画像の蓄積(読み出し)の違いを、フレーム蓄積、もしくは、フィールド蓄積と呼びました。
なぜ、このような難しいフィールド/フレームと呼ばれる方式をNTSCは採用したのでしょう。これは、インターレース(interlace) という項目で詳しく触れていますが、要するにテレビができた当時はこのような方式を取らざるを得なかったということです。わかりやすい送信の方式を取る技術が当時無かったということです。わかりやすい技術とは、525本の走査線を1秒間に60回の割合で送るという方式です。当時、それだけたくさんの映像情報を送る技術が無かった、しかたなく2回に分けて送った、それが2フィールド1フレームの画像であったわけです。
▲テレビジョン規格のCCDを計測用に使わなければならなかった時代:
一昔前までは、今のように多様化した撮像素子がなかったので、放送用に使われていたテレビカメラを計測用として使うことが一般的でした。
NTSC規格に準拠したビデオ画像(ビデオ信号)をうまく利用していたのです。
たとえば撮影速度が欲しい応用には、1フィールドを1枚として1画面を構成し、60フィールド/秒とみなして相対的な撮影速度を上げて使っていました。しかし、これを通常のVTR(ビデオテープレコーダ)に記録して再生し、希望する画像を「Still = スティル(静止画)」機能で止めると2枚の映像がパカパカと重なって再生されます。これは、通常のVTRが2フィールドを1フレームとして画面を構成するという約束を守っているため、1/60秒ずつずれた映像を交互に再生するために起きる問題です。テレビカメラのこのような撮影の仕方をフレーム蓄積(フレーム読み出し)と呼んでいます。
計測分野で通常のVTRを使う場合は、上記の問題が現れるので、フィールド再生ができる業務用のVTR(もしくは計測用の特殊VTR)を使っていました。1フィールドずつを磁気ヘッドで読み出して表示するというのは一般的なビデオ信号出力ではあり得ないことだったのです。
▲ 1/30秒の露光を持つフレーム蓄積(Frame Integration)
フレーム蓄積による撮影では、1フィールドが1/30秒の蓄積となり、これが1/60秒ずつずれて画像が形成されていきます。
1フィールドの画像は前後のフィールド画像と1/60秒ずつオーバーラップした時間情報を持っていました。
この方式では、1画像(1フィールド)が時間軸に対して完全に独立したものではありませんでした。
従ってこの露光方法で、画像解析を行おうとすると、時間情報が曖昧なものになってしまいます。画質はフレームで得られるので良好な反面、時間に対してルーズな画像となります。映像を垂れ流す放送映像であれば、これは特に問題とならなかったようですが、計測分野では大きな問題となりました。この問題は、電子シャッタの採用以前はストロボの短時間発光で解決を見たり、電子シャッタの採用で大きな問題とならなくなりました。
▲ 時間の同時性を重視したフィールド蓄積 (Field Integration)
フィールド蓄積は、フレーム蓄積とは反対に1/60秒単位で2つのフィールドを合成して取り出す方式です。つまり1/60秒のタイミングで奇フィールドと偶フィールドを合成して1つのフィールドとして出力します。フレーム蓄積では、フィールドの蓄積時間は1/30秒となるのに対し、フィールド蓄積では1/60秒と半分になります。この方式は、フレーム蓄積に比べて時間的な整合性が取れるようになる反面、2つのフィールドの空間成分が1つのフィールド成分で合成されますので垂直解像力は悪く(半分に)なります。
最近のインターライントランスファ型CCDは、電子シャッタ機能によって蓄積時間が制御できるようになったので、フレーム蓄積とかフィールド蓄積という呼び方は適切でなくなり、フレーム読み出しとかフィールド読み出しという言い方をするようになっています。蓄積(受光)が任意にできるようになったため、読み出しだけを定義するようになりました。
▲電子シャッタ(Electric Shutter)の恩恵:
電子シャッター機能は、先に「VOD(Vertical Overflow Drain)構造 」で説明しました。この機能は、計測カメラでは重要な機能でした。この機能によって動きの速い対象物を移動ボケなく撮影できるようになりました。ただ、この機能は読み出される直前の決められた時間分だけの露光に限られていて、任意の時間でのシャッタはできません。従って、「フレーム読み出し」、「フィールド読み出し」の機能は、露光時間が短くなっただけで他の機能は同様に残っています。電子シャッタ機能を使った「フレーム読み出し」では時間的に完全に分離した2枚のフィールド像が得られるようになります。「フィールド読み出し」では垂直分解能が悪くなる反面、二つの画素(奇フィールドと偶フィールド分)が合成されますから信号成分が2倍になりS/N(Signal to Noise Ratio)のよい画像が得られるというメリットがありました。電子シャッタは、短い露光時間に設定すると被写体によってはスミアが出る可能性がでたり、先に説明したように任意のタイミングで露光がかけられないデメリットがありましたので、これを補う形でストロボ(短時間発光光源)が使われました。
▲ストロボなどの外部短時間発光光源を利用した短時間露光撮影:
電子シャッタ機能が搭載されたCCDカメラであってもフレーム読み出しモードでは、2フィールド間の時間差は1/60秒あります。また、フィールド読み出しでは1/60秒毎に短時間露光の画像が得られるものの、画質が半分になってしまいます。こうした不具合を解決して、同時間で短時間露光を行って良好な画質(フレーム画質)を得るには、右に示すようなストロボを使った方式がベストでした。ストロボは1us〜20us程度で200Hz程度の強力な発光が可能でした。このストロボを使ってCCDをフレーム蓄積モードにして、第一フィールドと第二フィールドの同時蓄積時間(1/30秒の間)内でストロボを発光させると、同一時間での全画面撮影ができます。ストロボ撮影モードでは、カメラ側からストロボを発光させるタイミング信号を出す必要がありました。ストロボが勝手に発光すると、第一フィールドと第二フィールドのタイミングが狂い、前のフレーム画面に第二フィールド画面が入ってしまって生き別れ画像(1/60秒ずれた画像)となってしまいます。
こうした複雑な撮影手法も、プログレッシブスキャン型CCDの登場で撮影が楽なものになりました。
▲プログレッシブスキャン型CCD(Progressive scan CCD)の登場:
最近では、NTSC規格に準拠しないCCD素子、つまり、デジタルスティルカメラやコンピュータ用(学術研究用、工業用)のCCDカメラが開発されるようになって、上記に述べたようなモードで撮影しなくても十分な解像力を持ち、しかも電子シャッタの効くものが市販されるようになりました。以下に述べるプログレッシブスキャン型CCDカメラもそのうちの一つで、2005年には4,008画素 x 2,672画素、電子シャッタ機能、12ビット濃度(4096階調)という高精度の性能を持つものも市販されるようになりました。2011年から完全移行するデジタルテレビ放送でもプログレッシブ放送が採用されています。
■プログレッシブスキャン型CCD(Progressive scan CCD)
インターライントランスファ型CCDは、インターレースタイプのため1/60秒毎に全画素の半分ずつを読み出す方式を取っています。プログレッシブスキャン型は、こうしたフィールド毎の読み出しに替えて全部の画素を読み出してしまう方式です。デジタルカメラやコンピュータ対応のカメラの出現によって、従来の放送規格(NTSC) にとらわれる必要がないためこうした素子の開発が可能になりました。放送局以外にも大きなマーケットがあるとメーカ側が市場を呼んだ結果だと思います。その思惑通りに、このマーケットは携帯電話内蔵のカメラやデジタルカメラ、計測用のカメラに受け入れられて行きました。
このタイプの素子は、撮像素子分の全画素を一度に取り出すことができるので静止画像での垂直方向の解像度が高くとれ、また、帯域圧縮や符号化での画像処理の際に、水平、垂直各方向の解像度のバランスが良くなるという特徴があります。
模式図を左に示します。構造はインターライントランスファ型CCD(IT-CCD)とほぼ同じですが、違いは転送部が1つの受光セルに対して3つの電極に対応していて3相による転送方式を採用していることです。この方式の採用によって全画素を一気に垂直転送路に送り出すことができるようになりました。シャッタ機能もインターライントランスファ型と同じように電子シャッタを切ることができ、なおかつ全画素同時期のシャッタリングが可能であるため解像度が高くて効率の良い電子シャッタを有する撮像素子となりました。ただ、問題点もあります。全画素を一度に読み出す関係上、受光電荷が垂直転送部や水平転送部から吐き出されるまで素子上に留まっている滞留時間が通常のIT-CCDより長くなり、スミアが出やすくなります。SVGAタイプのプログレッシブスキャンCCDの画素では1,280 x 1,024画素あり、1,024個の電荷が一度に垂直転送部に移されます。これを、例えば20MHzのクロックで水平転送部から読み出したとすると、全ての読み出しに65.536msかかることになります。インターレース方式のIT-CCDでは、525本の半分の262.5本が1/60秒の間に移動しますから、プログレッシブスキャンタイプのCCDは3.93倍も長く撮像素子上にいることになります。従ってプログレッシブスキャンCCDは、電子シャッターで短い露出時間を切るとスミアの出る可能性が通常のIT-CCDより多くなることがわかります。プログレッシブスキャン型CCDを使う場合は、この特性を知って電子シャッタの設定や照明の選択をする必要があります。
また、デジタル一眼レフカメラの場合、4,000画素x3,000画素などのような膨大な画素を転送する場合に、その転送時間はかなり長いものになる(約1/10秒)と想像されます。この場合、長い転送時間中に発生するスミアを防ぐため、デジタル一眼レフカメラではフォーカルプレーンシャッタで撮像素子を完全遮光してデータの転送を行っていると考えます。そもそも、一眼レフカメラでは電子シャッタ機能を搭載していません。それだけ複雑な機能を盛り込んで、感度を落としたり解像力を落としてもそれに見合うメリットがないからです。フォーカルプレーンシャッタがこうした問題を解決してくれるからです。また、CMOSタイプのもので電子シャッタ機能の無いデジタル一眼レフカメラでは、フォーカルプレーンシャッタでしかシャッタを行うことができません。
■画素ずらし(pixel shift technology) (2000.08.09)(2008.06.08追記)
カラー撮像カメラのように2枚以上の撮像素子を使用している場合、撮像素子を水平方向に1/2画素分ずらすと空間情報が補間できて水平解像度を上げることができます。これを「画素ずらし」といいます。
インターライントランスファ型CCDは、垂直転送部やオーバーフロードレイン部が撮像素子面に配置されている関係上、受光部を撮像面上にびっしりと詰めて配列できないために飛び飛びに配置されています。その欠点を逆手にとって他のCCDを受光部のない位置に配置し、この画素で信号を補ってやれば水平方向の画素を実質的に2倍近くに増加させることができます。
この方法によって、41万画素560TV本の性能を持つCCDを用いて800TV本近い解像度を得るようになります。この数値は、放送規格用のテレビカメラの目安となるものです。この性能が出れば、現行のアナログNTSC放送信号に乗せて放送できる水準となります。
CCDの1画素の大きさは、通常5〜7um程度なので素子をずらす範囲はこの半分の2.5〜3.5um程度となります。簡単に2.5umと言いますが、この値は結構シビアな位置精度です。それに加えてCCD 自体の寸法精度や、素子の面精度、画素精度にもかなりの性能が要求され、数ミクロンオーダーで素子を光学部品に張り合わせる技術が必要となります。ちなみに、3板CCDカメラの場合、ダイクロイックミラー にCCD撮像素子を張り合わせる精度は、X,Y,Z軸方向がそれぞれ±0.1um、アオリの角度、回転角度(α、β、θ)がそれぞれα = β = ±7.2秒、θ = ±0.9秒が要求されます。
RGB3板カメラを使って素子をずらす場合、G(緑)の素子をずらします。ハイビジョンカメラ(HDTV用カメラ)のように高精細度のCCD素子が作りにくい場合は、4板式カメラといって、G(緑)の素子を2つ使う(R,B,G1,G2)方式が開発されています。
また、CCD1枚を用いた画素ずらしも考え出されています。この方法は、レンズと撮像素子の間にプリズムを置く方法や、素子を圧電素子を使ってメカ的に動かす方法が考え出されています。この方式の場合、1画面のメモリ(フィールドメモリ)によって画像を蓄えて電子的に画像を再構築する必要がでてきます。
■ 3板CCD素子(3CCD) (2008.05.29)(2008.06.08追記)
3板CCDカメラは、カラーカメラの最も基本的なレイアウトです。このレイアウトでは、3つのCCD素子を使ってカラー情報(R.G.B.)を得ています。現在のビデオカメラのラインナップから見ると、3板CCDカメラは豪華な感じを受けます。しかし、現在主流になっているカラーフィルタ式単板素子が普及する1990年頃までのカラーカメラと言えば、3板もしくは3管が一般的でした。現在のほとんどのカラーカメラは、ベイヤーフォーマット による1枚のCCD(カラーフィルタ式単板素子)を使っていて、1枚の素子からカラー画像を得ています。しかし、高画質が求められる放送局のテレビカメラには、依然としてRGBによるカラー三原色画像が得られる3板CCDカメラが使われています。
【3色分解手法】
3つの撮像素子を使って赤(R)、緑(G)、青(B)の3波長の独立した色映像を撮る方法は、撮像管時代から行われていました。テレビ放送がカラー化された時代からこの方式があったのです。さらにさかのぼって、映画カメラに目を向けてみても、カラーフィルムが発明される1950年代までは、3本の35mm白黒フィルムをカメラのマガジンに詰めて3本のフィルムを同時に駆動させ、カメラレンズからの入射光をビームスプリッタで分けて3色分解撮影をしていました。
米国テクニカラー社(Technicolor Motion Picture Corporation、1915年設立)が開発したカラー映画撮影システムは、映画で初めてカラー上映を可能にしました。テクニカラー社の映画は、それまでの白黒映画と区別して「総天然色」と呼ばれていました。総天然色の「総」がついているのは、1917年に開発された最初のカラー映像は、3色ではなく2色(赤と緑)による色づけの「天然色」だったからです。テクニカラーは、完全な天然色ですよ、という意味で「総天然色」と呼ばれました。2色を使った「天然色」は、緑と赤を色分解して1つのフレーム内に2画面分割して撮影し、上映時に緑と赤のフィルタをかけてスクリーン上でに合成して上映していました。今となっては変な色合いだと思いますが、曲がりなりにも色がついていたので「天然色」と名付けられていたのです。2色などとケチくさいことを言わず3色にすれば良いと思いますが、はっきり言えば、3色に分解する技術が当時なかったのです。現在はダイクロイックミラーという効率のよい色分解フィルタがありますが、当時はコーティング技術さえなく、ビームスプリッタは光を半分に分けることで精一杯だったのです。テクニカラーの三色分解は、従ってビームスプリッタで分かれたアパーチャそれぞれに、「緑」と「青と赤(マゼンタ)」を透過するフィルタをつけていました。マゼンタフィルタが付けられたアパーチャ部には、青成分と赤成分を撮影するフィルムが背中合わせになって露光されるようになっていました。2ロール分の背中わせフィルムは波長感度の違う2種類の白黒フィルムが使われました。それは、青に感度を持つオルソグラフィックフィルム(歴史的にみると最初にできた白黒フィルム、初期のフィルムは赤に感度がなかった)と、赤に感度を持つパンクロマチックフィルムでした。このカメラに使われたレンズは、ビームスプリッタがレンズとフィルムの間に入るので、バックフォーカスの長いレンズが必要でした。このために、当時、レンズ製作で有名であった英国のTaylor-Hobson社(後のCooke社)にテクニカラー用レンズの製作を依頼し、f30mm〜f140mmのレンズを取りそろえました。広角レンズは、設計が難しかったそうです。ビームスプリッタで分けられた光学系は当然暗くなるので撮影にはたくさんの照明が必要でした。
こうして1922年より、3色分解による本格的なカラー映画が作られ始め、「十戒」(1923)、「ベン・ハー」(1925)に使われました。究極の作品は、ディズニーアニメーションの「白雪姫」(1937年)、「オズの魔法使い」(1939年)、「風と共に去りぬ」(1939年)で、これらの作品はカラー映画のすばらしさを決定づけました。全盛期のテクニカラー映画は、作風もさることながらカラー描写の見事さによって歴史に残るヒット作となりました。ちなみに、テクニカラーは、1950年にKodak社が開発した35mmカラーネガティブフィルムの登場によって(1本のフィルムで3色分解された画像を記録できるため撮影とプリントが楽になり)衰退の一途をたどり、1950年代後半にはKodakカラーフィルムにその座を明け渡してしまいました。テクニカラー映画は、撮影と現像にたくさんの労力とお金がかかりました。カメラが大きく、色分解をするので照明がたくさん必要で取り回しが大変でした。コダカラーは、その点取り回しが格段に楽だったのです。テクニカラーの衰退と共に、「総天然色」という名前も色あせて、「カラー」が日本語の市民権を得るようになりました。
撮像管の時代のカラーカメラと言えば、下の図に示したような三色分解の光学系に3つの撮像管をつけたものが一般的でした。カラーテレビ放送は、米国で1953年に始まります。日本では1960年に始まりますが、家庭にカラー受像機が普及して本格的になるのは1970年頃だと記憶しています。当時(1960年〜1990年)のカラーテレビカメラは、一つの撮像管でカラー情報を得ることが困難な時代でした。CCDカメラの時代になってもカラーカメラの3色分解手法は踏襲され、3板CCDは高級カラーカメラの代名詞として使われていました。
【ダイクロイックプリズムの機能】
3板CCDカメラに代表される3原色分解の光学系は、上図に示すような構造を持っています。複雑な形状をした3個のプリズムと多層膜コーティングを施したダイクロイックプリズム(dichroic prism)によって、光を効率よく波長別に分解しています。このプリズムは、プリズムの合わせ面にダイクロイックミラー を用いています。ダイクロイックミラーは、フッ化マグネシウムや酸化シリコン、酸化チタン、硫化亜鉛などの薄膜で光の干渉作用を利用して希望する波長を透過・反射するものです。メガネのコーティングやレンズのコーティング面を見ると、うっすらと紫や緑などの反射光が認められると思いますが、そうした蒸着による薄膜生成を幾重(20層〜30層)にも重ねて光の波長レベルの薄さの層を形成すると、光の吸収損失を低く抑えて希望する波長を反射させ残りの光(補色)を透過させるようになります。プリズムは、波長選択された光を全反射によって希望する素子に到達させる働きを持ちます。一般的なダイクロイックプリズムを使ったカメラ光学素子は、初段のプリズム貼り合わせ面で青色を反射し、残った緑と赤成分のうち赤色成分を2段目のプリズム面で反射させます。素子の前にトリミングフィルタを入れるのは、さらに波長選択を良くした光を撮像素子に入れるためです。プリズムの材質には、双眼鏡で使われている光学ガラス(BK7)が使われ、各プリズムの光学パスが等しくなるように設計されています。プリズムの製作はかなり難しいものだと言われています。それに加え、ダイクロイックミラーの蒸着、CCD素子の貼り合わせなどすべての工程において、サブミクロン領域の製作・組み立て精度が要求されます。1枚の撮像素子でカラー画像を得る方式よりも遙かにコストがかかることが理解できます。
3板CCDカメラは、現在一般的になっている単板式カラーフィルタ式CCDカメラとどのような違いがあるのでしょうか。
その特徴を以下に示します。
【利点】
1. 偽色(color artifact)が起きない。
非常に精度よく配置された撮像素子においては、1画素の
色情報を忠実に拾うことができるので、2x2画素(4画素)
もしくは3x3画素(9画素)に渡って色情報を集める単板式
カラーフィルタCCDに比べて原理的に色のにじみとボケがない。
2. 解像力が高い。
3つのCCD素子を使っているので、精度良く光学系が組み
上がって正しい貼り合わせができていれば解像力の高い
画像を得ることが可能。画素ずらしという手法を使うと
解像力が2倍にアップ。
3. 感度が高い。
ダイクロイックプリズムにより希望する波長成分のほとんどを
撮像素子に送ることができる。
単板カラーフィルタCCDは、構造上1/3以下の光しか光を受光
できない。
【欠点】
4. 製造に高度の技術が必要。
プリズムの製造、ダイクロイックフィルタの製造、貼り合わに高度の技術が
必要。高価になる。
5. カメラサイズが大きくなる。
3つの撮像素子を利用し、ダイクロイックプリズムを内蔵するので大きくなる。
6. カメラレンズにダイクロイックプリズムに対応したものが必要。
フランジバックの長い専用レンズ。及び色補正の考慮されたもの。
7. 高価。
こうした理由により、現在のところ3板CCDカメラは放送局用や顕微鏡などの計測分野での使用がメインとなり、高速度カメラなどの計測カメラを含めデジタル一眼レフカメラでは、カラーフィルタ式単板素子が使われるようになっています。
■カラーフィルタ方式CCD素子( Bayer Filter, Color Filter Array)
カラーカメラのオーソドックスなものは、上に述べた3板CCDカメラです。これは、RGBの三原色にそれぞれCCDカメラを置いて、3つのCCDカメラで色情報を採取してカラー画像を合成する手法です。 3板CCD カメラは、素子を3つ用いて、これを ダイクロイック ミラー と呼ばれる三色分解光学系にくっつけて作られるカメラですから、価格も当然高いものになります。
よりシンプルな撮像素子でカラー撮影を可能にしたのが、1枚のCCD素子上にマトリクス状のカラーフィルタを張り合わせたものです。各画素には一つのカラーフィルタが割り当てられていて、相互に色情報を補い合ってマトリクス計算により各画素の色を特定するという方式をとっています。これは、BAYERフォーマットと呼ばれているものです。このベイヤーフォーマットは、1960年代Kodak研究所にいたBayer博士が考案し、特許を取得したフィルタ処理によるRGBカラー画像構築手法です(Bryce E. Bayer、登録番号:3971065[1976年7月20日]、題目:Color Imaging Array、出願者Eastman Kodak)。
この方式は、CCDカメラ用ではなく、銀塩カラーフィルム開発の一環で考案されたようです(1960年代は、CCDカメラもなければテレビ撮像管も発展途上にあり、カラーカメラは3管式が主流でした)。しかし、フィルム感光材料の分野では、フィルム面上に三層の感光膜(シアン、イエロー、マゼンタ層)を塗布する技術が確立したため、Bayer氏が考案したフィルタアレイは写真の分野からはなくなりました。
Bayer博士の考案したRGB方式のカラー撮影手法は、1993年にパテントが切れたために日本のデジタルカメラメーカがこぞって採用をはじめ一般的になりました。
Bayer氏が考案したアレー状カラーフィルタ方式は、R.G.Bの市松模様を基本原理としていましたが、テレビカメラに使うには、つまり、インターレース方式のカメラに採用するにはいろいろな問題点がありました。このタイプのCCD素子は、インターレース方式を使わないデジタルカメラによって最終的に脚光を浴びるようになります。インターレース方式のCCDは2フィールドで画面を構成するために、上に示したようなアレイではフィールド間に入ってしまい、色を作る際に1/60秒の時間的ズレがあったりで都合の悪いものでした。また、R.G.B.方式のカラーフィルタは色再現性が優れているものの、光の分離が効率よくなく(白色光の1/3しか各フィルタに入らないため)、低感度という問題を抱えていました。感度の点では補色フィルタ方式(シアン、イエロー、マゼンタ、それに輝度信号を得るためのグリーンフィルタを用いた方式)の方が効率のよいカラー画像が得られました。1983年、松下電器は、インターラインCCD用のカラーフィルタを用いてフィールド単位でカラー画像が得られるシステムを提案しました。Bayerフォーマットの特許が切れた今日では、発色性の良いBayerフォーマットが単板式のビデオカメラの主流になっています。
上右図にBayer式カラーフィルタの原理を示します。基本的なレイアウトは、素子の左上が赤のフィルタで始まることです。色情報は、4つの画素に囲まれた真ん中に仮想の画素を設けます。仮想画素のまわりの4つの実際のフィルタ付き画素は緑(G=Green)の画素2つと赤(R=Red)、青(B=Blue)の画素それぞれ1つで構成されます。緑の占める割合が多いことがわかります。これは人間の視感度が緑に対して効率が良いためCCDフィルタも余分に光を与えてバランスを取っているためです。図の仮想画素Pxに注目してみましょう。Pxのカラー情報は、近傍の画素のカラー情報からマトリクス計算によって得られるのですが、
・ 緑(G) は、近傍のG7とG10を足して2で割る。
・ 赤(R) は、R11を優先してその周りの赤色情報も加味する。
・ 青(B) も赤と同様の処理をする。
という形で任意のセルの色を特定していきます。式で表すと以下のようになります。
P green = (G7 + G10 )/2 ・・・(Rec -6)
P red = (9・R11 + 3・R3 + 3・R9 + R1 )/16 ・・・(Rec -7)
P blue = (9・B6 + 3・B8 + 3・B14 + B16 )/16 ・・・(Rec -8)
この手法が本当に現実の色を再現しているかどうかは議論のあるところですが、簡単に彩色できるという画期的な方法ではあります。現在のデジタルカメラは、ほとんどすべてこの方法によっています。
■ モアレと光学ローパスフィルタ(Moire, Optical Low Pass Filter) (2008.05.09)(2008.05.14追記)
個体撮像素子の画像に現れる特徴の一つにモアレ画像があります。非常にきめの細かい対象物を写したときに、細かい対象物のピッチが撮像素子の画素ピッチと干渉し、本来の画像とは異なる濃淡画像が現れます。これをモアレ画像と呼んでいます。テレビなどで、キメの細かいネクタイや、窓のブラインド、チェックのシャツなどが映し出されると色がにじんだり濃淡が変化して見えることがあります。これがモアレ画像です。モアレ画像は、見た目に見苦しいばかりでなく、間違った情報を与えるのでこれを除去することが大きな課題となっていました。ただ、モアレ対策が熱心であったのは、放送業界やデジタル一眼レフカメラに代表される画像品質にうるさいマーケットであり、計測分野ではこうした対策をたてているカメラは多くは見かけません。なぜ、そうした傾向があるのかはさだかではありませんが、計測用のカメラは画像にあまり作為的な処理をしたくないという要求があるように思えます。画像処理は、目的に応じて個別に行なわないと希望する情報が消されてしまい、撮影側に知らされずに化粧された画像が作られてしまう懸念があります。計測カメラを使う研究者たちはそれを嫌います。撮影側に問題があってもそれを熟知して対応したほうが、計測機器として信頼して使えるからです。新しい概念で作られた3層CMOS固体撮像素子 (米国Foveon社のX3、SIGMA社のデジタル一眼レフカメラに搭載)では、素子の構造上光学ローパスフィルタは必要ない、として取り付けてないカメラもあります。
モアレ画像を除去する方法は、以下の4種類があります。現在の所、1.の水晶板を使った方法が一般的です。
1. 水晶板を使う方法 - 結晶硝子の複屈折を利用して、高周波成分を鈍らせ干渉を起こしにくくする。
水晶板の厚さによって、鈍らせる周波数を変えられる。
2. レンチキュラを使う方法 - かまぼこ型円筒レンズを多数平行に配列して配置。
3. 位相フィルタを使う方法 - 位相を変える透明薄膜をストライプ状に形成。
4. クリスチャンセンフィルタを使う方法 - 特定の波長に対し、散乱する物質を液体中に分散 。
■ 水晶板ローパスフィルタ
CCDなどの固体撮像素子に用いられるモアレ画像対策では、水晶による結晶板で作られたローパスフィルタ(Low Pass Filter)を撮像素子面の前に取り付ける方法が最も一般的です。水晶結晶板を使ったローパスフィルタは、撮像素子のピッチの2倍以下の成分( = 2画素分以下)の情報をカットします。カットすると言うと何となくシャープな感じを与えますが、実を言うとボカしているのです。結果的に高周波数成分を通過させない(霧散させてしまう)ことになります。このフィルタは、たとえば、12um x 12um の画素を持つ素子であれば、素子上に投影される画像情報の24um以下のものを通過させない機能を持ちます。一般的に考えると、カメラで得られる情報は、撮像素子の大きさまで記録されると考えがちですが、モアレ対策のためにローパスフィルタを組み込んだ固体撮像素子では、画素サイズの倍の大きさ以上の解像力しか持ちえないことになります。簡単に言えば、像の錯乱円を光学フィルタによって2画素x2画素(4画素)程度に決めてしまう方法です。素子の1画素が12umx12umであれば、φ34umの許容錯乱円にすることになります。光学ローパスフィルタは、「牛の角を矯める」やり方と似ていますので、選択を間違えるとやけに惚けた画像になってしまうことがあります。要するに、水晶板によるローパスフィルタ効果は、フォーカスを少し甘くしてモアレが出なくするということです。
水晶板は、方解石などと同じように複屈折効果を持っていて、これに入射する光は常光線(ordinary ray)と異常光線(extraordinary ray)に分かれます。この2線は、結晶構造の光軸に対してある角度(水晶の場合、44.83°)を持たせて光を入射させた場合に最も分離(d)が大きく現れます。2つに別れた光は、結晶板中を通過していくので、結晶板が厚ければそれだけ分離巾が大きくなります。結晶板の厚さ(t)と2線の分離巾(d)の関係は以下の式で近似されます。
d ≒ t・(ne 2 - no 2 )/(2・no ・ne ) ・・・(Rec -9)
d: 2線(水晶板中の常光線と異常光線)の分離巾
t: 水晶板の厚さ
ne : 常光線の屈折率
(λ= 589.3nmの時1.5534)
no : 異常光線の屈折率
(λ= 589.3nmの時1.5443)
この式から、画素ピッチ分の分離巾(d)を得る水晶板の厚さを割り出すことができます。画素ピッチは、6umから12umが多いので、上の式を用いてこれらの素子に使われる水晶板の厚さを求めると1mm〜2mmになることがわかります。
実際の光学ローパスフィルタは、3枚の水晶板を張り合わせて使用されています。なぜ三枚使用するかというと、一枚の水晶板だけでは1方向の周波数成分しかカットできないため、2成分(縦方向と横方向)の高周波成分をカットするためには2枚の水晶板が必要になるからです。ただ単に2枚を重ね合わせても、1枚目の水晶板を透過した複屈折光線は偏光がかかっているので、そのまま水晶板を重ねても効果がありません。偏光がかかった光線を一旦もどして(円偏光にして)2枚目の水晶板にいれるために、偏光を変える1/4波長水晶板を2枚のローパスフィルタの間に入れます。このようにして、固体撮像素子の光学ローパスフィルタは構成されています。実際の光学フィルタは、右図に示したように、赤外/紫外カットや反射防止を考慮した複数枚の光学ガラスとフィルムを張り合わせてできています。
■ 偽色(ぎしょく、color artifact) (2008.11.29)
ベイヤーフォーマットを使った単板撮像素子では、前述のモアレとともに色ズレの問題が発生します。この色ズレは、偽色(ぎしょく)と呼ばれています。ベイヤー方式(モザイクフィルタ方式)では、色の決定に4画素もしくは9画素を使うために、非常に細かい画像パターンが撮像素子に入ると、正確な色が特定できずに誤った色が発生します。つまり、偽色は、明るくて細かい画像や、明るい対象物の輪郭部分に本来の色ではない色が現れることを言います。偽色は、モアレ同様、ローパスフィルタを用いることにより緩和され、自然な色が作られます。当然、解像力は物理的画素数の半分以下になります。
なお、日本のWebサイトの多くに、偽色をfalse color(フォールスカラー)とあてているのを見かけますが、これは間違いです。False Colorは、本来、別の意味があり、日本語では擬似カラーと訳されているものです。False Colorは、米国コダックが、1960年代に赤外カラーフィルム(Kodak Ektachrome Infrared Aero Film, Type 8443)を開発してから使われるようになった言葉で、この時代から急速に普及しました。False Color は、モザイク画像のCCDよりもずっと前にできている言葉です。しかも、その言葉の意味は、CCDで起きる偽色とは全く異なったものです。赤外カラーフィルムは、赤外領域(700nm〜900nm)に感度を持ったフィルムで、人間の目には見えない赤外部を赤色にあててカラー写真を得るものです。従って、本来人間の見える色(true color)とは異なった発色画像となっています。赤外写真は、本来軍需用に開発が進められ、1910年代の第一次世界大戦から出発しました。もちろんその当時は白黒写真でした。擬似カラー写真は、ベトナム戦争でゲリラが原野や山林に偽装して潜伏しているのを発見するために、これを行う航空写真撮影に多様されました。木々の葉や草は、活性が良いと赤外線を多く反射するので、擬似カラー写真で見ると真っ赤に見えます。偽装されたアジトは、赤く写りません。こうしたことから、擬似カラー写真は、航空機や衛星から地上や海域を探査するツールとして、リモートセンシング分野でよく使われるようになりました。
今述べたことから、False Colorは、CCDの画素による偽色とは似ても似つかない性質のものであることが理解できましょう。
CCDやCMOSを扱う米国の専門家たちは、従って、素子の偽色のことを Color artifact と呼んでいます。同じような言葉に pseudo color(スードカラー)があります。この言葉は、白黒画像を濃度に応じて加色する場合に使う言葉です。画像処理分野でよく使われています。
■ 三層カラーCMOS素子(Foveon X3 CMOS) (2008.05.15)(2008.05.17追記)
多くのカラーカメラが、先に紹介したBayerフォーマットのマトリクスフィルタによる単板素子を使っているのに対し、カラーフィルムの構造と似たような3層(R、G、B)縦配列(垂直配列)による受光素子を作ったメーカがあります。そのメーカは、Foveon(フォビオン)(米国カルフォルニア州、1997年創設)と呼ばれる会社で、2002年にこの素子を開発しました。この素子は、日本のレンズ・カメラメーカのSIGMAで採用されて、SD9カメラ(現在、2008年は、SD14)に搭載されています。
この素子はCMOSであり、CCDではありません。本来ならば、CMOS素子の項目で説明すべきものですが、固体撮像素子のカラー撮影という関係でこの位置で説明します。CMOS素子については、「 撮像素子 - - -CMOS(Complementary Metal Oxide Semiconductor)素子 」を参照ください。
Foveon X3 素子は、高精細のデジタル(一眼レフ)カメラ用として開発されたようです。この素子は、実にユニークです。一般的な Bayer 方式の単板撮像素子は、2次元状に広がった画素単位の色情報をかき集めて色を構成するので、1画素単位で変わる細かい色情報に関しては色を正確に特定することができず、偽色(color artifact)が発生します。三層縦構造カラー素子のFoveon X3は、原理上そうした不具合が起きません。一画素で色が決定されるからです。Foveon社の開発した素子は、1つの画素から直接色情報を得るので、周辺の画素から色情報をかき集めて処理を行うBayer素子と区別させるために Direct Image Sensorと呼ばせています。Bayer素子では2画素〜4画素の色情報(空間的には4画素〜9画素の範囲)から色を特定するので、その間で変化してしまう色に対しては手の施しようがなく、光学ローパスフィルタによってその弊害を抑えることになります。これに対し、3層縦構造のカラー素子ではこと色情報に関してはフィルタを入れる必要がありません。
Foveon X3素子は、光学ローパスフィルタ装着の必要性がないとメーカが主張しているのに対し、識者の間で少しばかりの論議が続いています。というのは、ナイキストの考えによると固体撮像素子で量子化された情報は、2画素以下の高い信号周波数については偽信号(エイリアシング)が発生することは自明だからです。おそらく、Foveon X3素子を使ったカメラでは、画像を構築する際に色信号に対してはほぼ問題ないとしても輝度信号に対しては画像処理( = グラフィックエンジン)によってアンチエイリアシング処理(偽 信号を除去すること)を行っているはずです。偽信号処理を行うにあたり、色情報と輝度情報の2つを考慮しなければならないBayerフォーマットの素子に比べて、Foveon X3では色情報については原理的に補正しなくて良いわけですから補正もやりやすいのだろうと思います。確かにFoveon X3で撮影されたサンプル画像を見ると、髪の毛の表現や砂地状の地肌がきれいに再現されています。
Foveon X3 素子の構造は、シリコン半導体の波長透過特性を巧みに使っています。つまり、シリコン半導体の膜厚の深さによって吸収する波長が変わることを利用して、膜厚の薄い表面近辺(0.2um厚)では青色の吸収が多いのでここを青色検知層とし、一番深い所まで届く赤色に関しては、最下層(2um厚)で赤色を検知しています。一つの半導体の薄膜とサブミクロンオーダの信号取り出し口の生成技術で3つの色を取得しているのです。この方法は、フィルムのカラー感度層構造と似ていると言われていますが、厳密に言うと違います。銀塩フィルムの3色感度層は、【光の記録原理 その3 - - - 2次元記録(銀塩フィルム)3原色感度層】 で述べているように、各層にはカラーセパレーション用のフィルタが入っています。これに対して、この撮像素子では R.G.B三色の明確な分離はなく、シリコン半導体の膜厚だけを頼りに3色の色情報を得ています。
シリコン半導体は、厚さ方向に対して波長の透過性能が変わり、浅い位置で短い波長成分が吸収され、深い部分で長い波長成分を吸収する。この性質を利用して、Foveon X3素子は、受光部の厚さ方向で3波長の色情報を取り出している。
参考:Richard F. Lyon, Paul M. Hubel, Foveon, Inc. ,"Eyeing the Camera: into the Next Century", 2003
Bayer素子が平面的に色情報を収集するのに対し、Foveonは垂直に色情報を収集する。従って、Foveonは色のにじみがない。
2008年5月現在の Foveon X3 素子は、2,268画素x1,512画素(9.12um画素サイズ、20.17mmx13.8mm素子サイズ)のものが販売されています。この素子の窓数は、3.43M(343万個)ですが、Foveon社は、1つの窓にR.G.B.の3種類の信号が取り出せることを根拠に、画素数を窓数の3倍である10.3M画素(相当)であるとしています。Bayerフォーマットの撮像素子が、光学ローパスフィルタを入れているにもかかわらず物理的な素子の数でカタログをにぎわしていて、画素数が多いのが高性能であるという風潮にしているので、それならば我々の素子は3倍の画素換算にしますよ、と言っている感じを受けます。客観的に見ると、3板固体撮像素子のような扱いで良いように感じます。
このタイプの素子は、一眼レフデジタルカメラで市販化されてかなりの評価を得ているようです。しかし、計測カメラ用としてはあまり使われていません。このFoveon X3のシャッタは、ローリングシャッタという電子シャッタを内蔵しており、インターライントランスファ型CCDのような全画素同時の電子シャッタではないために、計測用としては使いづらいかも知れません。感度についても格段に優れているようには紹介されていません。詳しいことはわかりませんが、受光部での量子効率があまりよくないのかもしれません。想定される理由として、青色検出領域であるシリコンの浅い部分では、他の色成分も検出してしまうので、最終の赤色部分の色情報を得て逆算するような方式になっているそうです。それが影響しているのかも知れません。
■ QE(Quantum Efficiency、量子効率) (2003.09.06)(2008.06.08追記)
計測用CCDカタログを見ると、カメラの感度を示す指標としてQE(量子効率)という説明が見受けられます。QEというのはどういうものなのでしょうか。この言葉は、おそらく一般のビデオカメラのカタログには登場しない単語だと思います。この単語は、フォトン(光子)を扱うような微弱光領域でカメラを使用する場合に、カメラの感度性能の一つの目安になるものです。ですから、この領域に使うカメラの性能表にはよく登場します。
QEは、Quantum Efficiencyの略です。Quantumは物理学用語で「量子」を表します。量子はエネルギの単位であり、エネルギの塊を示すものです。自然界は連続的な物理量を持っていると思いがちですが、原子レベルでのエネルギー量を見てみると一つ一つの塊となっていることがわかっています。光子(フォトン)」は、光エネルギーの塊です。量子は電子の振る舞いから体系づけられた学問で、量子エネルギは原子を取り巻いている電子がその準位を換えることで、放出がおきたり吸収が起きることがわかっています。電子は原子の回りをある準位で回っていて、その準位は軌道と呼ばれている値をとるため、勝手に運動することはできません。ちょうど太陽系を回っている惑星が一定の軌道で周回し、任意に距離や周回速度を選ぶことができないのと似ています。太陽系の惑星の場合は、惑星の質量と太陽の質量の互いの引力によって互いの距離と周回速度が求まります。原子の場合には、電子の電荷と原子核の電荷によって電気的に位置が決められます。これはボーア(Niels Henrik David Bohr:1885.10〜1962.11、デンマークの物理学者。1922年ノーベル物理学賞授受) が考えた理論で、電子は原子核の回りを一定の軌道で回り、外部からエネルギを受けると一つ外の軌道に移り、また、エネルギーを放出するときは内側の軌道に移るというものです。軌道が決まっているので電子が放出するエネルギーは不連続の値、つまり、塊として成立するようになります。光子の場合には、先にも述べましたように、以下の式になります。
E = h ν ・・・(前述)
E:光のエネルギー(J)
h :プランク定数、 6.6260755 x 10-34 J・s
ν:光の周波数 = c/λ
c:光速、299792.458 km/s (真空中)
固体撮像素子で述べているQEは、
『光子が1個到来したときに、その光子が1個分の電子または正孔が信号出力に寄与したとき1(100%)と定義する。』
というものです。すなわち、上で述べた光子1個が固体撮像素子のセルに入射したとき、1個の電荷が発生してそれが信号出力として寄与すれば量子効率100%となるというものです。
実際には、予め出力エネルギのよくわかった単色光を固体撮像素子に照射し、そこから得られる発生電流を測定して量子効率を求めます。式で表すと以下のようになります。波長λ[nm]の光が毎秒W[W]のエネルギで固体撮像素子に入射したとすると、その時の光子の数Np [個]は、
Np = W/Ep = W・λ/h c ・・・(Rec -10)
Np : 入射する光子の数
W: 入射する光のエネルギー
Ep :入射する光子1個のエネルギー
λ: 入射する光子の波長
h : プランク定数
c: 光速度
となります。電子1個の電荷はe[クーロン]あり、一秒間に流れた電荷量で電流[A = アンペア]が求まるので、量子効率1(100%)での発生電流は、以下の式となります。
Ip = e Np ・・・(Rec -11)
Ip : 量子効率100%での発生電流(A、アンペア)
e: 電荷(クーロン)
Np :入射する光子の数
この理論的な効率100%での電流値と実際に計測した電流 Ic の比を取ってやれば量子効率が求まります。
η = Ic / Ip = Nc / Np = 1240 x Ic /(W・λ) ・・・(Rec -12)
η:量子効率 QE
Ic :測定電流
W:入射する光のエネルギ
λ:入射する光の波長
上式を元に、量子効率ηを1とした時、入射エネルギWに対する出力電流の比、すなわち感度は以下の式で表されます。
S η=1 = Ic / W = λ / 1240 ・・・(Rec -13)
Sη=1 は、分光感度で、単位は、[A/W]で表されます。値が小さいので、[μA/μW]で表すこともあります。1240という値は、光と電子を扱う世界では重要な数値です。発光ダイオードも半導体レーザも、X線発生も電圧と光の波長の関係式にこの値が出てきます。この数値は、h c/eによって求まる値です。上式を見ると、感度は波長が長いほど入射エネルギに対する出力電流が高いことになります。多くの固体撮像素子では、ηを100%、50%、30%、10%についてプロットし、これに実際の素子の感度を重ね合わせて図にまとめ上げています。
■ ショットノイズ(shot noise)、フォトンノイズ(photon noise) (2006.07.13)(2008.06.08追記)
微弱な光を扱っている時に、無視できなくなる光ノイズを、ショットノイズとか、フォトンノイズと言っています。ショットノイズは、電子などのノイズを言及するときに主に使われる言葉で、これに対しフォトンノイズは、光に関するショットノイズを指すときに使われる言葉です。揺らぎとも言っています。光(フォトン)は、いつも一定の割合で電子と相互関係を持つかと言うとそうはなりません。100個のフォトンが入ってきても、100個の光電子が発生するとは限らず、時に50個であったり10個であったりします。これが長い時間で見た場合には平均化されて落ち着くわけですが、短時間でとらえるとかなりのバラツキが生じます。これが画像としてとらえられると、雪が降っているような、あるいは星が瞬いているように見えます。
ショットノイズは、超高感度カメラを使って、比較的短時間の露光で画像をとらえる時に目立ちます。高感度カメラは、検知する光子数が少ないのでこうした現象が顕著に現れます。
フォトンノイズの考え方は、ちょうど雨粒を考えると良いかと思います。しとしと雨が降っている中に大きさ10cm程度のコップを置きます。コップに雨水をためるとき、例えば10秒間で雨粒を受けたとすると、おそらく何回測っても、また数カ所で同時に同じ計測をしても量が変わるでしょう。10秒という短い時間では雨粒が数個であったり数十個であったりします。しかし、これを1時間程度受けたとすれば、ばらついて降り注ぐ雨粒が平均化されて、数カ所同時に測っても同じような量を計測できます。フォトンというのはこのような雨粒に似たようなものと考えるとわかりが良いかと思います。ショットノイズは、光子だけでなく熱電子や光電子の振る舞いにも現れます。
ショットノイズは、基本的に入射する光子数の平方根に比例します。
Sn ∝ √S ・・・(Rec -14)
Sn: ショットノイズ
S: 入射する光子数
上の式は、例えば、100個の光子が入射すると10個の光子は絶えず揺らぎとして認められることを示しています。これは10%に相当します。これが1,000,000個の光子になると揺らぎは1,000個となりノイズの占める割合は0.1%となります。
従って、フォトンノイズを抑えるには、受光に十分な光子を蓄える手だて(時間)を考える必要があります。降り注ぐ光子は、雨粒のようにランダムに放射していることを理解する必要があります。
■ 光子の読み出しノイズ (2007.11.18)
光子を検出するには、電子に変換させる必要があります。すべての計測には誤差やノイズがつきまといますが光子をフォトマルやフォトダイオード、CCDカメラで計測する場合ノイズ成分は以下の関係式で示されるように各要素から発せられます。
N ∝ √(Nr 2 + Nd 2 + Ns 2 ) ・・・(Rec -15)
N: 総合読み出しノイズ
Nr : 回路素子から発するノイズ
Nd : 受光素子から発する暗電流 = D * T
D:暗電流(electron/pixel/sec)
T:検出時間(sec)
Ns : 光電子によるショットノイズ = √S
S:光電子 = QE x 入射光子数
こうした、各要素から発せられるノイズを抑えて希望する光子信号を取り出すことが、CCDカメラを含む光電素子製品設計の重要課題となっています。上の式からわかるように、光電素子のノイズはショットノイズだけは避けて通る事ができないので、許す限りの測定時間を長く取って揺らぎ成分を少なくする事が求められます。しかし、必要以上に測定時間(露光時間)を長くすると、発光素子から発する暗電流Nd成分が多くなってしまいます。長時間露光では、このNdを抑えるために光電素子を電子冷却によって暗電流の発生を抑えています。
■ ビンニング(Binning) (2008.05.15)
ビンニングとは、画素を複数個集めて1つの画素とみなす画像の取り込み方式です。計測用CCD(もしくはCMOS)カメラで良く使われる手法です。ビデオカメラでは、映像信号が厳しく規定されていて、自由な読み出しができないので使われません。ただし、上で説明した「フィールド読み出し」では、垂直2画素分を1画素として読み出すので、1x2画素のビンニングと言えなくもありません。
計測カメラで使われるビンニングは、2x2、3x3、4x4などが一般的で、2x2=4画素、3x3=9画素、4x4=16画素分を1画素とみなして画像が構成されます。複数の画素から1画素を構成する場合、受光するバケツ容量が大きくなるのと同じ効果を持つのでたくさんの光を受けることができます。1画素分が大きい撮像素子を仮想的に作ることができます。1画素の大きさが大きくなると、感度が良くなるために微弱な光を検出する場合に使われることがあります。また、この機能では、副次的にノイズ成分も低減します。
反対に、ビンニングを施すと画面を構成する総画素数が少なくなります。たとえば、640x480画素の撮像素子に2x2のビンニングを施すと、感度は4倍になる反面、構成画素は、320x240画素と少なくなります。読み出し画素数が少なくなるため相対的に読み出し速度が速くなる(1秒あたりの読み出し枚数が多くなる)メリットもあります。
計測CCDカメラメーカの先駆 - VIDEK(ばいでっく)社 (2006.09.21) (2007.01.08追記)
CCDカメラを計測用装置として製品化したのは、米国のKodakの子会社であったVidek社が最初であると記憶しています。
Videk社は、1987年に右下に示すようなコンパクトなCCDカメラを市販化しました。1987年当時は、CCD素子が8mmビデオに搭載されるようになった時代で、CCD素子がアナログビデオ信号による画像(720画素x480画素相当)の品質になんとか追いついた時代でした。そうした時期に、産業用カメラ分野において、1320x1035画素(1.4メガ画素)を持つCCDタイプのデジタルカメラが開発され市販化されたのです。
当時、メガピクセルなどというCCD素子はとてつもない画素を持った撮像素子でした。天文分野や分光分析分野で素子を液体窒素で冷やした百万画素のCCDカメラは使われ出していましたが、産業向けの機器としてはまだ先のことように考えられていたのです。
このカメラの名前は、メガピクセル(100万画素)を凌いだ素子を持ったカメラということで「メガプラス(Megaplus)」と呼ばれました。このカメラは、その後1990年代の計測用分野で固体撮像素子カメラの牽引役を果たしました。
当時、CCD撮像素子は、テレビカメラ用として大量生産を始めていました。従って、映像の読み出しは当然アナログ信号(デジタルではない)であり、NTSC(もしくはPAL)に準拠したものでした。したがって、1画素の大きさも、現在のように計測に便利な正方格子の四角いサイズではなく、4:3の縦長のものが一般的でした。しかし、Videk社のカメラは、1画素が6.8um x 6.8umと正方格子で、しかも、アナログ信号ではなくデジタル信号として取り出せるカメラでした。明らかに計測目的を意識して開発されたものでした。
バイデック社のメガプラスは、とてもコンパクトに仕上がっており、業界で大変な評判を呼びました。右下の写真を見ればわかるようにとてもコンパクトです。計測分野では、このカメラが数多く採用されました。
しかし、残念なことに当時以下の問題点を抱えていました。
1. 開発されたカメラは読み出すまでの機構しかなく、画像
の取り込みには別途処理装置が必要で、さもなくば画像
取り込みボードを組み込んだパソコンが必要であった。
当時のパソコンは、MS-DOS + ISAバスなので、性能は
よくなかった。メガピクセル(100万画素)の画像を取り
込むのに時間がかかった。
2. カメラを駆動する電源部が別途必要であり、カメラは複
数の電圧源が必要であったので、そのDC電源を作る電源
部は専用となり、しかも大型(7kg)であった。
3. トリガタイミングが任意に取れず、欲しいマイクロ秒単
位でのタイミングの画像がとれなかった。
カメラ主導でのタイミング撮影は可能であったが、現象
優先の撮影は不可能であった。
4. カメラにはメカニカルシャッタが内蔵され、露出時間は
メカニカルシャッタに依存し、最小1/1000秒程度であ
った。また画像の転送は、メカシャッタが閉じてから行
った。理由は、CCD素子がフルフレームトランスファ
タイプであり、電子シャッタ機能がなかったため。
5. 従って、取り込みは最大で5コマ/秒程度であった。
6. 画像の取り込みは、サードパーティの画像ボードメーカ
に依存した。バイデック社(コダック社)はカメラ単体
の販売に終始したので、画像ボードメーカがシステム
を構築したり、ユーザがシステムを構築した。
こうした問題がありながらも、メガピクセルの映像はとても精緻で、1980年代の終わりに発売されたこのカメラの画像を見たとき、フィルム画像の時代ももうすぐ終わりなのかな、と思いました。当然このカメラは白黒で、カラーカメラはありませんでした。当時、コンピュータの性能といえば、OSがMS-DOSであり、メモリも高価で(4MBのRAMを搭載するのがやっとだった)、HDDの容量が小さく(100MB程度が大容量だった)、データ保存は1.4MB容量の3.5インチフロッピーディスクを使うのが主流でした。データ用CDも、ましてやDVDもありませんでした。それに、なによりも、メガピクセルクラスの画像を表示させるモニタがありませんでした。
こんな時代背景にあっては、メガバイト級の画像を扱うのは並大抵ではありませんでした。当時の画像は、TIFFやBMP、PICTなどの画像ファイルが中心で、GIFなどの圧縮手法による画像フォーマットは産声を上げたばかりでした。
そうした時代にとてつもないメモリ容量を食う計測カメラが出現したのです。
計測用カメラとして開発されたメガプラスの心臓部のCCDがどのようなものだったのかを紹介します。
■ VIDEK社メガプラスカメラのCCD
バイデックに使われたCCDは、フルフレームトランスファ型CCD 固体撮像素子を使用していました。この素子はCCD素子のもっとも初期のもので、当時CCDと言えばこのタイプのものが主流でした。1984年に打ち上げられたハッブル天体望遠鏡のカメラ もこのタイプで、20年以上経った今でもこのタイプのカメラが使われています。現在主流となっている電子シャッタ機能をもつCCD(インターライントランスファー型)はずっと後になって登場したものです。フルフレームトランスファタイプは画像の転送を受光した画素で行うので、現在一般的になっている垂直転送回路がありません。受光部が転送部になっていました。したがって、逆に言うと、撮像素子上に受光とは関係ない転送部がないので、受光部を大きくすることができ、開口率(Fill Factor)を100%とすることができました。
・撮像素子: CCDフルフレームトランスファ型固体撮像素子。
・画素数: 1340(H)x 1037(V) (1,389,580画素)。
・画素寸法: 6.8um x 6.8um --- 一画素あたりの寸法。正方格子タイプ。
・撮像素子の有効画面: 8.98mmx7.04mm(アスペクト比4:3) --- 2/3型フォーマットに対応。
・デジタル変換: 8ビット(256階調) --- 白黒画像で、階調が256階調であった。
・画素転送レート: 10MHz --- 画素を画像ボード(コンピュータ)に送る転送速度。
・画像転送レート: 最大6.9コマ/秒(メカニカルシャッタを使わないストロボ使用時)
10MHzのクロックによって、8ビッドデジタル情報に変換した画素を読み出して
いくので、理論上の読み出し画像レートは、
10MHz / 1.38958M = 7.196 コマ/秒
となるが、画像間の読み出し手順に時間がかかるので、最大6.9コマ/秒となる。
ストロボを使わずに、CCDの露光時間で行うと露光時間中は転送できないので
その分、画像転送速度は遅くなる。
メカニカルシャッタを使う場合もメカニカルシャッタが動作する分だけ遅くなり、
最大5.1コマ/秒となる。
・カメラ電源: 専用パワーサプライ --- 重量7kgと重かった。
入力電源: AC100V、AC120V、AC220V、AC240Vのいずれかをセレクタで設定。
入力電源周波数: 47Hz〜63Hz
DC出力: + 8V デジタル回路用
+ 18V 検出素子用電源
- 15V 検出素子用電源
+ 11.85V メカニカルシャッタ電源
- 8V A/D電源
・データ出力ピン: D-サブミニチュア37ピン
ピン数: 37ピン
デジタルビデオピン 8ピンx2
デジタルグランド x2
フレームリセット/露光時間 x1
モード制御 x3
ピクセルクロック x2
ラインデータバリッド x2
フレームデータバリッド x2
露光 x2
予備 x7
・カメラ単体の大きさと重さ:76.2(H) x 127(W) x 131.6(D) 1.59kg
・使用環境条件: 結露なき条件にて 0〜40℃
1990年代を通して、計測用CCDカメラは普及の一途をたどりましたが、それでもまだ一般のユーザが簡単に使えるという代物ではありませんでした。デジタルはまだまだ高価であり、これを使いこなすにはユーザのレベルもまた周辺機器のレベルも成熟していませんでした。当時、私もなんどかこの種のカメラを扱おうとチャレンジしましたが、親切な画像ボードメーカに巡り会えなかったり、CCDの仕組みがよくわからなかったり、パソコンが十分に使いこなせなかったりと、思うにまかせなかったことを覚えています。
そうした理由で、1990年代はアナログのビデオ信号出力(NTSC、RS170)を持つアナログカメラの方が当時圧倒的に使いやすく成熟した製品であったことを思い出します。市販で安価にたくさん出回っているビデオモニタを使えばアナログビデオ信号による映像信号を画像として見る事ができて、直裁的で簡便だったのです。画質さえ厭わなければそれで十分でした。
真のデジタル時代が来るのは2000年以降だと思います。
高解像力CCDカメラ(Megaplus) (2000.09.11)(2008.11.28追記)
計測用CCDカメラは進化を遂げ、1990年代後半には、4,000x4,000画素のカメラが登場しました。実際に市販された高解像力のCCDカメラについてその性能を調べてみましょう。ここで例に挙げたのは、「メガプラス(Megaplus)」と呼ばれるカメラです。このカメラは、米国Redlake MASD社(1999年まではKodak MASD社。現在(2008年)、米国Roper社傘下、Redlake→PI部門で製造販売)が1980年代後半より市場に出している科学用高解像力CCDカメラの総称です。右のカメラが、Megaplus モデル16.8iと呼ばれるものです。このカメラの特徴は、4000画素x4000画素の撮像素子を持っていて、1秒間に2枚の画像を得ることができました。(このカメラは2004年販売を終了しました。)
【主な仕様】
■ カメラ
・撮像素子: フルフレーム型CCD(Kodak製)
・総ピクセル数: 1680万画素
4,143 (H) x 4,126 (V) 画素
・有効ピクセル: 4,096 (H) x 4,096 (V) 画素
・ピクセルフォーマット: 9.0um x 9.0um
・画素エリア: 36.8mm x 36.8mm
・有効受光面積(開口率、フィルファクター): 100%
・シャッタ: レンズシャッタ(カメラではなくレンズに付いているシャッタを使っていた)
・シャッタ同期: 内部または外部同期
・階調: 8ビット
■ ビデオ特性
・ブラックレベル: ブラックリファレンスにより補正
・ガンマ: 1.0
・走査方式: ノンインターレース
・同期: 内部同期
・ダイナミックレンジ: 48dB以上
・ピクセル・クロック速度: 10MHz
・フレーム転送速度: 0.5フレーム/秒
■ オプション
・冷却CCD: 水冷式
■ 寸法及び重量
・寸法: 113.0(H) x 99.1(W) x 256.5(L) mm
・重量: 2.3kg
●使用レンズ
上の写真からもわかるように、使用するレンズは一般のレンズではなくローライレンズを使用しています。ローライレンズは、ラージフォーマットカメラ(ブローニーサイズと呼ばれる大判のフィルムでプロカメラマンがスタジオ撮影や風景写真、集合写真に使用)のレンズです。なぜこのような特殊なレンズを使うのかと言うと、CCDのサイズが大きいため(36.8mmx36.8mm、対角線52.04mm)、ニコンのようなライカサイズ(24mm x 36mm、対角線43.27mm)のニッコールレンズを使っても全ての画角をとらえきれないという問題が出てきます。従って、大判カメラのリンホフやハッセルブラッド、ローライ、ペンタックス6x7、マミヤに使われているレンズが必要となるのです。
撮像素子が大きいと、使用するレンズに制約が出たり、顕微鏡や特殊光学系に接続する場合周辺部のケラレが出る問題が発生します。
●フルフレームトランスファー型CCD
先の項目 (CCDの種類) でも述べたように、このカメラのCCDはフルフレームトランスファータイプを使用しています。画素が多いタイプでは全画面を画素単位で覆い、インターライン方式のように転送部を設けるという構造はありません。受光した画像も受光画素上で転送するため、転送時には遮光する必要があります。このカメラではレンズに内蔵されているレンズシャッタで被写体から入射する光を遮る方式を採用しています。フルフレームトランスファCCDは、画像サイズに碁盤の目のようにビッチリと受光画素が配置されているため(これを開口率 = フィルファクター 100%といいいます)被写体からの像情報をすべてCCDで取り込むことができます。インターライン方式ですと、撮像素子上に転送部などが配置されるため、その部分は像の情報が無くなってしまいます。これは画像情報に影響を及ぼします。
●総ピクセル数:
CCD撮像素子を埋めている画素(ピクセル)の数を示します。この画素が多ければ多いほど高解像力の画像が得られます。反面、大容量のメモリを持ち、画像を受け入れる高性能画像ボード、高解像力、高速表示性能を持ったコンピュータが必要になります。
●ピクセルフォーマット、画像サイズ、有効受光面積:
理化学用にCCDカメラを採用するときに重要になる性能です。昨今のCCDカメラは超小型になりつつあり、画像サイズも1/2インチ、1/3インチサイズとなっています。理化学分野から見た場合、ピクセル数は多くて、ピクセルフォーマット(1画素あたりの大きさ)が大きい方が光を受ける面積が大きいので微弱光を検知しやすく有利です。このカメラでは9umx9umのピクセルサイズを持っています。この1画素が4096画素分横一列に並ぶため、画像サイズは、9umの4,096個分、つまり36.86mmとなります。従って、縦・横4,096個分のピクセル配列ですから画像サイズは36.86mm x 36.86mmとなります。
有効受光面積は受光セル(画素)が画像サイズ全てにわたって受光できる割合を示すもので、開口率とかフィルファクターと同じ意味です。このモデルではフルフレームトランスファーですから、画像サイズ全面にビッシリとピクセル配置され受光を遮る転送部などがありません。画像情報を重視する場合にはフィルファクターが100%のものが要求されます。
●シャッタ及びシャッタ同期:
このモデルはフルフレームトランスファー型CCDですから画像の転送は画素の上で行われます。したがって、画像の転送中は遮光する必要があります。カメラによってはカメラ内部にメカニカルシャッタが内蔵しているものがありますが、このモデルでは、カメラではなくレンズ自体にシャッタが内蔵されています。
シャッタ同期というのは、ストロボ発光装置と同期させて画像を取り込む場合に必要な機能で、同期信号によって照明用のストロボを発光させ、その後に画像を転送する仕組みになっています。このモデルの場合にはシャッタ同期が内部と外部の切り替えができるようで、内部の場合にはカメラからストロボに対して同期信号を出力し、外部同期の場合にはストロボ発光装置から信号をカメラがもらい撮影のプロセスを行います。
●階調:
画像を取り込む濃度の巾をさしていて、このカメラの場合8ビット(256階調)の濃度成分を持ちます。
●ブラックレベル:
CCDカメラのセルにはいつもノイズによる電荷が貯まっていて、このノイズは情報として不適切なので、8ビットデジタル処理する場合の足切りとして黒の成分の電荷を予め覚え込ませておきます。こうすることにより、有効な電荷成分を8ビット階調に割り当てることができます。通常、このブラックレベル補正は、レンズにキャップなどを施して、暗電流やノイズ成分をプロセッサーに覚え込ませる処置を施します。
●γ(ガンマ):
光の入力 露光量に対するCCDの受光濃度の傾きを表します。γ=1というのは露光量と濃度が1:1に対応している事になります。数式で書くと光の入力χに対してCCDの受光出力yが y = χγ の関係にある時のγの値を言います。たいていのCCDカメラのγは1のようです。このモデルもγが1です。
●ノンインターレース:
インターレースは、NTSCなどのビデオ信号に採用されている飛び越し走査方式で、このモデルでは全ての画素を1回の読み出しで行うためノンインターレース方式になっています。なぜNTSCにインターレースがあるのかは、 「高速度カメラQ&A」 、 「Q01. 普段見ているテレビは1秒間に何枚の絵を出してるの?」 を参照下さい。
●ピクセルクロック速度:
CCDに蓄えられた画像を画素毎にこのクロック速度で転送します。このモデルでは10MHzのクロックで1600万画素(16M画素)の画像を取り出しますから1.6秒かかることになります。これが次に述べるフレーム転送速度の根拠ともなります。
●フレーム転送速度:
1秒間に撮影できる枚数を表します。このモデルでは0.5フレーム/秒で2秒に1枚の映像を得ることができます。
●CCD冷却
オプションで水冷機能を設けることによりCCDの温度が一定になりノイズ成分を低減させたり安定します。
1分以上の長時間露光を行うようなCCDの場合は、電子冷却や液体窒素などを用いた冷却を行うことがあります。
新型高解像力CCDカメラ(Redlake社 Megaplus ES11000) (2006.06.24)
2005年に、高解像力CCDカメラとして、右に示すような電子冷却型カメラが製品化されました。これは、上で述べたMegaplus モデル16.8iの後継機種にあたるものです。計測分野では、高速性能、短時間露光(電子シャッタ)要求が高いため、フレームトランスファ型CCDでは需要を満たしきれなくなってきました。その要求に応えて開発されたのが、このタイプのカメラです。しかも、電子冷却機能を備えて登場しました。
このカメラの大きな特徴を以下に示します。
・撮像素子が36mmx24mmと大きい(フルサイズ)。
・レンズは、ニコンのFマウント用レンズを採用。
・電子冷却を採用。ダークノイズ低減。長時間露光可能。
・メカシャッタに代えて電子シャッタ方式のCCD撮像素子を採用。
・インターライントランスファ方式にもかかわらず
12ビット濃度(4096階調)を達成。
・高画素で高速撮影(〜4コマ/秒)が可能。
このカメラは、電子シャッタ機能を持ち、しかも12ビット濃度を持つという大きな特徴を持っています。従来、高階調撮影ができるカメラは、電子シャッタを持たないフルフレームトランスファ型CCDカメラが一般的でした。フルフレームトランスファタイプは、構造が簡単で受光部が広く深く取れるからです。従って、電子シャッタ付きの高精細、高濃度カメラは2005年あたりからの市販化できるようになった技術のたまものであり、大きな撮像素子を均一に冷やす冷却型のCCDで、なおかつ最新のデジタル処理技術がなければできないことでした。
このカメラは、右に示すカメラヘッドとコンソール部で成り立っています。コンソール部はカメラヘッドを4台まで接続することができます。コンソールにはこの他、パソコンに接続するためのIEEE1394とCameraLinkコネクタ、電源コネクタ、トリガ入出力用BNCコネクタなどが装備されています。カメラ操作は、パソコンによってコンソールを介してコマンドを送り、ライブ画像や記録画像をパソコンに取り込むことができます。操作ソフトウェアは、カメラ専用のものが付属されていてWindowsXP上で動作できるようになっています。
主な仕様:
■ カメラ
・撮像素子: インターライン
プログレッシブスキャン型CCD
(Kodak製 KAI-11000CM)
・ピクセル数: 10,709,376画素
4,008 (H) x 2,672 (V) 画素
・ピクセルフォーマット: 9.0um x 9.0um
・画素エリア: 36mm x 24mm(フィルムカメラのライカサイズと同じ)
・受光容量: 60,000 e-
・シャッタ: 電子シャッタ
・冷却: 電子冷却(室温より -5度の設定。ファン付きのものは室温より -15度)
・階調: 12ビット、66dB
・読み出しノイズ: 30 e-
・カメラレンズマウント: ニコンFマウント
■ 撮影操作
・カメラ操作及び画像読み出し: CameraLink もしくは IEEE1394a
・撮影速度: 最大4.63コマ/秒(CameraLinkにて30MHzでの読み出し時)
3コマ/秒(IEEE1394、白黒画像時)
・電子シャッタ露出設定時間: 192 us 〜 60秒(1us設定)(連続取り込み時)
19 us 〜 60秒(1us設定)(トリガーモード取り込み時)
・ゲイン調整: 0〜36dB
・ビンニング: 2x2、3x3、4x4
・ピクセル・クロック速度: 10MHz
・フレーム転送速度: 0.5フレーム/秒
■ 寸法及び重量
・寸法: 123.8(W) x 98.4(H) x 91(L) mm
・重量: 0.92kg
■ カメラ電源部(コンソール)
・接続カメラ台数: 4台(メガプラスIIカメラシリーズがすべて使用可能)
・ カメラ-電源部ケーブル: 2m、5m、7m
・操作: 汎用パソコン(WindowsXP)にてIEEE1394もしくはCameraLink接続
操作ソフトウェア付
カメラ認識、撮影速度、露出時間、ゲイン、ビンニング、ライブ画像モニタ、画像転送
・その他通信: Serialポート(オプション)、100Baseイーサネット(カメラファームウェアアップデート用)
・トリガ入力: デジタル信号(TTL、CMOS)による立ち上がり、もしくは立ち下がり信号。信号入力で決められた露出時間で画像取得。
・トリガ入力信号コネクタ: BNCコネクタ
・ストロボ出力: デジタル信号にて露出時間分だけ出力。
・ストロボ出力コネクタ: BNCコネクタ
・消費電力:15W/台(付属のACアダプタを用いてAC100Vから電源を供給)
・ 寸法: 157(W) x 50.8(H) x 157(D) mm
・重量: 1.14kg
高速度カメラ用CCD素子(Kodak 16ch読み出し素子) (2000.10.01)
特殊なCCD素子について説明します。高速度カメラ用に開発されたCCD素子です。一般のCCDカメラは1秒間に30コマ/秒の撮影を行います。しかしながら高速度カメラは1秒間に1,000コマ/秒程度の撮影を行います。通常のCCDカメラの撮像原理は上で述べた通りです。750素子(水平)x 525素子(垂直)のCCD素子が1秒間に30フレームで送る画素は、
750 x 525 x 30 = 11,812,500 画素/秒 ・・・(Rec -16)
となります。これが1秒間に1,000コマ/秒の撮影速度となると、転送速度は、393.8M画素/秒となります。400Mバイト/s(3.2Gビット/秒)の高速読み出しは、単純に考えると不可能な値でした。CCDの転送は100ns(1000万分の1秒)が限界と言われていますから、それよりも40倍も速く送らなくてはなりません。
そこで、Kodak社は素子を分割して並列に読み出す方式を考え出しました。この考えは、1982年にKodakがMOS素子で実現して特許を取った方式です。以下の模式図が、Kodak HRという高速度カメラ(1996年、Kodak R0、1999年、Redlake MASD HGモデル2000、Redlake MASD CRモデル2000という高速度カメラに採用、2003年製造中止)に採用されたインターライントランスファー型CCD撮像素子です。上下2分割、さらに水平に8分割で計16チャンネルの読み出し口を持っています。1ch(チャンネル)あたりのCCD素子は64x192画素になります。これで1,000コマ/秒の撮影を行いますから、
64画素 x 192画素 x 1,000コマ/秒 = 12,288,000 画素/秒/1ch ・・・(Rec -17)
となります。CCD素子の限界である10Mバイト/秒(10MHzクロック転送)の性能に挑戦した撮像素子ということができます。
この撮像素子は、高速読み出しという機能の他に、
・ 電子シャッタ機能(最小23マイクロ秒設定)
・ Bayerフォーマット カラーマトリクスフィルタによるカラー撮影
・ VOD(Vertical Overflow Drain) 構造による1:100以上のアンチブルーミング機能
・ 16umx16um画素
・ 2/3インチサイズ素子(8.192mm x 6.144mm)
という特徴を持っていました。
この素子は、1994年から2003年までのカラー高速度カメラに採用されて活躍しました。2002年あたりから、CMOS素子で高画素で高速撮影できる素子が開発されたので、この素子は製造を中止しました。従って、この素子がCCDタイプでは最も高速に転送できた素子となりました。
以後、 高速度カメラはCMOSの時代を迎えました。CMOS素子になっても高画素、高速読み出しタイプのものは複数の出力ポートから並列に読み出して読み出し時間の短縮を図っています。
計測用CCD素子(Kodak KAF素子) (2000.10.01)
通常のCCD固体撮像素子とは趣を異にした理科学用の計測CCD素子も作られています。
平成12年(2000年)9月22日の科学新聞にトピックスとして米国Kodak社が各種高性能センサーを発売しているという記事が載っていましたので紹介しておきます。これらセンサーは、人工衛星、交通管制システム、デジタルカメラ、スキャナーなどに使用されています。
固体撮像素子は、急速に進歩していて1年でたくさんの新しい素子が発表されます。これらの素子は現在も販売されているか保証の限りでは有りません。技術仕様の参考までに掲載するものです。CCD素子は、右の写真のようにむかでのような足のついた電子素子形状で平板に受光部が設けられています。この部分でレンズを通して結ばれた光学像が光の強さに応じて電荷を発生します。その電荷をむかでの足を通して電子回路に取り込まれ、画像が形成されます。
・KAF-16801CE: 1680万画素の大型CCDセンサー
画素サイズ9um、パッケージは34ピンセラミクス。
スタジオデジタルカメラ向けに開発。
・KAF-5100CE: 510万画素
画素サイズ6.8um、4/3インチイメージフォーマットサイズ、
パッケージは26ピンセラミクス。2,614x1,966画素。
・KAI-1020: 100万画素、インターライン型CCD
プログレッシブ型インターライントランスファー型CCD、電子シャッタ。
デジタルカメラ向けに開発。
また、コダック社では以下に述べるMOS素子についても初の開発を行い以下の素子を販売すると発表していました。(2000.10)
・KAC-0310VGA: VGA対応のグローバル電子シャッタ内蔵MOSセンサー
画素サイズ7.8um、ピンフォトダイオード、640x480画素、コダック社特許
のグローバルシャッタ機能(全てのピクセルを同時に露光することが可能な機能、
MOSタイプではこれが難しかった)、電源は3.3V。
・KAC-1310メガピクセルカメラ: 100万画素、MOSセンサー
画素サイズ6um、ピンフォトダイオード、1,280 x 1,024画素、1/2インチセンサー
8ビット/10ビット出力選択、プログレッシブ/インターレース選択
2007年3月時点で、コダック社が供給するCMOSセンサーは以下の通りです。
・KAC-9618: VGA(648x488画素)、7.5umx7.5um、1/3"型、30コマ/秒
・KAC-9619: VGA(648x488画素)、7.5umx7.5um、1/3"型、30コマ/秒
・KAC-9628: VGA(648x488画素)、7.5umx7.5um、1/3"型、30コマ/秒
・KAC-00400: WVGA(768x488画素)、6.7umx6.7um、1/3"型、60コマ/秒
・KAC-01301: 1.3MP(1284x1028画素)、2.7umx2.7um、1/4"型、15コマ/秒
・KAC-05010: 5.0MP(2592x1944画素)、2.2umx2.2um、1/2.5"型、5コマ/秒
・KAC-3100: 3.1MP(2048x1536画素)、2.7umx2.7um、1/2.7"型、10コマ/秒
・KAC-5000: 5.0MP(2892x1944画素)、2.7umx2.7um、1/1.8"型、6コマ/秒
高感度CCD素子 - EMCCD (2008.12.17記)(2009.02.03追記)
EMCCD(Electron Multiplying CCD)と呼ばれる固体撮像素子は、CCDの仲間に入り、非常に感度の高い撮像素子です。電子増幅CCDと呼んでいます。このCCDは、素子内部にある電子増幅を受け持つ回路によって、約1,000倍の感度をもつものです。これは、2002年の同時期に、米国テキサスインスツルメンツ(TI)社と英国E2V社で開発され、TI社の製品はImpactron(インパクトロン) CCD、E2V社の製品は、L3Vision CCDという商品名でそれぞれ販売されました。
このCCDは、感度が非常に良いので、イメージインテンシファイアと組み合わせたCCDカメラと比較されることが多く、フォトンカウンティングの領域で使われています。
EMCCDの構造を見てみると(右図参照)、撮像部は、フレームトランスファCCDと同じ構造になっていて、それに加えて、読み出し部に電子的な増幅部があることがわかります。この電子増幅部に、50V程度の高い電圧が加わり、一種のアバランシェ効果(電子なだれ)を起こして画像信号を増幅していきます。構造からわかるように、CCDがフレームトランスファ式なので、高速度撮影には向かず、電子シャッタも高速で行うことができません。受光部から蓄積部に移す時間が、最小露光時間となります。例えば、縦列に512画素のCCDが並び、これを1.5us/画素で転送する場合、
1.5E-6 us/画素 x 512 画素 = 768 us
768 usの転送がかかります。この間に、受光部に光が入り続けますから、スミアの問題も出てきます。
また、電子増幅部でも同様のクロック時間でピクセル転送を行うとすると、512x512画素の画像では、
1.5E-6 us/画素 x 512x512 画素 = 0.393 秒
の取り込み時間がかかります。0.393秒は、2.54フレーム/秒に相当します。
こうしたことから、EMCCD素子は、(100us以下の)短時間露光が必要な応用や、高速度撮影はあまり得意でないことがわかります。
イメージインテンシファイア(I.I.)と比較した場合、I.I.の場合は、撮像管(真空管)であるために、過度な光に対してダメージが大きい、ノイズが多い、振動に対して弱い、寿命が短い、カメラと組み合わせて使うので画質が落ちる、という欠点を持ち、この点においては、EMCCDが有利となります。しかし、EMCCDは、マイクロ秒以下の電子シャッタを持ち得ないために、高速現象への応用が利かないというデメリットを持ち合わせています。
EMCCD を使った代表的なカメラ
- ProEM(米国Princeton Instruments社)
【仕様】
・撮像素子: 背面照射型EMCCD
・画素数: 1024 x 1024画素
・画素サイズ: 13um x 13um
・素子サイズ: 13.3mm x 13.3mm
・画素濃度: 16ビット
・量子効率: 90%以上
・電子冷却: -65℃
・メカニカルシャッタ: φ25mm口径 内蔵
・電子増幅: 二段増幅
・画素読み出し: 10Hz 〜 5MHz
・読み出しノイズ: 25e- @5MHz
50e- @10MHz
・受光容量: 730,000 e-
・EM増幅: 1 〜 1,000X(設定可能)
・転送レート: 蓄積部への転送
0.6us 〜 5us(可変)
・取り出しレート: 10MHz、5MHz
1MHz、100kHz
・取り込み速度: 8.5コマ/秒
@1024x1024画素
・レンズマウント: Cマウント
上に示したカメラは、2008年に発売された米国Princeton Instruments社のProEMという高感度カメラです。素子に背面照射型のEMCCDを使っていて、-65℃で素子を冷やしています。-65℃の低温なので、素子に霜がついたり結露することを防ぐために、素子は真空パックされています。冷却効果を高めるため、外部より空気や純水などを送り込んで、電子冷却で発熱した部位を強制冷却する機構も設けられています。素子は1024x1024画素で16ビット(65,000階調)の濃度を持ちます。CCDは、一定時間露光したあと、1024画素ある縦列を0.6us〜5us/画素かけて蓄積部に入ります。この間(614us 〜 5,120us)は、光にさらされるためスミアの危険があります。蓄積部に入った画素情報は、電子増幅を行いながら、100kHz〜10MHzのレートで読み出されます。取り出しレートが低いと、ノイズが入らず高画質が維持されます。10MHzの取り出しレートでは、1024x1024画素を0.105秒で取り出すことができます。撮影速度は、この取り出し時間に、最小露出時間とCCDの蓄積部への転送時間を加えなければならないので、撮影速度は、8.5コマ/秒(0.118秒/枚)となります。
メカニカルシャッタは、転送時のスミア防止、暗部(ダークカレント)補正用、使用しないときのホコリ防止に使うもので、一種のキャッピングシャッタの働きをします。
↑にメニューバーが現れない場合、
← クリックして下さい。
▲ 撮像素子 - - -CMOS (Complementary Metal Oxide Semiconductor) 素子 (2000.09.24)(2008.10.25追記)
MOSタイプの撮像素子は、CCDと違い構造が比較的シンプルです。電源もバケツリレーをしないため転送のための多種類の電源がいりません。画素の転送は、XとYのそれぞれをアドレス(指定)して交差した画素の電荷を取り出す方式です。この方式は高速化しやすい特徴を持ちます。1990年に登場した固体撮像素子による高速度カメラにはMOSカメラが使用されていました(Kodak HS4540、ナックHSV-1000、フォトロンFastcam)。2000年を越えてからは、高画素(1280x1024画素、500コマ/秒)でグローバルシャッタ(全画素一斉に電子シャッタが働く機構)のCMOS素子が市販化されるようになったので、多くのカメラメーカが高速度カメラを作るようになりました。高速度カメラは、現在(2002年〜2008年)、CCD素子を使ったものはほとんど見かけません。CCDでは、電荷をバケツリレーで送る構造上、高速で転送できないという問題があったからです。反面、初代(1990年代初め)のMOS型素子には、トランジスタによるスイッチングノイズが画像に影響を与えたり、画素はXYアドレスが指定されるまで電荷を蓄え続け、シャッタ機能が設けられないという欠点も併せもっていました。
CCDは、高速度カメラに向かないと言いましたが、CCDの特殊な素子であるISIS(近畿大学江藤剛治先生開発)では100枚の画像記録をCCDの転送部に持たせ100万コマ/秒の撮影を達成しています。
■ MOSと呼ばれる半導体
CMOSと呼ばれる固体撮像素子は、MOS型固体撮像素子に区分されます。
MOS素子そのものは、1968年に米国RCA(Radio Corporation of America)社が開発したロジックIC(4000シリーズ)で有名になるトランジスタです。MOSは、カメラのために開発された電子素子ではありません。トランジスタ構造の1種類です。トランジスタの1種類として1950年代から研究が続けられていました。MOSは、米国ベル電話機研究所を中心に米国RCA社、同Faichild社が熱心に研究を始めていました。1960年代後半、トランジスタがアナログからデジタルへ移行していた時に、RCA社がデジタル素子としてMOS構造の半導体を採用しシリーズ化(4000シリーズ)しました。当時、デジタル素子は米国テキサスインスツルメンツ社が開発したTTL(Transistor Transistor Logic、1964年)がありました。1990年代までデジタル素子で高速のものはTTLが優れていたので、計測用のデジタル電子機器はTTL素子を使ったものが主流でした。 TTLは、バイポーラトランジスタ(初期のトランジスタ、NPN、PNP半導体を直線的に配置した構造)を用いたトランジスタロジックで、電流の流れで信号を扱っていました。反対に、MOSはMOSFET(MOS Field Effect Transistor)という言い方で一般的なように、電界効果型トランジスタであり、電圧によりトランジスタを働かせるものです。従って、MOSは、電流を消費しないという特徴を持っていました。
MOSは、構造上、nタイプのものとpタイプのもの、および両者を組み合わせた相補的なCタイプのものがあります。歴史的にみてCタイプのものが最後に開発されて前者の良いところを取り込んだので、MOSと言えばCMOSを指すようになりました。pMOSは初期のバージョンであり、安定していて消費電力が少ない反面、速度が上がりませんでした。nMOSは速度向上に向いていました。CMOSは、それら両者の良いところを取り入れて発展しました。現在のCPUやRAMメモリなどコンピュータ回路には、ほとんどすべてCMOS素子が使われています。
このように半導体技術の歴史を見てみますと、MOS固体撮像素子は、MOS技術を導入して作られた固体撮像素子であったことがわかります。従って、撮像素子の開発においても通常のMOS開発と同様の流れがありました。つまり、nMOSタイプがMOS型撮像素子として1980年代に世に出ました。CMOSタイプは1990年後半からです。2000年以降、MOS型撮像素子はほとんどCMOSタイプになりました。
【CMOSカメラの開発】
MOS(正確には相補型MOS、CMOS = C omplementary M etal O xide S emiconductor)固体撮像素子は、CCD撮像素子と同じ時期、正確にはCCDより3年早い1967年に米国フェアチャイルド社(半導体メーカの草分的存在の会社。CPUで有名なインテルは1968年にFairchildの社員3名で作られた)のWeckler氏によって発表されました。
MOS型撮像素子の簡単な原理は、光をフォトダイオードで受けてそれをトランジスタのスイッチによって取り出すというものです。フォトダイオードをアレイ状に並べたものでした。CCDが、電荷の転送形態を発想の主眼において、半導体メモリとして使おうと考えていたのとは好対照で、CMOS撮像素子は最初から映像デバイスとして開発されました。 従って、画像を取り出す考え方はとても素直です。
1970年から1980年代は、固体撮像素子の興隆期で、MOS型、CCD型あるいは、この二つを組み合わせたMOS-CCD型が競い合い、1990年に入って、S/N比に劣る(トランジスタのスイッチングノイズとフォトダイオードの感度のバラツキが主な原因)MOS型は性能面でCCD素子に水を開けられました。
しかし、1990年代の終わりになって再びMOS型素子を見直す機運が現れました。MOS型素子の特徴は、製造工程が簡単なことと消費電力が少ないこと、それに自由な読み出しパターンが得られることです。特に消費電力が小さいことは、昨今のデジカメの台頭やバッテリ駆動のムービーカメラでは大きな魅力になって再び脚光を浴びるようになりました。
CMOSイメージセンサーが見直される直接的な契機は、1994年、米国NASAのジェット推進研究所(JPL:Jet Propulsion Laboratory)のEric R. Fossum氏の研究に始まります。エリック・フォッサム氏は、JPL退社後、1995年にフォトビット社を設立し、2001年Micron Imaging → 2005年SIIMPEL社、および南カルフォルニア大学助教授に就任されています。彼は、CMOS素子に増幅器を内蔵させたCMOS APS(CMOS Active Pixel Sensor)撮像素子を開発しました。これがCCDに匹敵する画質を持っていたため、MOS型素子の長所をアピールすることができるようになり、AT&T、Kodakなどへ協力を呼びかけて活性化を図り、今日のCMOS撮像素子の発展につながって行きました。NASAでは、宇宙計画の一環としてコンパクトなカメラ素子開発を望んでいて、シリコン基板上にセンサー、アンプ、ドライブ回路、補正回路をすべて実装でき、しかも単一電源で駆動するCMOSカメラの開発に熱心であったという背景があります。この開発が、携帯電話や監視カメラなどの「目」として急成長を促していくことになりました。2000年からは、電子シャッタ機能を持つMOS型固体撮像素子もできました。2004年あたりからはデジタル一眼レフカメラにも採用されるようになりました。
また、コンピュータに使われる光学マウスのセンサーとしてCMOSセンサーが使われ飛躍的に業績を伸ばしています。このセンサーは、16x16画素(256画素)、64階調(6ビット)で電源回路及び取り出し回路と一緒に22mmx10mm程度のICチップ(DIP = Dual Inline Package)に収められていて、一秒間に最高2,300コマ/秒(2,300Hz)で2次元画像のパターンを読み出します。この情報を取り込んで、画像処理を経てマウスの移動距離、速度を算出するようになっています。このセンサーを開発したのは、米国 Agilent Technologies Inc.という会社で、ADNS-2051という素子を一般向けに販売しています。このセンサーは、500cpi(cpi = count per inch)の解像力を持っています。
【CMOSカメラの特徴】
2000年以降、CMOS撮像素子が復権してきています。その理由を以下に述べます。
1. 画質の向上
新世代(1990年代後半)のCMOS固体撮像素子は各画素に増幅器を備えています。MOS製造技術がCCD素子並に発達して、1画素 4-7um相当の素子が作られるようになり、微細加工技術によってフォトダイオード、増幅トランジスタ、リセット用スイッチ、行選択スイッチを配列する事が可能になりました。この考えは、MOS型撮像素子が考案された当初からあったアイデアでしたが当時の加工技術では不可能でした。
各画素に増幅トランジスタを配置できることによって受光した微弱な電荷を直ちに増幅できるようになり、その後に加わるノイズに比べて信号成分を高くすることができるようになったため、S/Nのよい高画質な映像を得られるようになりました。
2. 固定パターンノイズを抑える技術の確立
固定パターンノイズ(FPN:Fixed Pattern Noise)を抑圧する回路をMOS素子上に実装できるようになり、各画素に設けられた増幅トランジスタの特性のバラツキを抑えることができるようになりました。
3. CMOS技術で素子を構築できるため小型コンパクト
素子をCMOS製造技術ですべてまかなえるため構造がシンプルでコンパクトにまとめることができます。電源も単一電源(例3.3V)だけで駆動できることから電源部もシンプルにできます。実際には素子にはいくつかのバイアス電圧が必要ですが、素子にバイアス発生回路を内蔵させることができるので、外部からは単一電源とマスタークロックを与えてやれば良いというシンプルなものになります。言い換えればCMOSセンサーは1チップで全てを内蔵できてしまいます。CCDは、CMOSと違い構造上1チップにまとめることができません。
4. 低消費電力
これがCMOSの大きな特徴です。CMOS撮像素子は、読み出す画素のX-YアドレスのトランジスタスイッチのみONし、後は休止していても問題ない構造となっています。反対に、CCDは常時垂直、水平転送部に転送のための駆動パルス(それも5V、12V、-8Vなどの複数の電圧)を印加させなくてはなりませんから電気を常時消費します。CMOSの場合、VGAクラスのモジュールで消費する電力は200mWで、同じクラスのCCDに比べて1/5であると言われています。
この利点を活かして、携帯電話、モバイルPC、小型を必要とするカメラの応用市場で急速に需要を伸ばしています。おもしろいことに高級デジタル一眼レフカメラ分野でもCMOS撮像素子を採用するケースが増えています。
5. X-Yアドレッシングの魅力
CCDが一括転送という機能を主眼に開発されたのに対し、CMOSは特定の画素を指示して読み出すことができるX-Yアドレッシング方式です。この特徴を巧みに利用すればおもしろい応用が広がります。
高画素の素子は全ての画素を読み出すのに時間がかかるので、撮影速度が遅くなる欠点がありますが、X-Yアドレッシングの機能を使えば、興味ある範囲だけを読み出したり、間引きして読み出すことにより高速でモニタリングできるため構図を決めたりピント合わせなどが迅速にできるメリットが出てきます。
高速読み出しというのも大きな魅力です。2004年には、1504 x 1128画素、1,000コマ/秒で読み出せるCMOS素子が開発されました。
6. 安価
CMOSセンサーは、既存の半導体技術で比較的簡単に製造できるため、価格が安くできるというメリットがあります。価格が安いと言うことはパーソナルユースの電子機器に組み込まれる潜在能力を持っています。今や携帯電話にCMOSセンサーを搭載したモデルが常識になっています。こうした画像機能を付加した電子機器が価格が安価になれば爆発的に伸びる可能性があります。コンピュータに使われる光学マウスにもCMOSセンサーを搭載したモデルが多く出回るようになりました。2000年ベースでのCCDの世界規模の売り上げは18億ドル(2000億円)と言われ、方やCMOSは6億3200万ドル(758億円)でした。当時、世界市場の75%がCCDの市場でしたが、2004年にはCMOSが追い抜き、その売り上げ規模は22億8000万ドル(2,736億円)となりました。CCDは、特殊な応用(医用、天体観測、物理学分野、放送局分野)分野での使用に限られて来ています。
▲ CMOS素子とCCD素子 (2001.09.24)(2008.12.27追記)
固体撮像素子の代名詞である両者のどちらが良いかと簡単に述べるのは難しいことです。歴史的にはMOS型撮像素子がCCDに先んじて開発されましたが、1980年と1990年は圧倒的にCCDの時代でした。2000年になってCMOSの持つ欠点が克服されて長所が見直され、徐々に固体撮像素子の市場に浸透しつつあるという感じを受けます。
2001年の春には、Kodak社とMotorola社の共同開発によって、メガピクセルサイズのKAC1310というカラーCMOSデジタルセンサー(1/2インチフォーマットサイズ、1280 x 1024画素)と、KAC0310と呼ばれるVGAタイプ(1/3インチ、640 x 480画素)のセンサーが発売されました。
KodakとMotorolaという組み合わせは興味があります。
Kodakがイメージングの世界ではリーディングカンパニーで、Motorola社がCMOS技術では世界的なリーディングカンパニーだからです。モトローラ社は、これまでイメージセンサーを作っていませんでした。コダックはCCD素子では秀逸なものを開発してきました。
CCDとCMOS両者の2000年時点での市場占有率は、CCD75%、CMOS25%と言われていました。これが2004年には逆転し、2007年にはCCDの市場は30%になるだろうと予測されていました。(2006年1月の時点では、CMOSカメラが大分追い上げてきてはいますが、まだ逆転はしていません。ただし携帯電話用のデジタルカメラは2004年にCCDチップを追い越して、2007年でのCMOS素子はCCDの6倍になっています。反面、デジタルカメラは2007年時点でCCDの1/10程度となっています。高級デジタル一眼レフカメラでは、2008年時点でCMOSセンサーが大勢を占めるようになりました。)
2002年、キヤノンが35mmフィルムサイズ(ライカサイズ)のCMOS撮像素子を開発し、EOS-1Dsに搭載しました。CMOSは、CCDに比べてノイズが多く画質が悪いと言われていた定説に真っ向から果敢にチャレンジし製品化に漕ぎ着けました。有効画素1,670万画素(4,992画素x3,328画素)に及ぶライカサイズの大型撮像素子開発になぜCMOSを選んだかと言うと、
一つには、電気を食わない素子であったこと、
次に、CCDに比べて製造が楽なために大形化しやすかったこと。
そして、たくさんの画素を速く読み出す必要から、高速化のできるCMOS素子が適当であったこと
があげられます。キヤノンは、この素子を8chの並列読み出しとして、4コマ/秒の撮影を達成しました。大きな撮像素子を採用するためにCCDでは製造が難しかったり、消費電力が大きかったりとCMOSに舵を切らざるを得なかったという見方も成り立ちます。
しかしながら、画質はCCD に比べるとまだ不十分で、2005年レベルでカラーリバーサルフィルムのラチチュードに追い付いた、程度と言われていました。
■ フィルムカメラを撤退させたデジタルカメラ
2006年1月13日に、すごいニュースが入りました。名門ニコンが一眼レフフィルムカメラから撤退するというニュースでした。ニコンの高級一眼レフフィルムカメラの販売台数は、最も販売した2000年の104万台をピークに下降線をたどり、2005年は14万台と1/7強まで落ちてしまったと言われています。その代わりにデジタル一眼レフカメラの販売が好調で品薄状態が続いるそうです。ニコンの採用している固体撮像素子は、イメージサイズは、23.7mm x 15.7mmとフルサイズ(ライカサイズ)ではありません。画素の少ないモデルにはCCD素子が使われ、ニコンD2xに使われている4,288x2,848画素(12.4Mピクセル)のものにはCMOSが採用されました。
この事実は、どう考えても画質優先というよりはバッテリの消費電力と読み取り速度、製造上の利点を考えてのことだと考えざるを得ません。
【CCDとCMOS撮像素子の一般的な比較】
CCD素子とCMOS素子は、今後どのような関係を保ってイメージング産業を支えていくのでしょう?
こうした技術は、日進月歩進歩するので現時点(2008年)で断定するのは無謀かと思いますが、おおよその傾向を述べておきたいと思います。
■ 感度
撮像素子の感度は、セルの大きさ、ノイズの量、増幅度、カラーフィルタの形式によって決まります。
基本的にノイズ成分の多いCMOSセンサーのほうが信号成分が少なく、開口率も小さいため感度はCCDの方が高いようです。リッチな画像情報を得ようとするとCCDカメラのほうが現時点(2008年)で有利です。16ビット濃度(65,000階調)を持つCCDカメラは市販されていますが、16ビット出力のCMOSカメラは2008年時点で聞いたことがありません。
CCD
CMOS
感度
◎
▲
画質
◎
▲
画素数
○
◎
消費電力
×
◎
コンパクト
×
◎
電子シャッタ
○
▲
ブルーミング
×
◎
将来性
▲
○
応用
CCD撮像素子とCMOS撮像素子の相対比較(2008年時点)
この表は、相対的な比較であり、絶対的な意味を持つものではありません。
■ 画質
画像の質感は、受光容量が大きくてS/Nの良いCCDの方が基本的には良好です。
反面、24mm x 36mm(フルサイズ、ライカサイズ)のような大型撮像素子を使った高級デジタル一眼レフカメラにはCMOSが使われて主流になっています。この事実から、CMOSは画質が良い、と判断しがちですが、どうでしょうか。生の画像はCCDの方が優れていると思います。高級デジタル一眼レフカメラには「グラフィックエンジン」という画像処理機能が設けられていてここでかなりの画像修正を行っているようです。
■ 画素数
CCDの方が歴史が長い分、高画素の素子が製造されています。CCDでは4,000x4,000画素のものが2000年の時点から販売されています。
CMOSは、製造プロセスが簡単でDRAMの製造プロセスで製造できることから近年、高画素化が進み、1,280x1,024画素から4,992x3,328画素まで製造されるようになっています。製造の観点から言うとCMOSの方が製造工程がCCDに比べてシンプルであるため、今後高画素素子が作られる傾向があります。
■ 消費電力
CMOSセンサーは同等のCCDセンサーに比べて1/5〜1/10の消費電力と言われています。
バッテリ駆動による装置ではCMOSセンサーの方が格段に強みを発揮します。
■ コンパクト
素子をコンパクトに設計するのは構造上CMOS素子の方が優れています。
素子の構造がシンプルなため集積率もCMOSの方が高くできます。
■ 電子シャッタ
CCD素子の中で、インターライン型と呼ばれるものは電子シャッタ機能を持ちます。
CMOSも、グローバルシャッタ 機能付きのものは電子シャッタ機能を持っています。
ただし、グローバルシャッタ機能のCMOSは、各画素にシャッタを切った後の電荷を一旦蓄えるメモリ部を持たせるので、受光部が小さくなり感度が悪くなる傾向があります。デジタル一眼レフでは、グローバルシャッタ機能を持つCMOS素子はありません。また携帯電話に使われるCMOSは、ローリングシャッタ です。
■ Blooming(ブルーミング)
CMOSセンサーは、受光部がバイアスをかけたフォトダイオードでできていて、
光の入射に対して保持していた電荷を放出する構造になっています。
従って、過度な光が入射してもCCDセンサーのように過剰な電荷が蓄えられて周辺の画素にあふれ出すようなBloomingという現象がおきません。
これは、CMOSセンサーの大きな特徴です。
▲ CMOSの画質を向上させたCDS(Correlated Double Sampling)機能 (2008.12.27)
CMOS撮像素子が、ノイズを低減させて画質を向上させていった大きな技術革新の一つにCDS(Correlated Double Sampling、相関二重標本化法)があります。CDSは、米国ウェスチングハウス社のMarvin H.White(1937〜)が、1974年に開発したものです。
この手法は、信号成分と信号のない時間での雑音成分を逐次A/Dサンプリングしてその差分を得るというものです。両者の共通する雑音成分を除去することができ、S/Nの良い映像情報を得ることができるようになりました。
▲ 電子シャッタ内蔵CMOS撮像素子 (2008.07.03記)(2008.09.13追記)
計測用CMOS撮像素子では、電子シャッタ内蔵のものが一般的になっています。計測目的に使う場合には、時間分解能を上げる必要上この機能を備えたものがとても大切だからです。CCD素子においても、計測目的では電子シャッタ内蔵のインターライントランスファCCDが一般的になっているのと同じ理由です。
CMOS撮像素子ができた当初は、シャッタ機能がありませんでした。 右図の青色の破線で囲まれた回路のないCMOS撮像素子が一般的でした。従って、フォトダイオードに蓄えられる電荷は、取り出しスイッチで取り出されてリセットがかかるまでフォトダイオード上に残ることになります。CMOS撮像素子では、各画素毎にスイッチが働いて蓄えられた電荷量を取り出すので、1画素毎に取り出し時間がずれます。CCDのように一斉に取り出すことはできません。CCDは、垂直転送路でそうした芸当ができましたが、CMOSは一つ一つ取りだすことが特徴です。従って、全画素を読み出す場合、撮影速度分の1、つまり、30コマ/秒の撮影では、最初に取り出した画素と最後に取り出した画素では1/30秒の時間的ズレが生じることになります。
■ ローリングシャッタとグローバルシャッタ(Rolling Shutter, Global Shutter)
1990年中頃に開発されたCMOS素子は、各画素に増幅器が内蔵されていて画素毎のノイズをキャンセルして情報分を有効に取り出す工夫がなされていました。これを1990年以前のCMOSと区別して、APS(Active Pixel Sensor)と呼びます。これは先に説明した右上の図の青色点線のない構造です。APSでは、各画素にリセットスイッチと増幅素子が内蔵されています。APS以前の素子をAPSの対語としてPPS(Passive Pixel Sensor)と呼んでいます。
APSでは、リセットスイッチの働きによって受光する時間分を任意に設定することができます。このリセットスイッチの本来の機能は、ノイズ成分も取りだしてノイズと受光成分の2成分を引き算して(CDS = Correlated Double Sampling、相関二重サンプリング手法で)ノイズを低減するために設けられたものですが、このリセットスイッチをシャッタスイッチとして使うことができます。すなわち、リセット信号を使って短い時間だけ受光を行えば高速シャッタリングを行うことができます。この機能をRolling Shutter と言います。 このシャッタでは、しかしながら、依然として各画素間の時間的なズレがありました。この機能では、1/100,000秒程度の短時間露光を行うことができる反面、各画素が1/30秒で取り込まれるならば最初の画素と最後の画素では1/30秒の遅れがでてしまいます。ローリングシャッタの名前の由来は、画面をローラで舐めるように(ドミノ倒しのように)シャッタが次々と切れていくのでこの名前が付けられたと理解しています。このシャッタ機能を説明したのが下の図の右です。実際のシャッタはこのようなものではありませんが、孔のあいたシャッタ孔が左から右に走り開けられた部位に 相当するセルが露光を受けるという仕組みです。これはニポー(独 Paul Nipkow、1860 - 1940)が1883年に考案したしたことからニポーシャッタとも呼ばれています。CMOS撮像素子ではこの機能を電子シャッタで行っていました。要するに全画素一度に電子シャッタを切ることはできなかったのです。
計測分野ではこのシャッタは受け入れ難いものでした。ローリングシャッタは、光量を調整するためには有効なものであるものの、画素ごとに時間が変わるのは正確な時間成分情報が得られないことを意味します。ローリングシャッタによる画像をみると、動きの速い被写体では像が歪んでしまいます。一眼レフカメラに使われているフォーカルプレーンシャッタも、一種のローリングシャッタです。フォーカルプレーンシャッタは、撮像面(フォーカルプレーン)に設けられたシャッタであり先幕と後幕の2枚の幕がフォーカルプレーン上を端から端まで走ります。2枚の幕の間隙(すきま)の巾と走るスピードでシャッタ時間が決まります。幕の走るスピードが遅い場合、撮像面の両端では露光する時間タイミングが顕著に変わります。ローリングシャッタはフォーカルプレーンシャッタと同じような問題を抱えています。
グローバルシャッタは、ローリングシャッタの問題を解決するために開発されました。
■ グローバルシャッタ(Global Shutter)
CMOS素子にグローバルシャッタ機能が付けられたことによってCMOS素子が計測用カメラとして普及を見たのは疑いのない所でしょう。しかし、高級デジタル一眼レフに採用されているCMOS素子には、グローバルシャッタ機能は付けられていません。上の図からあきらかなように、グローバルシャッタを付けるということは、画素内の回路が複雑になってフォトダイオード部が小さくなることを意味します。この機能を付け加えると、画素の開口率が下がり、さもなくば1画素のサイズを大きくしなければならなくなってしまいます。また、素子にシャッタという付加回路を付けなければならないことにより素子が高価になります。従って、グローバルシャッタ内蔵のCMOSカメラは、高速度カメラを含めた計測カメラしか使われていません。グローバルシャッタ機能がなかった1990年代の高速度カメラは、撮像素子の前にロータリ円板シャッタを回して撮影と同期させてシャッタを切っていました。円板のスリット巾と円板の回転数でシャッタ時間が決まりました。撮像面をスリットが横切ってシャッタを切るわけですから、回転円板シャッタはフォーカルプレーンシャッタということになります。また別の高速度カメラは、シャッタ機能をつけずにそのままのものもありました。そのカメラで高速度現象をとると顕著に画流れと像の歪みがおきました。そうした時には、パルスレーザを使ってレーザストロボで鮮明な画像を撮ったり、カメラの前にイメージインテンシファイア(光増幅光学装置)をつけてシャッタリングを行いました。
CMOSにグローバルシャッタ(電子シャッタ)がつけられるようになって、1/100,000秒〜1/1,000,000秒(10us〜1us)のシャッタリングが可能になりました。電子シャッタが機能する時間タイミングは、CCD素子の電子シャッタと同じで、転送を始める直前に行われます。
↑にメニューバーが現れない場合、
← クリックして下さい。
▲ 一時代を築いた撮像管 (2001.02.26)(2008.10.13追記)
固体撮像素子全盛の時代にあって、1990年代まで使用されてきた真空管撮像素子(イメージチューブ、撮像管)について触れたいと思います。撮像管は、右図に示すように真空管です。真空管の先(図では左下)が平面になっていて、そこが光導電体(photo conductor)となっていて光に反応して電子像を形成します。光導電膜の場合、光の強度に応じて抵抗が変化します。右上が電極です。
撮像管は高価で、取り扱いが難しい(高電圧を使う、光に対して敏感で焼き付きが起きる、破損しやすい、寿命が短い)製品のため、撮像管しかなかった時代にはテレビカメラを使って家庭内のプライベートな映像を撮るということはありませんでした。当時、アマチュア向けのテレビカメラは無かったのです。1980年代中頃までの家庭用動画撮影装置と言えば、8mmフィルムカメラが主流でした。テレビカメラが家庭に普及するようになるのは、CCDカメラと家庭用VTRが一般的になった1880年代後半からです。この時期に、8mm巾のビデオテープレコーダとCCDカメラの二つの映像機器が家庭用に開発され、これが一体型となって持ち運びに便利になったため大いに普及するようになりました。
従って、1980年代中頃までのテレビカメラと言えば、放送局用か産業用に限られていました。
現在主流になっている個体撮像素子と比べると、撮像管は以下の特徴を持っていました。
■ 固体撮像素子と比べた撮像管の特徴
・ ガラス製真空管 - 大きくて、破損の危険
・ 耐久性に問題あり
・ 寿命が短い(フィラメント切れ、真空度劣化)
・ 消費電力が大きい
・ 高電圧を使用する
・ 残像が多い
・ 過度の光で焼き付きが起きる
・ 歪曲収差が多い
・ 磁界の影響を強く受ける
・ 高価
CCDは、撮像管の欠点をカバーするすぐれた特徴をたくさん持ち合わせていました。従って、固体撮像素子の解像力と階調、感度が撮像管の性能に匹敵した時点で撮像管の時代の幕が下りました。
■ 撮像管の原理
撮像管の基本原理は、フォトチューブ(光電管 )です。固体撮像がフォトダイオードであるのに対し、撮像管は真空管を使った光検出素子と言えます。歴史的に見て、光電管の応用製品として撮像管ができるのは十分に理解できます。撮像管の多くは、光導電体(photo conductor)を利用しています。光電面(photo-cathode)ではありません。光電面は電子像が電子として一気に放出されるのに対して、光導電体は電気抵抗が変わるだけなので画像を一筆書きでなぞるように取り出すにはこのほうが都合がよかったのです。光電面は初期のテレビカメラ(非蓄積形撮像管、イメージディセクタ)や、イメージ形撮像管に使われました。撮像管は、光導電体の2次元面に光学像を結ばせて、2次元面の光学像をなぞるようにして電気信号変換(スキャン)を行っていました。従って、撮像管には走査を可能にするための熱電子電極と熱電子を光導電体に打たせる偏光電極機能を持たせていました。撮像管は、ブラウン管(CRT = Cathode Ray Tube、陰極線管)の反対の装置と考えて良いでしょう。ブラウン管(CRT)は、電子銃を使って蛍光面に電子像を描画する装置です。固体撮像素子と液晶テレビができるまでの電子映像は、入力も出力も電子管(真空管)だったのです。
■ 代表的な撮像管 - ビジコン(Vidicon)管
下図に、代表的な撮像管であるビジコン管(Vidicon tube)についてその原理図を示します。
撮像管は、外形が細長い円筒状のガラス管でできています。
図の左側が光導電体(ターゲット)で、中程に電子ビームを偏向及びフォーカスさせる電子制御部があり、右側は熱電子を放出するフィラメント = カソードになっています。
撮像管の周りは、撮像管内の電子ビームを走査する偏向ホークや収束コイル、アライメントコイルが取り付けられています。撮像管の左側の入射部にはカメラレンズが取りつけられ、光学像が光導電体(ターゲット)にできるようになっています。撮像管は真空管なので、電子ビームを放出するために別途300V〜800Vの電源を必要とします。撮像管内部には、カソードから放出される熱電子(電子ビーム)を精度良くターゲットに当てるための制御グリッドが4つ(G1〜G4)配置されています。G1(グリッド1、1番目のアノード)はカソードからの熱電子を加速する役目をし、G2(グリッド2)はG1で加速された電子ビームの電流調節を行います。G3は電子ビームを均一に飛ばす目的の円筒グリッドで、G4メッシュが電子ビームを減速させてターゲットに都合良くコンタクトさせるものです。
撮像管を回路的にみた図が、上図の右下に示した等価回路です。撮像管の受光部(ターゲット)は、ビジコンの場合、光導電体なので光の強さによって抵抗が変わる可変抵抗体となります。ビジコンで使われている光導電体は、三硫化アンチモン(Sb2 S3 )の蒸着膜が使われています。これは光の強さに応じて電気抵抗が変化する特質を持っています。この材料は、光が当たらないととても高い抵抗値を示し、光の当たる強度に応じて抵抗値が低下します。ターゲット面は、電気的には光によって抵抗が変わる可変抵抗(r)と電気容量(コンデンサ:c)を持ったものと見なすことができます。
電子ビームは、ターゲットに向かって打たれます。電子ビームがターゲットに当たると、上図の等価回路のスイッチが閉じたことになり、電荷がターゲット容量に蓄えられます。電子ビームが走査によって任意のターゲット面から離れるとスイッチが開いたことになり、ターゲット容量に蓄えられた電荷がターゲット抵抗(r)を通して放電します。ターゲット抵抗は光の強度によって変わるので、明るい場合は抵抗が低くなるため蓄えられた電荷は速く放電して電圧が高くなります。暗い場合は蓄えられた電荷はほとんど放電しないので電圧は上がりません。ターゲット面は薄い膜でできていて、電子ビームが照射された部分だけが上の等価回路の働きを持つことになります。光導電膜を持った撮像管では、CCD固体撮像素子のような画素という概念は明確にはないものの、電子ビームをきわめて細くして精度良くターゲット面に照射させ、ターゲット面がキメの細かい解像力の優れたものであれば電子ビームの走査(スキャニング)によって電子像をきめ細かく読み出すことができます。この構造からわかるように、撮像管自体にはシャッタという考えがありません。電子ビームが当たるまで光導電膜は光が与えられ続けます。したがって、こうした撮像管は短時間露光ができませんでした。短時間露光を行うには、走査の開始時点でキセノンフラッシュなどを発光させて露光させる必要がありました。
撮像管の歴史は、感度と解像力の歴史でした。人間の目で見える明るさで綺麗にテレビ画像が撮れることが一番の目的だったのです。300ルクス程度の室内できれいな色合いでテレビ画像を得ることが大きな目標でした。その目標に向かっていろいろな撮像管が作られて行きました。
また、娯楽用のテレビカメラとは違って、学術用のカメラも開発されました。これらのカメラは、紫外線やX線、赤外線に感度を持ったものや微弱光下で撮影できるカメラでした。これらの詳細は、「■撮像管の種類 」の所で触れています。
■ 撮像管の大きさ
撮像管の大きさを以下に示します。撮像管の径(呼び径)が現在の固体撮像素子の大きさを表す数値として踏襲されています。2/3型(2/3インチ)CCDは、18mm(2/3インチ)の径を持つ撮像管の像サイズと同じだったので、これが固体撮像素子に使われました。多くの撮像管は、1/2インチから1 1/2 インチ(13mm 〜 38mm)のものが多く作られ、高解像力のものでは2インチから4 1/2 インチ(51mm 〜 114mm)のものが作られました。撮像管も時代が下るにつれて技術革新によって小さなもので高性能なものが作られ、ENG(Electric News Gathering)用の3管式携帯カメラではφ18mm(2/3インチ)が主流となりました。
以下に、撮像管の大きさと像の大きさの一覧を示します。
撮像管の径と像サイズの関係
CCD・CMOS撮像素子の素子サイズの呼び名(2/3型、1/2型)に影響を与えた。
■ 撮像管の種類 (2008.09.24追記)
撮像管は歴史があるため、たくさんのものが作られました。
以下代表的なものを説明します。
上の図が撮像管の分類です。
撮像管は大きく分けて、1.の非蓄積形と2.の蓄積形に分けられます。
非蓄積撮像管は、テレビカメラの元祖的存在のもので、1931年に米国のFarnsworth(1906 - 1971)によってイメージディセクタ(Image Dissector)と呼ばれる撮像管が開発されました。この撮像管は、極めて感度が低くかったため、最初の動画用撮像管という栄誉を得ましたが実用には耐えませんでした。テレビカメラの最初の原型だったと言えるでしょう。
非蓄積管は、レンズで結ばれた光学像を電子像に変換する際に電子像を保持し続ける能力がなく、光が当たればそのまま光電子を放出していました。従って、電子像を電気信号として取り出すには、電子管の偏向回路によって電子像を偏向(移動)させて光電面の対極中央部に付けられたマルチプライヤ(電子増幅管)で電子像の部位を取り出していました。電子ビームを振らせて像を走査するのではなくて、検出部が固定されていたため像全体を上下左右に振らせていました。これは、我々が知る電子ビーム走査による撮像管(ビジコン管など)とは随分と違う方式でした。しかし、イメージディセクタ管は、電子像の任意の位置を走査することができるので、ランダムアクセスができる特徴がありました。そうは言っても、非蓄積管の名前の通りとても感度が低かったので、テレビ放送には使われず主に基礎研究として使われました。科学技術用としては特徴があったので、フィルム像や物体を計測する目的にこの撮像管が使われました。
蓄積形撮像管は、電子像が蓄積されます。蓄積された電子像は、電子ビームを使ってなぞられ(走査され)電気信号として取り出されます。このタイプでは、電子ビームが走査されるまで電子像が蓄積され続けますので(露光時間が長くなるので)感度が良いという特徴があります。蓄積形撮像管は、高速度電子ビーム走査方式と低速度電子ビーム走査方式の2種類があります。高速度電子ビーム走査方式の撮像管が最初に開発され、次第に低速度電子ビーム走査方式に取って代わられるようになりました。高速度電子ビーム走査方式の高速度とは、電子ビームを加速させる電圧が高くてビームの加速が速いという意味です。これの代表的な撮像管は、アイコノスコープ(Iconoscope)で、1933年に米国のツボルキン(Zworykin:1889 - 1982)が発明しました。イメージダイセクタが開発された2年後です。この撮像管は、イメージオルシコンが開発される1946年まで使われました。テレビ放送開局当時はこの撮像管が使われていたことになります。イメージオルシコンは、撮像管の操作電圧を低くして取り扱いをよくした高感度のものでした。この撮像管は、ビジコンが開発される1950年代後半まで使われていました。
このようにして、放送局で使われた撮像管は、ビジコン系の光導電形撮像管に収れんして行きます。ビジコン系撮像管(光導電形撮像管)は、進化を続け感度を上げて行き1990年までテレビ放送局のカメラの心臓として重要な役割を果たしました。これら連綿と続く撮像管の開発には、米国のRCA社(Radio Corporation of America)が中心的な役割を果たし、初期のほとんどの撮像管の開発にRCA社が関わりました。
● ビジコン(Vidicon)
先に、撮像管の代表的なものとしてその構造を説明したように(「■ 代表的な撮像管 - ビジコン(Vidicon)管 」)、ビジコンは撮像管の基本となったものです。1950年に、米国のRCA(Radio Corporation of America)社によって開発されました。ビジコンは、光導電形撮像管と呼ばれるタイプです。光導電形撮像管とは、半導体に光を照射すると電子や正孔の数が増加して、電気伝導度(導電率)が著しく増加する現象を利用した撮像管です。光導電体(ターゲット)は、三硫化アンチモン(Sb2 S3 )の蒸着膜を使用しています。このターゲットの感度波長は、λ=430〜740nm程度です。三硫化アンチモンは、非常に安定しているためたくさんの種類のビジコン管が開発されました。チューブ口径も1/2インチ、2/3インチ、1インチ、1.5インチの撮像管が市販化されました。ただ、放送局用には、このビジコンをベースにしてより感度のある解像力の良いプランビコンやサチコンなどが使われました。
高速度ビデオカメラ(1972年、米国Video Logic社 Instar、白黒画像)が最初に開発されたとき、カメラの撮像素子にはこのビジコンチューブが使われ120コマ/秒の撮影を可能にしていました。記録媒体は1インチ巾のビデオテープレコーダで、AMPEX社のドラムヘッドを改造して使っていました。 撮像管の残像もなんとか1/100秒以内に入っていたようです。
● プランビコン(Plumbicon)
1962年に、オランダフィリップスが開発した光導電形の撮像管です。撮像管の歴史は、感度向上の歴史でもあります。いかに明るくて階調と解像度の高い撮像素子を作るかが、第1命題でした。ビジコン管が撮像管の代名詞となって以降、この素子に改良が加えられて、幾多の撮像管が作られて来ました。プランビコンは、ビジコンの流れをくんだ高感度低残像の優秀なものでした。プランビコンは、光導電体として一酸化鉛(PbO)を採用しました。しかし、このプランビコンは波長感度に問題がありました。通常のプランビコンの波長感度は、λ=400〜650nmであり、赤の感度がなかったのです。赤に弱い撮像管でした。この感度不足を補うために、赤色感度専用にイオウ(S)を添加した赤増感ターゲットが作られました。
プランビコンは、感度が良く残像特性も良好なことから、初期のカラー高速度ビデオ(1982年、ナックHSV-200、カラー)に使用されました。
● カルニコン(Chalnicon)
この撮像管は、1972年に日本の東芝が開発しました。基本構造は、ビジコンと同じですが、ターゲットにセレン化カドミウム(CdSe)を用いて感度と解像力を向上させました。製品は、1インチタイプと2/3インチ(φ18mm)タイプの二つがあり、ビジコンとの互換性が保たれていました。感度が高くなった分、残像も多くなりました。 撮像管時代の放送局用テレビカメラは、野球中継(ナイター)や夜間の車の撮影をすると、輝度の高い照明灯やヘッドライトが尾を引くコメットテイル現象が見えました。放送された映像を見ると、1秒以上尾を引いていたので残像は1秒以上あったことになります。
● サチコン(Saticon)
1974年に日本の日立とNHKが共同開発しました。基本構造は、ビジコンと同じでターゲットにセレン(Se)を用いて、その中にヒ素(As)とテルル(Te)を添加したアモルファス膜を採用しました。感度と解像力がよく放送用ハンディカメラに使われました。このチューブは、感度と解像力、そして残像を抑えた撮像素子として開発されましたが、1/100秒以下に残像を抑えることができなかったため、高速度カメラ用には使われませんでした。
● その他の撮像管
この他にも、たくさんの撮像管があります。ビジコンの流れをくんだニュービコン、シリコンビジコン、高感度撮像管のイメージオルシコン、イメージアイソコン、などがありました。
● SEC管(Secondary Electron Conduction tube) (2000.09.14)(2008.11.04追記)
SEC管は、科学技術の世界では忘れてはならない撮像管です。この撮像管は放送業界では使われることはありませんでしたが、宇宙開発を行っていた米国NASAの要請で開発されました。SEC管は、1969年、NASAがアポロ計画で月に持って行った小型携帯テレビカメラに使われました。この事実は、宇宙開発にとって映像装置は大変重要な計測と記録要素を持っていたことが伺えると共に、カメラまで独自に開発してしまうほど性能(特に感度)を重視していたことを物語っています。
SEC管は、NASAがWestinghouse社に開発を依頼して1963年に完成させました。華々しいデビューを飾ったのは、アポロ11号が月に持って行った1969年ですから、撮像管を開発してから6年をかけてシステムの作り込みをしたことになります。
■ SEC管の開発背景
NASAは、なぜビジコン管をはじめとした当時の放送局用の撮像管を使わずに、SEC管の開発を決めてWestinghouse社にシステムの開発を要請したのでしょうか。その理由は、1にも2にも撮像管の感度であったようです。当時、放送局で使われていたテレビカメラは感度が悪く、夕暮れや曇り空での撮影は困難でした。当時(1960年)は、テレビカメラを屋外に持ち出すことはめったになく、撮影はすべてスタジオで行われていました。その理由は、感度ももちろんでしたがテレビカメラの大きさ(重さ)や、取り回しの悪さ、中継車の大きさなども絡んでいました。日本のテレビ放送で、本格的に屋外での生中継が行われたのは、1959年4月の皇太子・美智子様のご成婚でした。かなり大がかりの設営のようでしたが、このテレビ中継を境に家庭にテレビ受像機が急速に普及したそうです。
テレビカメラが外に出るようになったのは、サチコンのような感度の高い撮像管が開発されて、電子回路にトランジスタが採用されてコンパクトなテレビカメラができあがった1970年代後半でした。それまでの屋外撮影では、ニュースソースを含めほとんどの映像記録にフィルムカメラが使われ、フィルム画像をテレシネという装置で電子画像に変換してテレビ放送されていたのです。
それでは逆に、NASAが採用したSEC管を、なぜ放送局は採用しなかったのでしょう。それは、SEC管は感度が良いものの画質が悪かったからです。このことから、宇宙開発では画質よりも感度が優先されていた当時の事情を知ることができます。NASAは、SEC管が完成するまではVidiconを使っていました。NASAがTIROS(Television Infra-Red Observation Satellite)を1960年4月から次々に大気圏外に打ち上げて、地球上の雲の様子を撮影した時に使われたカメラはVidicon管でした。このカメラは、500ラインの走査線で10秒の時間で画像を得るものでした。明るい雲を10秒かけて撮影したのですから、感度的にはあまり問題なかったものと考えられます。
また、NASAが火星に探査衛星を送り(マリナー4号、1962年プロジェクト発足、1965年データ通信開始 )、火星の地形を画像に収めるプロジェクトにもVidionカメラを使っていました。その当時、SEC管は開発の途上にありました。Vidiconカメラは、200x200画素で6ビットの画像を撮るのに2.5秒もかかりました。Vidicon管はもちろんアナログ撮像素子ですが、長距離通信の関係上、初めてデジタル画像通信が行われました。従って、取り込む画像は解像力が低く撮影速度も遅いものでした。マリナー4号のプロジェクトは、世界で最初のデジタル画像通信でしたから撮影が遅いことは理解できます。従って、取り込みが遅いためにカメラに要求される感度も高いものは必要なく、Vidicon管で満足できたという当時の事情も理解できましょう。Vidicon管が明るければ、SEC管の開発の必要などなかったでしょう。テレビ画像のレートで屋外撮影を行うには、当時のVidiconはまだまだ不十分だったのです。
NASAは、月に人を送り込むとき、月面での活動を逐次地球から観たいという要求を持っていました。フィルムでは現像を余儀なくされるため、たとえ月に現像機を持ち込んだとしても、これを現像して電子画像に直して地球に送るには時間がかかりすぎました。こうした理由から、NASAは月面活動撮影カメラを作ることを決めたのです。
ちなみに、アポロ11号では、このプロジェクトのために開発したSEC管によるテレビカメラシステム(ALSC = Apollo Lunar Surface television Camera)の他に、高画質の記録写真を撮るハッセルブラッド、250枚のフィルム撮影をする長尺マガジン付ニコンFカメラ、動画記録用16mmフィルム計測カメラを持ち込んでいました。ハッセルブラッドカメラは、宇宙飛行士の宇宙服の胸に取り付けられ、押しボタン一つで飛行士が見る方向の視界を撮影できるようになっていました。ハッセルブラッドで撮影された写真はとても綺麗で、アポロ計画の記録写真として秀逸な業績を残しました。ただ、これらは当然のごとく現像工程が必要なため地球に戻ってからでないと画像を手に入れることはできませんでした。その意味でリアルタイムのTVカメラシステムは重要だったのです。
■ SEC管の基本性能
SEC管の構造を下図に示します。SEC管は、撮像管の区分でみると蓄積形であり、低速度電子ビームタイプのイメージ形に属します。これは感度を重視するタイプです。この図を見ると、SEC管は大きく分けて2つの部分で構成されていることがわかります。左側部が像増強部で右側が通常の撮像管です。右側撮像部は、ビジコン管と同じ構造になっています。左部の像増強部が感度を稼ぐ部位です。この部位は、第一世代のイメージインテンシファイア (光増幅光学装置)と構造が似ています。この部位は光学像を光電面(photo cathode)で受けて電子像を作り、これを加速させてターゲットにぶつけます。ターゲットは、KClやMgOなどの多孔質高抵抗物質でできていて、数kVの電位で衝突した電子像はさらにここで2次電子を放出します(1個の像電子が200個程度の電子に増幅されるので感度が上がります)。ターゲット部は、電子像が衝突する部位が電位「0」になっていて、信号を取り出す面が10〜20Vの電位になっているのでこの電位差によって2次電子が放出されます。
上の図から見ても明らかなように、SEC管には高電圧が使われています。光電面からターゲットに向かって高速(高電圧)で加速された電子が衝突します。強い光が光電面に当たると、当然ながらオーバーロードになり焼き付きや損傷を起こします。画質も電子レンズ(左側の像増強部)が付加されている分だけ悪くなります。
こうした事情もあってか、SEC管を使用した応用は大きな広がりを見せませんでした。学術用の高感度カメラは、イメージインテンシファイア(光増幅光学装置) を取りつけた撮像管の方が感度が良く取り扱いも良かったので、時代の要求に合わなくなってしまいました。
SEC管カメラは、当時のビジコン管に比べて50倍程度の感度があったと言われています。当時のスタジオ内の明るさが3000ルクス〜5000ルクスだったとすると、SEC管カメラは、60ルクス〜100ルクスの環境で撮影ができた事になります。この明るさは夕暮れ時の明るさ、もしくはちょっと暗めの室内に相当します。
■ アポロ11号での活躍
アポロ11号が月に持って行った月面テレビジョンカメラ(ALSC = Apollo Lunar Surface television Camera)は、米国Westinghouseが6年の歳月をかけて完成させたもので、カメラの心臓部には同社が開発した高感度撮像管SEC管が採用されていました。このカメラは、月面活動で見事に大役を果たし、人類が月面に初めて降り立つ瞬間や宇宙飛行士の月面での活躍をリアルタイムに地球に送って来ました。(リアルタイム映像は、実際は10秒〜30秒程度は遅れたかも知れません。)当時、中学2年生であった私は、テレビでこの中継を見ていてとても興奮したことを覚えています。ただ、画質はお世辞にも綺麗とは言えず、階調も粗く動きも10フレーム/秒の映像のためかぎこちなく見えました。それでも人類が遠い彼方の月にいて、それを実時間でテレビで見られることの科学の壮大さに心ときめいたものでした。コンピュータの威力を知ったのもこの頃です。
このカメラの開発にあたりNASAが要求した仕様は、以下のものです。
・ 高感度: 月面での暗闇でも肉眼程度の明るさで撮影できること。
・ 耐環境性: 月面での温度、-180℃〜 + 120℃の温度に耐えること。
・ コンパクト: 月まで持って行けるだけの大きさであること。
・ 操作性に優れていること: 宇宙飛行士が月面で持ち運べること。
・ 低消費電力であること: バッテリを消耗しない電力、〜6W。
・ 物体の輝度範囲が広い現場での撮影が可能: 月面の夜と昼を撮影。
・ 感度が高く露光調整も可能: ゲイン調整機能、レンズリモート絞り。
・ 遠く離れた地球へ映像信号が送れること: 500kHzの信号帯域通信。
米国Westinghouse社がNASAのために開発した月面活動用のテレビカメラシステム。
心臓部に同社が開発したSEC管を採用している。
月面での活動を考慮してコンパクトな設計となっている。
カメラは、宇宙飛行士が片手で持って持ち運べる構造とし、月面にスタンドを立ててカメラを固定し、宇宙飛行士の月面での活動を撮影した。
こうした条件で作られたカメラシステムは、1秒間に10枚の撮像を行い、画面は320本の走査線で構成されるものでした(通常のテレビカメラは30枚/秒で525本の走査線を持っている)。また、スロースキャンモードにすると1.6秒をかけて1280本の走査線(4倍の走査線)で撮影を行う設計にもなっていました。しかし、このモードは実際の月面活動では使われなかったようです。
カメラは、24V〜32Vのバッテリで駆動し、消費電力は6.5Wでした。宇宙へ持って行く電子機器にとって、電源消費は最も気になる条件です。宇宙船には潤沢に電気を供給するバッテリがなく(次世代の自動車として期待されている水素バッテリは、アポロ計画で実用化されたものです。アポロ計画での月着陸船の電源は太陽電池と水素バッテリでした)、消費される電力は熱になるので消費電力を食う機器は自然冷却もままならずやっかいな問題となります。
ウェスチングハウス(Westinghouse)社が開発したカメラの大きさは、269mm(L) x 165mm(W) x 86mm(D)であり、その重さは3.29kgでした。これは、当時としてはとてもコンパクトなものでした。当時、放送局で使われていたカメラは180kgもの重さがありました。実に54分の1の軽量化を達成したのです。ウェスチングハウス社は、カメラを月に持って行くために撮像管自体の他にカメラ電気回路をトランジスタ化し、これをさらに集積化しました。現在では当たり前のようになっているハンドヘルド(携行)型カメラも、集積回路(IC)が未熟であった当時としてはこれを作り上げることそのものが画期的な事だったのです。
月面活動で使われたカメラのアナログ映像信号は通常のNTSC信号で送られずに、それよりも遙かに品質の悪い走査線本数と撮影速度に設定されました。その理由は、月から地球に送る通信回線帯域の問題があったからです。500kHzという低い送信帯域のために粗い画質でしか送れなかったのです。これはNTSC規格の放送における4.2MHzの通信帯域に比べて1/8.4倍の通信量でした。従って、この帯域に抑えるため画像も間引きせざるをえなかったのです。地球に送られてきた月面からの(アナログ)映像は、地上受信局でいったん10インチ(254mm)の特殊スロースキャンモニタに映し出され、これをビジコンカメラ(モデルTK22)で再撮影して(一種のテレシネ 作業で)通常のNTSC映像信号に直して放送局に送り、全世界に月面活動の映像を流しました。
● ハーピコン(HARPICON)(HARP撮像素子) (2000.07.28)(2008.09.23追記)
HARP管は、1985年に日立とNHKが開発した高感度、低残像、高解像力の撮像管です。HARPICONは日立の登録商標なので、現在ではHARP管と言う呼び名が一般名詞となっています。HARP管は、当初、日立製作所が製造していましたが、現在(2008年)では、電子管製造で有名な浜松ホトニクス(株)が引き続き製品の製造、開発を行っています。浜松ホトニクスでの商品名は、APイメージャーです。
HARPは、 H igh-gain A valanche R ushing amorphous P hotoconductorの略で、光に感度のあるアモルファスセレン(a-Se)膜をアバランシェ増幅ができるようなターゲットとして作り上げたものです。アモルファスセレンは、1974年に日立が開発したサチコンと同じ光導電膜です。1995年当時のHARP膜は、約25ミクロンの厚さで、この膜の間に最大2,500Vの電圧を印加しておくと光の増幅作用が最大約6,000倍に達しました。この値は、高感度撮像管で有名な撮像管サチコンの600倍の感度を持っていると言われました。
HARP管は、撮像管としてはおそらく最後で究極的なものと思われます。感度が非常に高く、暗い被写体の撮影に威力を発揮します。深海の観察や、オーロラ、日食の撮影、夜間動物の観察などに使われています。報道番組においても、1995年6月に函館で起きた飛行機乗っ取り事件で薄暮の飛行場撮影にこのカメラが活躍しました。NHKのハイビジョン用カメラとして、また高速度カメラ用としても高感度、高解像力、低残像の特性が活かされました。ただ、HARP管は温度管理などメンテナンスに細心の注意が必要であり、一般的な使用では(雑な使用をすると)特性がでなくなってしまうため、専門家を擁する分野で使われるもののようです。また、撮像管ですから電子シャッタ機能はなく、露光時間は1/撮影速度となります。
HARP撮像素子の開発は、1980年代、NHKがプロジェクトを進めていたハイビジョンカメラ用として出発します。ハイビジョンカメラでは、感度が良くて解像度の良い撮像素子の必要性に迫られていました。特に感度の要求の点から、固体撮像素子よりも光導電型撮像管が今だ有利という判断によってこの撮像管の開発がスタートしました。HARP管は、1985年に開発されてから4回の改良が施されました。改良は主に光電変換膜厚で、開発当初は2umであった膜厚を2003年の4代目では35umの厚いものにしました。これによりサチコン管と比べた感度が1985年の約10倍から約1,000倍に向上し、残像も低減されました。残像は、1985年当時は、50msで4.6%の残像があったそうです。
1992年、キヤノンは、2/3インチHARPICONチューブを用いた放送局用の高速度カメラを開発しバルセロナオリンピックに投入しました。このカメラは、180コマ/秒の撮影ができました。シャッタ機能は、撮像管自体にシャッタ機能がないので、ハーピコン光電面の前に取り付けた同期回転円板シャッタを使って1/3,600秒を実現していました。解像力は800本以上、撮影感度はASA(ISO)換算で1500でした。ちなみに、このカメラの記録にはICメモリが使われました。ICメモリと言っても現在(2008年)のように大容量で高速のものがなかったため、60MHzの記録帯域を確保して5400枚の記録を行ったため大がかりなシステムになり、メモリ部はラックマウント形式で210kgの重さがあったそうです。
1992年 ナック(現:ナックイメージテクノロジー)からもハーピコン管を使った高感度高解像力ハイスピードカメラが開発され、顕微鏡撮影分野などに使用されました。
■ 電子管によるその他の撮像素子 (2000.09.14)(200810.24追記)
撮像管の時代が終わって、CCD・CMOSなどの固体撮像素子が主流になっている現在においても、特殊な分野では電子管技術を用いた撮像素子が使われています。
● イメージコンバータ管(Image Converter Tube、転像管)
1960年代〜1990年代に活躍したフレーミング式イメージコンバータチューブ。
50ナノ秒の露出時間と、
20,000,000コマ/秒の撮影が
可能であった。
高速度画像は、イメージコンバータチューブ蛍光面(右図)に投影された。
蛍光面に、一度に最大24枚の画像を次々とシフトしながら撮影。
時間間隔は最小50ナノ秒。
これを蛍光面に密着させたインスタントフィルムで記録した。
ストリーク撮影も可能。
イメージコンバータカメラで撮影した
衝撃波の高速度撮影(1994年)。
撮影速度100,000コマ/秒。
被写体は、アジ化銀(一種の爆薬)の水中爆破。
2000年までは、100,000コマ/秒以上の高速度撮影は、
イメージコンバータカメラでなければ不可能であった。
転像管とも訳される特殊撮像管です。
高感度撮像装置のイメージインテンシファイアも一種の転像管です。
イメージコンバータ管は、真空管の両面が光電面(入力面)と蛍光面(出力面)から構成されていて、光電面に入射した光学像は素子内部で電子像に変換(イメージコンバート)されます。この電子像が蛍光面に当たって(ブラウン管のように)可視光像になります。
これは、電子レンズを使った像変換素子と言うこともできます。
転像管の利用価値はどこにあるのでしょうか。
光学像を電子像に変換し、再び光学像に直すという回りくどいやり方をなぜ取るのでしょうか。
その理由は、転像管を使った電子像変換には以下に示す特徴があるからです。
1. 可視光以外の光を可視化することができる(紫外光、赤外光、X線)。
2. 電子レンズと偏向回路によって高速シャッタリングを行うことができる。及び複数枚の高速度画像が得られる(フレーミングで20,000,000コマ/秒、ストリークで数ピコ秒/mm)。
3. 電子レンズによって像強度の増幅を行うことができる(高感度)。
この特徴によって、1960年代からイメージコンバータチューブは発展を遂げ、いろいろな派生転像管が作られました。
右に示すイメージコンバータチューブは、20,000,000コマ/秒のフレーミング撮影ができる超高速度カメラ用で、1990年に開発されたものです。フレーミング(framing)と言うのは、ストリーク(streak)という撮影法の対になる言葉で、2次元の拡がりを持った通常の画像のことを言います。ストリークというのは、流し撮り写真のことで、身近な例では競馬の写真判定や、陸上100m走で使われる撮影手法です。固体撮像素子のラインセンサーもストリーク撮影法の顕著なものと言えましょう。
イメージコンバータカメラのストリーク撮影は、ラインセンサーと比べて桁違いに速いラインの取り込みを行います。
高速度カメラ用のイメージコンバータチューブは、1960年代から英国、米国、ソビエト連邦、日本で開発、製作が行われていました。1960年から2000年までは、超高速度カメラ(10,000コマ/秒以上)は、イメージコンバータチューブを使ったものが一般的でした。右に示すイメージコンバータチューブは、エンベロープにセラミクスチューブを使うというユニークなものでした。
イメージコンバータカメラは、フレーミング撮影よりはピコ秒の時間分解能が得られるストリークカメラに大きな特徴が見いだされて、現在も超高速現象を解明する計測装置としてプラズマ発光現象解明の分野やレーザ励起現象分野で使われています。
また、以下に述べるX線イメージャ やイメージインテンシファイア(I.I.) も、転像管から進化を遂げたものです。
光電面を持つ撮像管は、テレビカメラの撮像管としては生きる道が閉ざされたものの、こうした特殊な分野では今も大切な役割を担っています。
● X線イメージャ(X-ray Imager) (2008.11.05追記)
X線は、量子エネルギーのきわめて高い光であるので、可視光に反応する光電膜では電子像に変えることはできません。また、X線は直線性が強いため、容易に屈折、反射を起こしません。このことは、X線を使った撮影はレンズやプリズムなどの光学素子が使えないことを意味しています。したがって、X線イメージャを使わないX線撮影では、大きな記録面を持った(X線に感度を持つ10cmx12cmなどの銀塩フィルムによる)直接撮影法がとられていました。しかし、小さいフィルムサイズで大きな撮影部位を得たい場合や(大きな乾板フィルムは高価で、かつ取り回しが悪い)、たくさんのX線陰影撮影を行いたい場合、または、短期間に集中してたくさんのX線撮影を行いたい場合は(1秒間に複数枚の動画像を得たい場合)、以下に示すようなX線イメージャ(間接撮影)を必要としました。医学分野でのX線撮影には、このようなX線イメージャが良く使われて発展をしてきました。
X線イメージャは、以下の3つの部位から成り立っています。すなわち、
(1)エネルギーの高いX線エネルギーをいったん可視光に変えるシンチレータ部、
(2)可視光像を電子像に変える転像管部、
(3)転像管の出力部(蛍光面)で再度可視光になった像を撮影する撮像素子部、
の3つの部分から構成されます。
代表的なX線イメージャの外観。
入力面は球面形状でアルミ薄板か
ベリリウムで覆われる。
大きさは対象物の大きさで決定される。
資料提供: 浜松ホトニクス(株)
(1) シンチレータ(Scintillator)部
X線は、量子エネルギーの高い光です。この光エネルギーを準位の低いエネルギー(可視光)に変換するのがシンチレータ(Scintillator)と呼ばれるものです。X線は紫外線エネルギー以上に量子エネルギーが高いので、いろいろな物質を励起させる力を持っています。しかしエネルギーが高いので励起させずに透過してしまうこともあります。従って、使用するX線エネルギーに対して効率よくエネルギーを吸収して可視光を発光するものが求められます。こうした物質の中で最も効率よく可視光を励起し、物質自体の粒子も細かくて、かつ使用環境で安定した構造を持つものが、ヨウ化セシウム(CsI)です。このシンチレータは、X線によって励起して420nmにピークを持つ青色の可視光の蛍光を発します。この発光は、転像管の光電面との相性がよく効率の良い電子変換ができます。また、ヨウ化セシウムは、沃素とセシウム双方の原子量が大きいためX線エネルギーを吸収しやすいという性質から理想的なシンチレータと言えます。従って、X線のシンチレータとしては、この蛍光剤が最もよく使われます。
ヨウ化セシウム(CsI)がX線I.I.のシンチレータとして使われるようになったのは、1963年以降で、1972年から医療用として米国Varian社、オランダPhilips社、フランスThomson社、ドイツSiemens社が採用を始め、日本でも1974年に東芝、1976年に島津製作所が市販化しました。CsIがなぜこれほどまでに認められるようになったかというと、材質の原子量の重さやX線吸収係数、発光ピークの特性もさることながら、非常に緻密に(ぎっしりと)蒸着膜を形成できることにありました。CSIは基板上にほぼ垂直に結晶構造(断面が10um以下)を作ることができるので、それまでの沈殿法やスラリー法の膜状塗布よりも高密度のシンチレータ部を形成できるようになったのです。
入力部のシンチレータがなぜ曲面を描いているかというと、転像管部の電子レンズが凸レンズ効果だけなので、この電子レンズでは像面湾曲収差が取りきれないからです。そのためにX線像を受ける入力部(シンチレータと光電面)は曲面形状になっています。
入力窓は、窓材の保護のためにアルミニウムかベリリウムで覆われています。通常はアルミニウムの薄膜が使われますが、弱いX線光源を使う場合には、この窓材部分で吸収が起きてしまうので、アルミニウム材に代えてベリリウムが使われます。しかし、ベリリウムは高価なことと毒性が強い材料のため、弱いX線エネルギー用や小さい口径のX線イメージャー用に限って使われます。
(2) 転像管部
転像管は、シンチレータ(CsI)によって青色(420nmピーク)蛍光像を背後で直接コンタクトしている光電面で受けて、電子像に変換し、蛍光面で再び可視光像に変換するものです。
転像管をなぜ使うのかと言えば、以下の理由によります。
1. X線像をカメラで撮影できるように光学像を縮小するため。
2. 縮小した画像を動画撮影を行うために、フィルムカメラや撮像管、
CCDなどの撮像素子を取りつけるため。
3. X線が微弱なために(つまり、強いX線光源が作れない、または、
被爆が大きいため強い光源が当てられないために)X線像の光増幅を行う必要がある。
転像管は真空管ですから装置には高電圧がかかります。
転像管の撮影倍率は、シンチレータ部の入力窓の大きさと出力蛍光面の大きさの比で表されます。
M = a / A
M :撮像管の撮影倍率
a :出力蛍光面の大きさ
A :入力部(シンチレータ部)の大き
X線イメージャの入力面径は、10cm〜57cm(4インチ〜22.5インチ)が市販化されていて、大型のものほど医療用(消化器、循環器)に製造されています。出力蛍光面の大きさは、φ60mmが一般的です。従って、X線イメージャの撮影倍率は、
M = 1/1.7 〜 1/9.5
となります。蛍光面はφ60mmと大きいので、CCDでこれだけ大きい素子はありませんから、直接ファイバーカプリングをせずにリレーレンズを使って縮小して撮影を行います。
(3) 撮像部
撮像部は、転像管で形成された光学像を記録するためのものです。1990年代までは、フィルムカメラや撮像管カメラが使われていました。最近では、CCDカメラが使われています。転像管の出力部は可視光を発する蛍光面になっているため、ここで作られる光学像をリレーレンズによってカメラに導きます。
リレーレンズに代えて光ファイバーで直接カメラとカプリングする方法もあります。この方が光の転送効率が良いので1桁以上も明るくなります。しかし、ファイバーカプリングの場合は、以下の問題がありますので、取り扱いには注意が必要です。
1. ファイバー繊維系の大きさとCCD撮像素子の画素サイズの選択を間違えると、解像力が極端に落ちる。
2. 両者の兼ね合いでモアレ(干渉縞)が現れる。
3. ファイバーカプリングでは、X線エネルギーの入射光路とカメラの撮像面が直線に並ぶために、
X線エネルギーがシンチレータ部で十分な吸収が行われない場合、撮像面に直接照射される危険があり
撮像面にダメージを与えることがある。
● イメージインテンシファイア(Image Intensifier)
イメージインテンシファイア(Image Intensifier、I.I.)は、超高感度の撮像管素子です。光増幅の度合いは、1,000倍から100,000倍の性能を持っています。しかし、1,000倍もの光増幅をすると言っても、日中の明るさの対象物を1,000倍に明るくできるわけではありません。イメージインテンシファイアの出力(蛍光面)の明るさは限度があるため、蛍光面の明るさに比べて1,000分の1程度の暗い対象物の明るさを増幅できるという意味です。I.I.の蛍光面はそれほど明るくありませんので、つまるところ非常に暗い物体を人が見えるぐらいに明るくする装置と考えてよいと思います。
この装置は、 放送局用のテレビカメラに積極的に使われることはありませんでしたが、学術用(微弱光検出)や夜間などの低照度条件下の撮影に使われました。
イメージインテンシファイアは、1940年代前半、米軍の要請によってテレビカメラを開発していたRCA社(Radio Corporation of America)のツボルキン (Zworykin:1889 - 1982) が開発しました。この装置は、夜戦用の秘密兵器として開発が行われ、暗視装置(Night Vision Device = NVD)と呼ばれました。
現在も軍事戦略用の有効な装備品としてNVDの改良、開発が続けられています。現在では4世代目のものが作られています。
左に示した図は、第3世代の近接型イメージインテンシファイアを光ファイバーでCCD素子とカプリングした高感度カメラの構造図です。ICCD(Intensified CCD)という呼び方が一般的です。近接型というのは、インテンシファイアの入力面(光電面)と出力面(蛍光面)が隣り合うくらいに薄くなっている構造を言います。従来のインテンシファイアより薄くなった(近接した、proximity)、という意味で近接型イメージインテンシファイア(Proximity focused Image Intensifier)と言います。このタイプでは、像の増幅は、装置中央部に配置されたMCP(マイクロチャンネルプレート、Micro Channel Plate) で行われています。MCPは、 0.5mm程度の薄いガラス板で、これにφ10〜12μmの孔が無数に空けられ(φ25mmで数百万個)、両端に100V〜900Vの電圧をかけ光電面からの光電子を1,000倍程度の2次電子に増やすものです。印加される電圧が高いほど二次電子がたくさん放出されるので増幅が大きくなります。
I.I.(あいあい)は、開発当初、夜間の人の目を助ける道具で作られたのが、テレビカメラやフィルムカメラの前面に取り付けられる記録装置になり、近年ではファイバーで固体撮像素子と結合される製品となりました。明るさの調節は、ゲインによって増幅率を変えています。ゲインはマイクロチャンネルプレートに印加する電圧の調整で行います。また、光電面に加える電圧をパルスにして、パルス電圧が加わったときだけ光電面からの電子が放出されるようにすると、短時間の撮像が可能になり電子シャッタの働きをするようになります。電子シャッタは、数十ナノ秒から数ミリ秒まで任意のシャッタ時間設定が可能です。
イメージインテンシファイアの詳しいことは、光の記録原理 その4 - 光増幅光学装置 に載せていますので、そちらを参照して下さい。
● 電子顕微鏡(Electron MicroScope)
電子顕微鏡もれっきとした電子管であり、撮像管の一種です。光学顕微鏡では解像しない極微少物体の拡大を得意としています。
電子顕微鏡では、 拡大したい対象物を電子管(真空管)の中に入れなければならないので、揮発するもの(水分を含んだもの)や生きた生物を見ることはできません。
電子顕微鏡の構造を見てみると、撮像素子の原型であるフライング・スポット・スキャナー(FSS、Flying Spot Scanner) に多くのアイデアを得ていることがわかります。
電子顕微鏡は、大きく分けて、
・ 透過型電子顕微鏡
(Transmission Electron Microscope、TEM)
・ 走査型電子顕微鏡
(Scanning Electron Microscope、SEM)
の2種類に分けられます。
■ 透過型電子顕微鏡(TEM)
透過型電子顕微鏡(TEM)は、分解能の高い拡大画像を得ることができ、0.3nm程度までの識別ができます。光学顕微鏡では100nmが限界なので、光学顕微鏡よりも1,000倍の分解能を持つことになります。電子顕微鏡の分解能は、電子ビームが試料に照射する加速電圧とビームの絞り角度で決まるので、電子ビームを100kVで加速し、0.01rad( = 0.573 °)で集束させた時に0.3nmの分解能を得ることができます。0.3nmの大きさは、重い金属原子の直径に相当するものです。電子顕微鏡の分解能をさらに上げるには、電子ビームの絞りをさらに小さくするか、もしくは加速電圧を上げる必要があります。あまり強く電圧を設定しますと、試料を破壊しますので加速電圧にはおのずと限度があります。分解能は、透過型電子顕微鏡(TEM)の方が走査型電子顕微鏡(SEM)よりも1桁ほど優れています。
透過型電子顕微鏡は、試料中を電子が通過して、これをさらに拡大して蛍光板に投影します。光学顕微鏡の透過型顕微鏡(生物顕微鏡)と似ています。従って、試料は電子ビームが透過できるための薄さ(数100nm)でなければなりません。厚い試料は透過型電子顕微鏡では使用できません。また、試料は真空容器に入れられますから、試料作りは結構手間のかかるものとなります。
■ 走査型電子顕微鏡(SEM)
透過型電子顕微鏡に対し、走査型電子顕微鏡(SEM)は試料の表面を拡大するので試料の厚さは透過型電子顕微鏡より厳しくありません。分解能は、透過型電子顕微鏡より1桁低く(3nm)なるものの、物体表面を深度深く映像化することができます。この深さは、光学顕微鏡の100倍以上と言われています。この特徴を活かして、病原菌やウィルスの発見など光学顕微鏡では難しい微小生物や、金属の微小表面の立体的な観察に威力を発揮しています。
走査型顕微鏡では試料に電子を照射し試料から出される2次電子を検出するため、二次電子を放出しやすい試料にする工夫が必要です。このため試料を樹脂で固めて型を起こし、これに金メッキ処理を施して真空装置に入れ、これを観察するやり方をしています。いずれにしても、生きたものや液体成分を伴う試料は扱うことができません。
電子顕微鏡は、電子ビームを試料に直接当てますので電子ビームによって試料が破損することがあります。高い電圧を加えるほどその度合いが大きくなります。分解能を上げるには、加速電圧を高くしなければならないので両者は相反することになり、最適な条件出しが重要な運用上のテクニックになります。
また、当然のことながら試料上を電子ビームが走査しますので映像を作るには時間がかかり、走査におよそ1〜2分程度かかります。透過型電子顕微鏡(TEM)は、試料上を電子ビームが走査するという手順がないので、拡大画像はリアルタイムに得ることができます。
【歴史】
透過形電子顕微鏡は、1931年にドイツベルリン工科大学のエルンスト・ルスカ(Ernst August Friedrich Ruska、1906 - 1988)とマックス・クノール(Max Knoll、1897 - 1969)によって開発されました。ルスカは、その後もテレビジョンと電子顕微鏡の研究に関わり、電子顕微鏡開発後の55年経った1986年、ルスカ80歳の時に電子顕微鏡開発の功績でノーベル物理学賞を受賞しています。同じ研究に従事したクノールは、ノーベル賞の対象になる前にこの世を去っていて、彼の没後17年にしてやっとルスカが受賞の栄誉を与えられました。
右上に示す走査型電子顕微鏡は、1937年ドイツの物理学者マンフレッド・アルデンネ(Manfred von Ardenne、1907 - 1997)によって開発されたものです。アルデンネは、1920年に以下に示すフライング・スポット・スキャナー も考案しています。このことから、走査型電子顕微鏡はテレビカメラ技術の一環として着想されたことが伺えます。アルデンネは発明家で、たくさんの発明をして特許を取得しています。しかし、彼の発明の多くは熟成させるまで関心を寄せることがなかったようです。走査型電子顕微鏡も、実用機ができるのは1965年になってからです。イギリスケンブリッジ大学のチャールズ・オータリー(Charles Oatley、1904 - 1996)らの手によって、装置に改良が加えられて、やっと使えるものになったと言われています。走査型電子顕微鏡を開発するにあたっては、開発の難しさの一つに像を鮮明に形成す技術がありました。ケンブリッジ大学のOatleyは、E-T検出器(Everhart - Thornley Detector)や付帯設備を改良して走査型電子顕微鏡の実用化にこぎ着けたのです。彼が実用機を作るまでの間でも、他の研究者、例えば、米国RCAのツボルキン (Zworykin)らも開発に関わっていました。しかし、当時はテレビカメラの開発の方が急務であったらしく、電子顕微鏡の改良には深く関わり切れなかったようです。ツボルキンは、シンチレータから得た映像信号をファクシミリ手法を使って画像化していました。ブラウン管上に画像を表示させるようにしたのは1960年代後半になってからです。
● フライング・スポット・スキャナー(Flying Spot Scanner、FSS)
走査型電子顕微鏡の原型を、フライング・スポット・スキャナー(FSS)に見ることができます。FSSは、テレビカメラの初期モデルとして着想されました。この発想が、走査型電子顕微鏡とテレシネ装置 に生かされました。
右図に示したのがフライング・スポット・スキャナー(FSS)の原理図です。図の上部にある高精度CRTが、走査型電子顕微鏡の電子銃に相当します。そして、スポットビームを対象物に投影する結像レンズが走査型電子顕微鏡の電子レンズに相当します。CRTのラスター走査は、結像レンズを介して対象物上にビームが走ることになります。
この装置は、撮像管によるテレビカメラができるよりも前の1920年代に発案され、テレビシステム開発における貴重なデータを提供しました。この装置の発案は、走査型電子顕微鏡を発明したドイツ人発明家 マンフレッド・アルデンネ(Manfred von Ardenne、1907 - 1997) です。FSSと走査型電子顕微鏡は同一人物が発明したのです。
FSSは、撮像管が開発された後もテロップ読み取り装置やフィルム画像の読み取り装置(テレシネ、Telecine )として使われ続けて来ました。レーザが発明されてからは、高精度CRTに代えてレーザビームで試料を走査するFSS装置が開発されています。
右図の原理図が示すように、物体は凹凸の激しいものは撮影しにくく、また、発光体や屋外風景などの撮影は不可能です。つまり、平面的な対象物、文書やスライドなどの撮影に適したものでした。また、この装置は、真っ暗な部屋で行うか装置を全暗室状態のカバーを被せる必要がありました。その意味では、この装置がテレビカメラとして主役の位置に座るのは困難でした。
FSSに使われた高精度CRTは、輝度が高くてビーム径が小さく、なおかつ残像の少ない平面度の良いものが望まれました。
最盛期のFSSに採用されたCRTは、蛍光面にP24と呼ばれる蛍光剤を使用していました。これは、ピーク波長が500nmで、残光は1.5usで10%の減衰を持ち、100uAのビーム電流で100 ft-L(フートランバート)の輝度が得られるものだったそうです。100 ft-Lは、照度で換算すると6,000ルクス程度の明るさと同じになります。この明るさをF/2.0の明るさを持つビーム結像レンズで試料に照射すると、試料面は60ルクスの明るさで照射されます。
60ルクスの被写体はかなり暗いものです。これは薄暗い室内の明るさです。これは、1920年〜1960年当時の撮像管ではとても撮影できないもので、高感度のフォトマルを使わないと試料から散乱するビームスポット光を検出できなかったろうと想像します。
被写体を検出するフォトマルチプライヤは、高感度でS/Nが良く暗電流の低いものが使われました。
この装置は、映画をテレビで上映するときに、フィルム像をテレビ信号に変換する装置(テレシネ)として使われました。フィルム像は、透過像なので反射像に比べて撮影条件が1桁以上楽になります。
■ 画像信号を記録する (2007.11.22)(2008.01.26追記)
カメラで撮像した画像を記録するにはどのような方法があるのでしょうか。
テレビカメラが登場した1940年代、テレビカメラで撮らえた画像を記録する装置(例えば、ビデオテープレコーダ装置)はありませんでした。テレビカメラは、家庭の受像機(ブラウン管)と直結していたのです。つまり、テレビカメラで撮影した画像はそのまま電波として送信され、時間の遅れなく各家庭に一方通行で送られていました。放送局から家庭の受像機までの間には、画像を保存するという手だてはありませんでした。したがってニュースなどはもちろんドラマやトーク番組などはすべて生放送でした。当時、映像を記録する手だては映画しかありませんでしたから、現場で起きたニュースなどは映画フィルムで撮影して現像所に送り、現像から上がったフィルムを映写して、それをテレビカメラで再度撮影してテレビに流すという方式(テレシネ = Telecine放送 )を採用していました。この方式は、ビデオテープレコーダが開発された後も続き、1970年後半まで主力でした。
1970年後半になると、テレビカメラと映像記録媒体である磁気テープがコンパクトになって屋外に持ち出すことが可能となり、1980年以降、録画装置一体型ENGカメラ(Electronic News Gathering)が発達します。ベータカム = Betacamが1982年に発売されてからは、急速にビデオの時代になっていきました。家庭用でも、1989年に発売された8mmビデオテープとCCD撮像素子を一体化した Handycam TR-55の開発と成功によって、真のビデオの時代が到来しました。
ここで動画像の歴史的な流れを整理しておきましょう。
上の表からもわかるように、動画は映画から始まりました。その後、テレビ放送が始まりテレビ放送規格が大きな位置を占めるようになり、動画像の代表的なフォーマットの一つになっていきました。そしてさらに、パソコンの発展に伴ってパソコンに有利な動画像のフォーマットが規格立案されて行きました。
要するに、動画像は大きく分けて3つの流れがあると考えます。
三者は互いに影響を与えながら、しかしそれぞれの事情を持ちながら発展してきました。それぞれの事情とは、
・ 映画が24コマ/秒の上映速度であり、
・ テレビ放送が30フレーム/秒、525本走査線の電波放送であり、
・ パソコンがCPU性能を考慮した再生速度可変前提の再生動画像、
という事情です。この中でパソコンの動画の規格が比較的ルーズです。
パソコンで動画づけを初めておこなったのはアップル社です。同社が開発したQuickTime(クイックタイム)という規格は、コンピュータの性能に合わせて再生速度を変化させながらメディア(画像、音声、テキスト)の同期再生を行うという技術です。この規格には、テレビ放送規格で大前提となっている30フレーム/秒の再生速度を守ろうという考えは全くありませんでした。この約束を守ろうとしたら、当時(1991年)のデジタル技術ではとてもできなかったに違いありません。640x480画素のデジタルカラー画像を1秒間に30枚送るためには、221.18Mbpsの速度が必要です。この速度はギガビット転送の2008年においても苦しい性能です。ネットワーク転送は、交通渋滞に似たデータ転送渋滞があったりエラー発生が伴うため、ギガビット転送でも十分な転送帯域を確保できません。この問題はビデオ圧縮技術の発展によってデジタルテレビ放送やデジタルビデオレコーダ、パソコン動画に光明をもたらします。ビデオ圧縮は、通常のデータ量の1/100〜1/200で動画像を伝送することができるので通信上とてもありがたい技術となりました。
▲ テレシネ装置(Telecine) (2008.08.09記)(2008.10.25追記)
テレシネ装置とは、映画フィルムをテレビ信号に変換する装置です。映画フィルムをテレビで放映する場合、映画フィルムを特殊映写機に掛けて、それを特殊テレビカメラで再度撮影しビデオ信号に変換して放送していました。テレシネ装置が使われたテレビ番組は、映画番組やコマーシャル、ドラマ、ニュース番組でした。ビデオテープレコーダの性能が上がらなかった1970年代までは、録画によるテレビ放送の中心は映画カメラによるフィルム撮影でした。フィルムで撮影された動画像をテレシネ装置で映像変換して放送していたのです。 映画は24コマ/秒で撮影して上映されるので、劇場映画をテレビで放送するときにはテレシネ装置を使います。もっとも今は、フィルムで撮影した動画像もデジタル画像におき変えられて保存されるので、デジタル画像を映像信号に直してテレビ放送に乗せるようになっています。
映画とテレビの撮影方式には大きな問題がありました。映画フィルムは1秒間に24枚の撮影を行って再生しています。しかし、テレビ放送(北米と日本のNTSC方式)では、1秒間に30フレームの画像を送っています。テレシネ装置では、両者の撮影速度の整合性を取らなければなりません。 映画フィルムを24コマ/秒で再生しながら、テレビカメラ30フレーム/秒で撮影し直す機構をテレシネ装置に持たせねばなりませんでした。
フィルム画像を4コマ送る間に、テレビ画像は5フレームの映像を作らなければなりませんでした。
【2-3プルダウン方式】(2-3 pull down method)
映画とテレビの再生速度を調整して、映画フィルムをテレビで不都合なく放送できるようにするテレシネの方式が、2-3プルダウン方式と呼ばれるものです。
この方式は、簡単に言えば、フィルムの映写速度を一定速度で再生するのではなく、コマ毎に若干変えてテレビの再生速度に合わせる方法です。つまり、映画フィルムの最初の1コマ目をテレビの2フィールド分で取り込ませて、次の2コマ目をテレビの3フィールド分で取り込ませる方式です。
従って、映写機は、1コマ目である奇数コマを1/30秒(テレビ画像の2フィールド分)で送って、2コマ目の偶数コマを1/20秒 = 3/60秒(テレビ画像の3フィールド分)で送るという機構を持たせています。映画の画像送りを1コマずつ1/60秒の時間差で交互に変えているのです。
このように、映画フィルムのコマをテレビ画像の2フィールド分、3フィールド分、2フィールド分、3フィールド分、----- という時間間隔で交互に送っていく方法を2-3プルダウン方式と呼んでいます。プルダウンというのは、フィルムの掻き落としのことを言います。フィルムのパーフォレーション(孔)に掻き落とし爪が入って、フィルム1コマずつ送る機構のことを掻き落としと言っていました。
テレシネの映写機では、1コマ目と2コマ目では、
1/30 - 1/20 = -1/60 (秒)
1/60秒だけ長く時間をかけて掻き落とされますが、2コマ分の合わせた時間は、
1/30 + 1/20 = 5/60 = 1/12
となって、1秒間で24枚送られる映画のコマの2枚分の時間と同じになります。
また、この方式では、映画の2コマ分がテレビの5フィールド分に相当しますので、映画24コマでは、
5 (フィールド/2コマ) x 12 (2コマ/秒) = 60 (フィールド/秒)
となって、映画の24コマ/秒でテレビの30フレーム/秒(60フィールド/秒)の再生速度と整合性がとれることになります。(右図参照。)
このことから、以下のことがわかります。
1. テレシネの映写機は定速コマ送りでなく
1コマずつ送り時間を変えていた。
送り時間は、奇数コマが1/30秒で、
偶数コマが1/20秒。
2. テレビの1フレームの画像は映画のコマと対をなしておらず、
2フィールドで構成されるテレビ画面の4割(5フレーム分のうち2フレーム分)は
映画のコマの前後の映像を混ぜ合わせてフィールド画像として取り込んでいる。
従って、テレビの1フレーム(2フィールド)で構成される画面の4割は、映画の前後のコマの相乗りの混ぜもの画面となります。テレビ画面を静止させたら二つの画像が重ね合わさった画面が出るはずです。しかし、逆に、混ぜものにした方が連続して見た場合にスムーズに見えます。
マンガなどで、動きのある絵を描くときわざと動きの方向に流しボケを作るのと同じ考えです。そうしないとギクシャクした画像になります。
仮に、映画の3コマをテレビの3フレームに当て、映画の4コマ目をテレビの2フレーム分に当てて整合性を取ったとしたら1秒間に6回の割合で2枚同じ画面が出てきてギクシャクした映像になってしまうでしょう。ギクシャクした画像を抑制した代わりに、テレシネの画像は、一枚一枚の画像の時間間隔が不均一で、二重画像で構成されるフレームが多くなりました。上の図で言うと、テレビレートの1、2、5枚目の画像は時間の揃った映画のコマが撮像されるのに対して、3枚目と4枚目は映画のコマをまたいだ画像となっています。テレシネ画像から画像解析をする場合には、二重画像と時間軸のブレを考慮して行わなければなりません。
このテレシネで採用された2-3プルダウン方式は、映写機に特殊な送り機構を要求しました。映写機にこのような変則的な時間間隔で送り機構を持たせることは、当時のモータ制御技術ではできませんでしたから(1980年代までのモータは一定回転というのが原則)、ユニークなカム機構(オルダム継ぎ手と三角カム機構)によって、モータの一定回転から1コマずつ送り時間を変えるという回転機構を作り出していました。
話は余談になりますが、映画がなぜ24コマ/秒なのにテレビは30フレーム/秒なのでしょう。背景を知らない我々は、同じにしたらよいのにと思います。しかし、こうした背景には、技術的な問題やコスト的な問題、政治的な問題(特許や販売権)が多く絡んでいることが少なくありません。再生速度の問題に関しては、映画の再生速度を十分に考慮せずにテレビ開発が行われ、テレビ開発では再生速度は商用電源周波数と同じに決められました。これは、商用電源の周波数がハムノイズとなってテレビカメラや受像機に影響を与えるのを防ぐ目的がありました。映画も、必要かつ十分なフィルム送りを経験から割り出して24コマ/秒としました。映画フィルムは高価なので、できるだけコマを使いたくない事情がありました。映画の初期(音を入れない無声映画時代)は、16コマ/秒だったのです。
テレビ放送が始まったとき(1940年代)、映画産業は成熟の時代を迎えていましたので、テレビに迎合する気風はこれっぽっちもありませんでした。1970年代までのテレビ産業は、テレビカメラで撮ってそのまま再生するだけが精一杯でビデオテープレコーダが一般的になっていなかったので、映像を記録するにはフィルム像を使いテレビカメラで再撮影せざるを得ない事情がありました。しかし、かと言って映画の24コマ/秒にテレビ方式を変えることはできませんでした。テレビ放送は、家庭に置かれた受像機と放送局の間で無線を使ったスケールのでかい放送規格があったので、おいそれと変更できなかったのです。白黒放送からカラー放送に移行するのでさえ、白黒受像機で支障なくテレビ放送が受信できるように配慮されたくらいだったのです。
そのような理由で、両者は現在になっても互いに自分たちのフォーマットを譲ることはありません。テレビがデジタル放送を迎えて、走査線の数や画面の縦横比を変えたり、インターレース方式を止める規格は成立しても、再生速度の30フレーム/秒(29.97フレーム/秒 )を変えることはありませんでした。
▲ アナログビデオ信号 - NTSC(National Television Standards Committee) (1998.01)(2007.03.30追記)
電子動画像の規格の一つがNTSCというものです。ビデオ関連の書物を読むとこの言葉が頻繁に出てきます。
NTSCは、米国が決めたテレビジョン送像・受像についての取り決めです。
NTSCというテレビ放送規格は、1950年から2000年までの間、テレビ放送の中心的な役割を果たしてきました。
日本では、1954年のテレビ放送開始以来、今日にいたる約50年間、この規格でテレビ放送が続けられてきました。産業用でもNTSC機器を使って、監視用、計測用に幅広い活躍をしてきました。
このアナログのテレビ放送規格は、昨今のデジタル画像の興隆に隠れて話題に上らなくなりつつありますが、現在でもなお30フレーム/秒の画像送受信は捨てがたい魅力があります。
しかし、長く続いたNTSCテレビジョン放送規格も、米国では2009年に放送を終了し、日本では2011年7月24日に終了します。古いテレビ受像機(アナログテレビ受像機)では、2011年以降の放送は受信できないことになります。
(NTSCは、ここではNational Television Standards Committee の略と記しましたが、文献によっては、National Television System Committee としていているものもあります。どちらが正しいかは今のところわかっていません。ここでは、規格の成り立ちの性質上と、標準化が図られた経緯からStandardsの方が正しいと思いこちらを採用しています。)
長い間君臨してきた、テレビ放送規格のNTSCとはどんな規格なのでしょう。
規格統一にはいつも利権がからみ、当事者としては死活問題となります。しかし、利用者としては一日でも早く規格化してもらいたい問題です。ビデオ記録方式に見られた1980年代前半のビクター・松下陣営のVHS規格とSony陣営のβフォーマットの争いは、ユーザまで巻き込んだ激しい争いでした。テレビ放送規格であるNTSC規格は、米国内ではテレビ放送規格を決める段階でいろいろな利権が絡み、かなりモメたそうですが、日本ではテレビがそれほど一般に普及していなかった時代に、アメリカでほぼ完成した規格を輸入したため、何の疑いも持たず受け入れることができたので大きなトラブルはありませんでした。
NTSC規格の骨格
NTSC規格は、白黒テレビジョンの電波放送が始められた頃からの非常に古い規格(1940年代の規格)です。
時代が下って、白黒からカラー放送に移行するに伴って、従来の白黒テレビでも放送信号を受像できるようにしなければならないことも大切な規格目標としていました。
米国のテレビ放送規格の母体は、NTSCという団体です。この団体は、米国でテレビジョン放送の産声が上がったときに、いろいろな開発機関が自分たちの方式を主張しあって収拾がつかなくなることを恐れて、1940年にFCC(Federal Communications Commission)によって設立されました。
NTSCはテレビジョン放送の標準化団体だったのです。
NTSCは、1941年に白黒のテレビジョン放送規格を打ち出します。この規格は、RCA社が開発していた走査線441本のテレビ方式と、Philco社が主張していた走査線の多い605本(〜800本)方式の双方の中間を取って、525本と決められました(なぜか、表示速度の30フレーム/秒は双方同じでした)。
その他に、上の規格も含め、以下の取り決めが行われました。
■ 画面を構成する縦方向の走査線を525本とする。
■ 動画速度を30フレーム/秒とする。
■ 525本の走査線を2回に分けて行う
2インターレース方式とする。
■ 画面の縦横比を3:4とする。
■ 6MHzの帯域で送信する。
アナログ信号の仕組み
右図にNTSCのアナログ信号の仕組みを示します。
NTSC信号では、画面が525本の水平線(走査線)で成り立っていて、その走査線に白黒の濃淡像信号が乗せられています。右図は、白黒バーのチャート画面を表していて、その中の1水平線分の電気信号を下の図に示したものです。
1走査線は、水平同期信号(5usのパルス)で仕切られていて、水平同期信号間分が1水平走査線の映像信号となります。画像が暗い部位は電圧が低く(〜0.3V)、明るい部位は高い電圧(〜1.0V)となります。0Vから0.3Vの間は、タイミング信号に割り当てられて、水平同期信号や垂直同期信号のパルスが織り込まれます。産業用の白黒カメラのビデオ出力信号をオシロスコープでとらえると、概ね右の信号を見ることができます。しかし、テレビ放送でアンテナで受信するテレビ信号(RF = Radio Frequency信号)は、このようになっていません。電波で送る工夫が施されているからです。
テレビ放送では、この映像信号にFM変調された音声信号を組み込んで、さらに電波で送信するための搬送波が重畳(ちょうじょう)されます。この搬送波は、放送チャンネルよって異なりますが、東京のNHK総合(CH1)では、90〜96MHzの帯域が割り当てられています。この帯域の中の4.2MHzが映像の輝度信号に割り当てられます。さらに、カラー信号では、この白黒信号である輝度信号に色信号が4.5MHz離れた所に重ね合わせられて映像信号ができあがります。
最終的な放送用NTSC信号はとても複雑な波形となります。
このように、NTSCでは、無線を使って映像と音声を送信するため、送信帯域に制限があり、送信できる画像の解像力 が決まってしまいます。
インターレース(interlace、飛び越し走査)
テレビジョンのインターレース(interlace)方式というのは、一般的にわかりわかりずらいかも知れません。
1枚の画像を構成するのに1回の走査で描くのではなく2回に分けて描く方式です。
なぜそのようなめんどくさいことをするのでしょう。
1940年代、NTSCが制定された当時の技術では、525本の走査線で60フレーム/秒の画像を作ってこれを無線で飛ばすことは困難でした。非常にたくさんのデータ量になるからです。ならば、525本の走査線で一気に画面を描いて30枚/秒(半分の描画枚数)で送れば良いだろうと思うのですが、こうすると画面のチラツキ = flicker(フリッカ)と言う、とても見づらくて不愉快をもよおす不具合が出てしまいます。1940年当時の表示デバイスは、ブラウン管です。ブラウン管は、真空管の蛍光面に電子が当たって蛍光を発するものです。発光持続時間は数ミリ秒程度でしょうか。映像信号を画面の左上から一筆書きで蛍光面に画像を浮き上がらせて行くとき、最初と最後では、1/30秒の遅れが出てしまいます。この時間差を人の眼は識別してしまい、不愉快な明暗(フリッカ)として認識してしまうのです。動画としては、1秒間に10枚もあれば目の残像の働きによって動きとして認識できますが、点滅が認識されないようにするには30Hzではとてもダメで、60Hzが必要であったということです。
映画館で上映している映画は、24枚/秒です。テレビよりもはるかに映写速度が遅いのに、フリッカーが論じられないのはなぜか?
映画上映は、たしかにフリッカーはあります。私は職業柄それがとても気になります。しかし、テレビ画像よりも深刻な問題として対処してこなかったのは、以下の理由によります。
・映写機には円板シャッタが組み込まれていて、1画面に対して2回の
シャッタリングを行い、48Hzの映像としてスクリーンに投影している。
・フィルム画像は、面投影であり、テレビのように走査線によって一本
一本の線画で画面を構築しないのでフリッカが出にくい。
・映画は、当初16コマ/秒でスタートし、音声を入れるトーキーの時代に
なって、音質の観点から24コマ/秒に上げられた。これ以上速度を
上げるのは、撮影機・映写機の機械の精度と耐久性、及びフィルム消耗
の点で得策ではなかった。つまり、面投影である映画では、16コマ/秒
(32Hz)でもフリッカーは大きな問題とならなかった。
映画でも、24枚/秒の再生ではフリッカが出ていたのです。だから、映写機に円板シャッタを設けて1画面を2回シャッタリングし、シャッタリング周波数を倍の48Hzに上げてフリッカを抑えていたのです。
テレビ画面では、30フレーム/秒による再生時に出るフリッカを防ぐ手だてとして、画面を2回に分けて描くというインターレース方式(2フィールド1フレーム、1枚の画像=フレームを2枚の画像=フィールドで作る)を採用しました。60Hzのチラツキであれば、ほぼ問題ないレベルとなります。(だけれども、まだ気になる人がいます。60フレーム/秒のノンインターレースと比べると、チラツキは明らかに認識できると言われています。)
技術が進歩した昨今では、なにもインターレースにしなくても、60フレーム/秒で撮影して表示できるようになったので、ノンインターレースの表示装置やプログレッシブスキャン(前画素読み出し)のカメラが出回るようになりました。ただ、ノンインターレースは、従来のNTSC規格にはないものなので、放送局規格に縛られない産業用の計測カメラから使われ始めました。デジタル放送になると、旧来の制約から解き放たれますので、ノンインターレースの放送が可能となりました。
こうして見ると、インターレースは昔の技術ということが言えるでしょう。
インターネット時代の先駆けの頃(画像が載せられるハイパーターミナルテキストHTMLが、1993年、イリノイ大学で作られた当時)は、それほど速い通信回線が整備されていなかったので、ふんだんに画像をwebに載せることはできませんでした。(1998年に開設した私のホームページも、当時容量が大きすぎると苦情を言ってこられる訪問者が数多くいました。)
ISDNの通信回線でも、私のホームページを開くのに恐ろしく時間がかかっていました。
その画像を少しでも速く閲覧者に見てもらえるように、画像はインターレース方式で送っていました。GIFと呼ばれる画像フォーマットにはこの機能があり、1990年代の後半あたりは非常によく使われていました。インターレースによるGIF画像では、まず大まかな画像を先に送って画像の輪郭を閲覧者に提供し、時間を追って画像を鮮明にしていきました。これがまさにインターレース(編み込み)方式なのです。
NTSCの画面
テレビ放送では、無線放送という大きな制約があります。
電波を使って広い地域にくまなく映像を送る方法は、とても魅力的なものである反面、公共電波を利用する関係上送信周波数が限られています。限られた信号周波数帯域で送信チャンネルを割当てるため、制約をかせられ、きめの細かい映像を送れないなどの問題点を抱えながら、妥協をしいしい今日に至りました(2011年までのアナログ放送の話)。
NTSC規格によるテレビ放送では、送信周波数が90MHzから6MHz毎のチャンネルとして割り当てられています。東京の場合、90 -96MHz(CH1)がNHK総合に割り当てられ、102 - 108MHz(CH3)がNHK教育に割り当てられています。この6MHzの帯域の中に、走査線525本、1秒間30フレーム、カラー情報、音声情報を入れ込んで送らなければなりません。この足枷があるために、テレビジョンでは、画像の解像力に限界があり、以下の「NTSC規格の水平解像力 」で述べるように、水平成分の解像力が447本と決められています。送信帯域の制限を受けないスタジオ内や産業用のビデオシステムでは、放送での解像力よりはるかに品質の良い画質が得られます。
走査線525本のうちの画面に現れる有効走査線が480本であるので、この値と画面の縦横比から横の解像力を求めると、
480本 x 4/3 = 640 ・・・(Rec -18)
640本という値が出てきます。640x480という値こそ、IBMがパソコンの標準画面として採用したVGA(Video Graphics Array)の画素数だったのです。 実際のテレビの有効走査線(画面に現れる走査線数)は480本ではなく490本と言われています。パソコン画面ではデジタルによる画像処理と画面構成を行っている関係上、8の倍数である640x480画素はわかりがよく処理がしやすかったのだと考えられます。無線送信のNTSCでは、偶数値は鬼門です。画面の走査線を偶数で構成すると、ビート(干渉縞)が現れます。それを除くためにNTSCでは走査線を奇数とし、尚かつ、送信枚数も30フレームの偶数値からすこしずらす工夫(29.97フレーム/秒の怪 )をしなければなりませんでした。コンピュータ画面は、そのような制約がなく、逆にメモリ管理の関係上、8の倍数の方が都合が良かったと考えられます。
NTSC規格の仲間 - PALとSECAM
テレビジョン放送規格の国際的な規格としては、NTSCのほかにイギリスなどのヨーロッパ諸国が採用しているPAL(パル = Phase Alternation by Line)規格と、フランスやロシアなど旧社会主義国が採用しているSECAM(セカム = Sequenticel Couleur A Memoirre[フランス語])方式があります。これらは、日本(他に、米国、韓国、フィリピン、台湾、メキシコ、コロンビア、チリ、ペルー)のNTSC方式とは違う送信方式であるため、日本のテレビやビデオを海外に持って行っても何も映らないという問題が生まれました。
欧州やロシアがNTSCを採用しなかった理由は、NTSCを採用したくなかった、というのが本当のところのようです。標準化がいかに難しいかがわかります。NTSCを嫌った欧州は、撮影・再生速度を変えました。米国は、おそらく撮影・再生速度の根拠を電源周波数においていたはずです。米国の電源は、AC110Vで60Hzでした。この電源周波数に従って再生速度を整えました。ブラウン管など高圧電源が必要な受信器では、トランスを使って高圧を作る場合に商用電源周波数は大事で、この周波数に従って受像機を作るのが安易な方法でありハム雑音を低減することができます。それでNTSCは、60フィールド/秒、30フレーム/秒としたわけです。NTSCを採用している米国、カナダ、日本(西日本)、韓国、フィリピン、タイなどは60Hzの商用電源周波数です。
欧州の電源周波数は、50Hzです。従って、欧州のテレビジョン規格(PAL)は、50フィールド/秒、25フレーム/秒となりました。動画速度がNTSCに比べて17%も遅くなりました。速度は遅くなりましたが、その分走査線の数を増やして625本としました。PALは画質が良いと言われる所以です。また、動画速度が低いため、PALはチラツキが多いと言われる所以でもあります。
2000年代に入って、デジタル放送を立ち上げる機運が全世界的に高まりました。この時代になっても、放送規格は足並みを揃えることができません。米国、欧州、日本と3つのグループがそれぞれの規格を主張しあってそのまま規格化になだれ込みました。傍目からみれば、すべて統一したほうがすっきりすると思うのですが、利権がからんだり、過去の遺産(古い受像機を持った人たちへの対応)も絡んだりとうまくは行かないようです。
29.97フレーム/秒の怪
ビデオカメラなどのカタログを見ていると、録画再生速度の項目に、29.97フレーム/秒という数字が掲載されていることがあります。
NTSCの規格は30フレーム/秒ではなかったのかしら?
ま、0.03フレーム/秒は、30フレーム/秒の0.1%だから
とるにたらないのかな。
しかし、なんで30フレーム/秒と気持ちいい数字にしてくれないんだろう?
この数字を見たとき、私はとても不愉快な気持ちになりました。テレビ技術者たちもきっと心地よくこれを決めたのではなかったでしょう。
NTSC規格が29.97フレーム/秒になった経緯は、白黒放送からカラー放送に変わったときに、白黒の受像機を購入した人でもカラー画像を白黒画像として見えるように、compatibility(両立性)を確保しためでした。30フレーム/秒でカラー画像を作ると案配が悪かったのです。不具合の理由は、白黒画像(輝度情報)に色情報を搬送色信号(「NTSCのカラー情報 」参照)として重畳(ちょうじょう)させたとき、わずかではあるけれども、搬送色信号の周波数成分が輝度信号成分に現れて、それが画面として見えてしまうからでした。これは非常に見苦しいものでした。これは、搬送色信号と送信周波数である30フレーム/秒の干渉によってビート(発振によるモアレのような縞画像)が現れてしまうという問題でした。カラー信号を作る色信号は、白黒(輝度)信号に邪魔を与えないように電波で送信できる限界の周波数を選んでいますが、それでもビートとして画面にうっすらと現れてしまいました。
NTSC規格の根本は、走査線525本を1秒間に30枚で送るというものです。これを守らないと白黒受像機で画像が受けられません。従って、カラー放送を実現するときに、すでに家庭に出回っていた白黒受像機でも受像できるように、できるだけ規格を崩さず、かつ、カラー画像もちゃんと送受信できるように、できるだけ30フレームに近づけて、なおかつ、カラー信号が白黒画像に影響を与えない数値、すなわち、フレーム周波数を29.97フレーム/秒(59.94フィールド/秒)としたのです。
テレビ画像は、走査線によって画面が構成され(これをラスター画面と言います)、しかも、無線による送信をしなければならない関係上、走査線の数は奇数にしなければなりません。また、周波数も2画面をインターレースで編み合わせているため、信号周波数が整合すると画像にビートが乗りやすくなるので、それを防ぐ工夫をしなければなりません。走査線が525本であるのも、水平周波数が15,734 .264 Hzであるのも、フレーム速度が29.94フレーム/秒であるのも、すべて画像の干渉(ビート)を除くためでした。
アスペクト比4.3
テレビ画面のアスペクト比(横と縦の画面比)が4:3であるのは、映画画面からの踏襲です。映画がエジソンによって発明された時、画面(コマ)は、35mmフィルム巾に、24mmx18mmという画像サイズを取り入れました。この比率は4:3でした。テレビは、映画の画面比を借用したのです。もっとも、映画はその後、フィルムにサウンドトラックを焼き込むスペースを設けたり、シネスコレンズの登場によってこのアスペクト比を崩し、スクリーン画面を 2.35:1 としました。黒澤明監督作品や、山田洋次監督の作品をテレビで放送するときは(彼らはこの比率をかたくなに守っていたので)、テレビ画面の上下が空いた画像となります。映画画面の比率は、ハイビジョンの16:9よりも横長であるため、ハイビジョン放送を使っても映画画面をフルに映し出すことはできません。
ちなみに、受像機(テレビ)の大きさを表す35型などの「型」は、インチの別表記であり画面の対角線長を示しています。35型は対角線が35インチなので、縦横は21インチx28インチ(53.5cmx73.2cm)となります。
NTSC規格のカラー情報 (2008.10.25追記)(2009.02.03追記)
NTSC規格(テレビジョンシステム)は、 かなり複雑なシステムです。画像計測の立場に立って、誤解を恐れずに言うならば、テレビシステムは妥協とごまかしの産物でした。しくみと原理をよく理解して計測目的に使わないと、混乱をきたすおそれがあります。
■ 白黒受像機との互換の問題
カラーテレビジョンは、白黒テレビジョンが全世界的に広まった後で開発されたため、白黒テレビを持っている利用者でも放送局から送られてくるカラー映像信号を白黒受像機で見えるようにしなければなりませんでした。平たく言えば、カラー映像信号は、カラー放送以前に取り決めた白黒映像信号と基本を同じにして、白黒テレビでも問題なく受信するようにしなければなりませんでした。日本でカラー放送が始まったのは、テレビ放送の始まった1953年(昭和28年)から7年遅れての1960年(昭和35年)です。当時、カラー放送は全放送時間の1割もありませんでした。カラー受像機が100%近くに普及するのは、1970年代終わりの頃だと思います。実に30年近くも白黒受像機は使われていたのです。工業用テレビにおいては、カラーカメラは高価であり、画像のキレも悪いので、監視カメラや、製品生産ラインのチェック用として2000年近くまで白黒カメラと白黒受像機が使われていました。2009年時点でも、FA関連のカメラでは白黒カメラがよく使われています。
このような理由から、NTSC規格のカラー信号を決める時に、白黒の映像信号を基本にして、白黒受像機でも弊害を受けないように対策が立てられました。カラー情報は、白黒輝度信号の中の比較的広い映像部分(この部分は、映像周波数としては低い周波数になる)に与えることにして、色の情報を伝える色差信号を500KHzまでに限定しました。この色差信号を3.58MHzで副搬送波として映像信号に重畳させています。500KHzの信号は解像力に直すと63TV本になります。これ以上の細かい部分については、人間が色を感知せずに光の強さだけを認めるという性質をうまく使い、輝度情報だけを送っています。従って、通常のCCDカメラを用いてカラー画像処理を行う場合に、NTSC信号では細かい部分のカラー情報を持ち合わせないため色情報を取り出せません。カラー画像処理を行うためには、RGB方式のビデオカメラとRGB 3系統の画像メモリを組み合わせたものが理想となります。 もちろん、VTRやDVなどの録画装置に保存してしまっては、細かいカラー情報は消されてしまいます。
■ カラー映像信号の作り方
カラー映像信号を、白黒受像機で受けても問題なく映像を受信できるようにするために、カラー映像信号は「アナログ信号の仕組み」 で説明した同じ方式にしてあります。白黒映像信号をもとに、白黒受像機の受信に不具合が起きないようにカラー情報を乗せています。
右の映像信号(1水平ライン分の信号)が、NTSCのカラー信号です。各色の輝度信号に髭のような細かい信号が乗っています。これは、白黒濃淡を表す輝度信号(Ey)に、3.58MHzの周波数を持った色信号を重ね合わせているのです。白黒受像機では、3.58MHzの細かい信号は基本的には認識されずに、その下のベースにある輝度信号だけを取り出して白黒画像を作っています。現実には、色信号は完全には除去されずに、細かな輝度信号となって干渉縞を発生させています。その干渉縞は、455TV本に相当します。この干渉縞を抑えるために、画像の1フレーム毎に干渉縞をずらして2フレームで見た目の細かな縞を打ち消しています。細かく見るとフィールド毎のラインに縞が見えますが、ライン上に現れる縞がフレーム毎が半波長だけずれるので、画面全体を見れば目立たなくなるのです。
カラー信号では、まず、水平同期信号(走査線が左から右に走るというスタート信号)の直ぐ後に続くバックポーチ部に、カラーバースト信号を乗せています。これは、「この映像信号がカラー信号ですよ」、という合図です。カラーバースト信号は、3.58MHzの周波数で作ることが厳格に決められています。このカラーバースト信号は、8〜12のパルス数で構成されています。このカラーバースト信号は、受像機側では、カラー情報を構築する上で大切な働きをします。この信号で、カラー信号の周波数の校正と位相の補正をします。輝度信号に重畳された(ちょうじょう = 重ね合わさった)カラー信号は、バースト信号との位相のズレ(θ)で色を決めるので大切なのです。
輝度信号に重畳された色信号は、振幅(電圧幅、L)成分とバースト信号からの位相のズレ(θ)情報を持っていて、この二つの情報と輝度値(Ey)を使って、最終的に色情報(EB 、EG 、ER )を算出します。その前段階として、二つの色差信号(EB - Ey、ER - Ey)を作ります。色差信号を作るのは、画像の大きな部位に対してだけです。細かい部位に対しては色信号がないので色をつけることはできず、輝度信号情報だけの映像(つまり、白黒映像)となります。
■ カラーバースト信号の弊害
カラーバースト信号と色信号は、ともに3.58MHzの周波数で作られています。この周波数は、受像機の回路側でカラー信号を抽出するのに大切な働きをします。この信号周波数をもとにして、映像信号の色情報を読み出しています。3.58MHzの周波数を持つ色信号は、本来は、最終的な映像信号が作られる時に除去されるべきものですが、映像信号として残ってしまいます。3.58MHzという信号は、525本の走査線、29.97フレーム/秒の全画面構成では、
2 x [ 1/(525 本/フレーム x 29. 97 フレーム/秒 )]/( 1/3. 58 E6 Hz ) = 455. 06 TV本 ・・・(Rec -19)
455TV本の縞としてうっすらと画面に現れます。しかし、これはしかたのないことでした。何度も言いますが、NTSC映像信号は電波放送を前提としていて、電波に乗せて映像信号を送るために送信帯域の制限があります。4.5MHzの送信帯域(実際の映像信号の帯域は4.2MHz)に映像信号を押し込めなくてはならないため、30フレーム/秒、525本走査線は譲れない条件となります。この制約の中で、カラー信号を入れなくてはなりません。カラー信号を乗せる基本周波数(バースト信号周波数 = 3.58MHz)の選定も、この制約の中から最適な条件として求められました。その条件出しは、以下の通りです。つまり、
バースト信号周波数(fs) = [水平走査周波数(fh)/2] x 奇数番号(N) ・・・(Rec -20)
とすれば、画面への弊害を最小限に抑えることがわかりました。バースト信号(fs)は、映像搬送波からできるだけ離して設定すれば効果が上げられる反面、周波数帯域の制限があるためその範囲内に収まるようにNを設定しなければなりません。規格では、N = 455に設定されています。これは、455が奇数であることと、素数分解したときに5x7x13にできて電子回路が組みやすいという利点から、N = 455が求まりました。
水平走査周波数(fh)は、テレビ送信信号の帯域4.5MHzを走査線の数とフレームレートの積で割った値として求められますが、バースト信号周波数(fs)を考慮に入れて整数分の一にしなければなりません。NTSCの当初の規格である30フレーム/秒、525本の周波数(15,750Hz)を元にして、4.5MHzの整数分の一になるような厳密な水平走査周波数を考えると、
4.5E6 Hz /15,750 Hz = 285. 714 ・・・(Rec -21)
となるので、286が最も妥当な分周値となります。これを、再度、計算して水平走査周波数(fh)を割り出すと、
4.5E6 Hz /286 = 15,734. 266 Hz ・・・(Rec -22)
となります。この周波数を、バースト信号周波数(fs)を求める式に入れて、
15,734. 266 Hz /2 x 455 = 3,579,545.5 Hz ・・・(Rec -23)
が得られ、この値(3.58 MHz)が、バースト信号周波数(fs)の根拠となりました。
また、水平走査周波数(fh)から、最適なフレーム周波数(撮影速度)を求めると、
15,734. 266 Hz / 525 = 29. 970030 Hz ・・・(Rec -24)
となり、カラーNTSC信号の厳密なフレーム速度(29.97 フレーム/秒)が求まり、これがNTSCでの正式な撮影・再生速度となりました。
白黒テレビ放送が主流であった初期の受像機を使ってカラー映像信号を受信しても、30.0と29.97は、0.1%の許容差であり、システムが許容している+/-0.5%以内に十分に入っているので問題はありません。
このように、NTSCでは、送信上のいろいろな制約の中で成立してきた映像規格であることが理解できます。この規格は、本来、計測を目的として作られたものではなく、動画を電波に乗せて配信するという大前提と制約があったので、これを計測用として使うには、十分に気をつけて使う必要があります。
NTSC規格の水平解像力
NTSC方式は、日本と米国、カナダ、韓国、台湾、メキシコ等で採用されているテレビジョン方式で、画像の構成が一秒間に30画面、一画面525本の走査線と決められています。送信周波数もAM変調した映像信号とFM変調した音声信号を重畳(ちょうじょう)させ90MHzから6MHzごとにチャンネルを割りふっています。従って、チャンネル1(関東地区はNHK)は、90 - 96MHz、チャンネル2は96 - 102MHzという具合になります。6MHzの周波数帯域の中で、実際に映像信号として使える周波数は4.2MHz です。NTSC規格では、29.97フレーム/秒の間に525本の走査線が走るので、走査線1本は、15,734.25Hz(63.5 us)で走査しています。走査線は、画面の左から右に走り(走査し)、右端に達するとある時間を取って左端に帰らなければならないので(帰線期間)、有効な1走査線時間は、52.7usになります。52.7usは、NTSCで決められた水平走査線の走査時間の83%の時間分で、有効画面の走査時間です。この時間で、映像信号は最大4.2 MHzの周波数を取りえるので、おのずと水平方向の解像力が決まります。
52.7 us x 4.2 MHz x 2 = 442.7 TV本 ・・・(Rec -25)
この式で、最後に2を掛けたのは、1Hzは映像でいうと白と黒の二つを表すことができるため、そして、テレビの解像力は白黒ペアで2本と数えるため2倍にしたものです。 この式から、放送局から送られてくる画像は、最も条件が良くて443本であることがわかります。通常は、いろいろな画質低下の要因があるため、230 - 240 本の解像力が満足できれば妥協できる映像といえます。家庭用のテレビは、その程度の解像力でした。
放送局用に使われているテレビカメラは、どのくらいの解像力を持つものを使っているのでしょうか。
画面の縦情報を決定する走査線は525本と決まっているので、これは固定としても、水平解像力はどのくらいあるのかというと、CCD素子を使ったベータカムは、494x768画素(この素子を3板で使用)のものを使っています。このことから、放送局用のCCDカメラは、送信限界の解像度の2倍弱のカメラを使っていることがわかります。
S端子。
輝度信号と色信号を別々にしたビデオ信号端子。
S-VHSビデオの解像力
S-VHS(えす・ぶいえいちえす、Super-VHS)ビデオは、記録信号帯域を7MHzまで高め解像力アップを狙ったビデオ機器です。放送用としてではなく、アマチュアが個人でカメラで撮影し録画する目的のため、NTSC規格にとらわれることなく開発されました(ただし、NTSC規格にのっとった関連機器との互換性を取ったのはもちろんです)。開発したのは、VHS方式のビデオテープデッキを開発した日本ビクター社で、1987年のことです。従来の方式が、映像信号にかかわる輝度信号と色差信号を重畳して1本の信号線で処理する方式としていたのに対し、S-VHS方式は、映像輝度信号と色差信号を別々に分けて記録再生するために、混信が無くなり解像力を上げることができました。S-VHSの信号帯域から解像力を割り出すと最高890TV本になります。解像力が900本近くなると、かなりきめの細かい画像になります。しかし、記録、再生などトータル的に見るとS-VHSの解像力は400本前後となります。それでも、この数値は従来のVHSの230本に比べると格段の画質向上を達成していました。
接続するコネクタは、右の形状をしていて、S端子(Separate端子)と呼ばれていました。
この規格は、VHSがデジタル機器の台頭に伴って、その役割を終えた2008.1月に民生機器の販売が終了したために21年の歴史に終止符が打たれました。
ビデオ信号のダイナミックレンジ
NTSCに準拠したアナログビデオ信号の輝度レベル(明るさ検知の範囲)は、前にも述べたように0.3V〜1.0Vです。この映像輝度信号をどこまで分解して濃度情報を得ることができるでしょうか。世に出回っているディジタルメモリは、8ビット(28 = 256)256階調と規定して製作されています。黒レベルの0.3Vから白レベルの1.0Vまでの0.7Vを256段階にわけると1階調当り2.7mVになります。これほど純粋に、カメラもVTRもモニタも信号を大事に扱えるかどうかは疑問ですが、一般にビデオカメラの階調は 1:100(7ビット)と言われています。これを被写体に照らし合わせて考えれば、10,000ルクス程度の屋外では 1,000 〜 100,000 ルクス程度の明るさを映像に収めることができます。従って、1,000ルクス以下の明るさでは真っ暗になり、100,000ルクス以上の被写体は真っ白になります。
放送局用や理化学分野で使用されるカメラで、これ以上のダイナミックレンジを持つカメラは無いのでしょうか。CCDカメラを例にとって考えてみましょう。CCDカメラは、シリコンの光反応で光学像を電気変換することは前に述べました。シリコンは光に良く反応し、ダイナミックレンジはシリコンフォトダイオードで 1 : 100,000 であることも述べました。同じフォトダイオードを使っているのになぜ1,000倍も違うのでしょう。答は、検出信号電圧と S/N 比(Signal to Noise ratio)にあります。素子自体は本来、広いダイナミックレンジを持っているのに、ノイズ成分が多くて、短時間に取り出す信号用として使うには取り出せる領域が限られてしまっているのです。分光分析用に使われているCCDカメラ(時にはCCD面を液体窒素やペルチェ電子冷却によって長時間露光と微弱光検出を可能にしたものもある)では、16ビット(1:65,000)のダイナミックレンジを持つものも市販されています。これらのカメラは、NTSC 規格から解放されているために出力電圧を高くとることができ、また、信号取り出し時間もゆっくりとれるため 、S/N 比が向上し、分解能を高くとることができます。従って、この種のカメラでは1秒間に30枚という画像形成は不可能です。
デジタルビデオ(DV)信号 (2006.11.05)(2008.05.04追記)
アナログ映像信号(NTSC)に代わって、1990年代後半からデジタル映像信号が普及してきました。DV信号は、家庭用8mmビデオコーダがデジタルに移行するのに伴って規格化された映像信号です。DV信号の規格内容を見ると、アナログ信号(NTSC信号)を踏襲していることがよくわかります。
DVフォーマットは、1995年にビデオ機器関連55社が集まって「HDデジタルVCR協議会」を組織し、この組織が作り上げたデジタルビデオ規格です。
この規格は、放送局用の規格ではありません。アマチュア向け(家庭向け)のビデオカムコーダのデジタル規格です。放送局では、この規格とは別のD1〜D6というデジタル信号が1982年から始まっています。また、公共電波を使って、放送局から送信されるデジタル放送のデジタル信号もこれらとは異なります(「デジタル放送 」参照)。動画像のデジタル信号処理は、録画から始まったということができるでしょう。
DVフォーマットのおおまかな規格を、以下に述べます。
【DV信号規格】
・ 画像: 720x480画素(インターレース)
・ 1秒間に30コマ(正確には29.97コマ)の動画を構成する。
・ 画像は、 DVフォーマット(Motion-JPEG)。
MPEG録画ではなく、一枚一枚の静止画を 作って録画している。
したがってフレーム毎の編集が可能。
・ 画像圧縮率: 1/5
・ サンプリング周波数:
13.5MHz(輝度信号)、
3.375MHz(色差信号、輝度信号の1/4サンプリング)
・ 色差サンプリング: 4:1:1
・ 符号化ビット数: 約25Mbps
・ オーディオ: 非圧縮PCM
・ オーディオ量子化ビット数: 16bit/48kHz(2ch)、12bit/32kHz(4ch)
・ DVテープ: 1/4インチ(6.35mm)、メタル蒸着(ME)テープ
・ DVテープトラック幅: 10um(業務用DVテープは、18um)
・ DVテープ速度: 約18.812mm/秒(SP)、約12.555mm/秒(LP)
・ 記録時間: 80分(LPモードで120分)
・ 録画装置からのデジタル転送は、IEEE1394(Fire Wire)を使う。
この規格を見ると、DV信号は、NTSCアナログ規格のデジタル版という匂いを強く感じます。その理由は、動画の構成が30フレーム/秒であることと、インターレースであることです。縦の画素数が480画素であり、これはNTSCの縦の有効走査線490本のデジタル版とも言えるものです。また、水平解像力をNTSCでは最高のレベルに入る720本としたことからも、その近似性を見て取ることができます。 水平解像力720本については、注意が必要です。すなわち、DV信号映像をコンピュータに表示させてピクセルbyピクセルで表示させると、横長に表示されます。コンピュータの世界では、1画素は縦横同じ比率(正方格子)が前提ですが、テレビ画像では縦長の画素構造で横に緻密な画像となっていて、垂直解像度に限界がある分、それで見た目の解像度を向上させています。しかし、ハイビジョンのデジタル放送になると、16:9の画面比を正方形の画素ピッチ(正方画素)で表示する規格となりました。放送業界では、NTSCのアナログ映像信号、DVのデジタル信号、アナログのハイビジョン放送は正方画素表示ではないことを注意しておくべきでしょう。
また、DV規格は、コンピュータ動画から出発した、AVIやQuicktimeの動画フォーマットとは違います。AVIなどは、再生速度の制約もなければ画素数の制約もありませんでした。
ハイビジョンデジタルビデオ(HDV)信号 (2008.12.15記)
ソニーが2008年に発売した、
家庭用向けハイビジョンカメラ(HDR-HC9)。
・撮像素子は、単板CMOS(2,848x1,602)。
・記録媒体は、miniDVカセット(30分録画〜85分)。
価格は、120,000円〜150,000円。
先に述べたDV規格ができたとき、来るべきハイビジョンの到来を予測して、DVにもハイビジョンを取り込む対応がなされていました。
HDV(High - definition Video)は、2003年9月にキャノン、シャープ、ソニー、日本ビクターの4社によって規格化されました。HDVに対して、先に述べたNTSCのデジタル化規格をSDVと呼んでいます。HDVは、記録するビデオテープや編集器など、先に開発されたDV機器と共有することを大きな前提としていました。
HDVでは、走査線を1080本のインターレース(HDV 1080i)と720本のプログレッシブ走査(HDV 720p)の2種類が設定できるようになっています。インターレース は、先にも述べているように、テレビ放送ができた当時からある画像表示方式で、1画面(フレーム)を2つの画面(フィールド)で織りなす方法です。プログレッシブ走査は、1画面(フレーム)を1回の走査で描く方法です。
従来のデジタルビデオテープに、ハイビジョン画像を録画していく関係上、録画はMPEG-2が採用されています。この方式をとらない限り、高画質な画像を記録することは不可能でした。それほどMPEG-2は革命的なデジタル映像フォーマットだと言えるでしょう。HDVの画面は、16:9のハイビジョンテレビと同じアスペクトになっています。
従って、HDV 1080iでは、基本的に、1440x1080画素で画面が構成され、59.94フィールド/秒を25Mbpsのビデオ圧縮で録画されます。HDV 720pでは、1280x720画素で30フレーム/秒のプログレッシブ映像を19MbpsでMPEG-2圧縮されます。音声は、いずれの方式においても、サンプリング周波数48kHz、左右16ビット、384kbpsのビットレートでMPEG-1 Audio Layer-2のデジタル記録がなされます。
右のカメラは、HDV規格の家庭用ビデオカメラです。手のひらサイズの大きさをDVの時代から継承して、ハイビジョン録画が可能となっています。テープ方式の録画の強みを生かして、最大85分の記録ができます。ちなみに、同様のカメラで120GBのHDD(ハードディスクドライブ)を搭載したモデルもあり、これは最大48時間の録画が可能です。
ハイスピードビデオの記録周波数
NTSC規格は、記録周波数帯域が4.2MHzに制約され解像力もカラー情報も全てこの制約の中で行われていることがわかりました。ハイスピードビデオはどのくらいの周波数帯域で記録しているのでしょう。
単純な計算を試みると次のようになります。
1,000 画面 / 秒 x 525 走査線 / 画面 x 300 白黒本/走査線 x 1/2
= 78.8 MHz ・・・(Rec -26)
上の式は、1,000コマ/秒のハイスピードビデオカメラで約79MHzの記録帯域で記録していることを示しています。79MHzの記録周波数帯域のVTRやカメラ設計にはかなり高度な技術を必要とします。この帯域での記録では磁気記録方式では記録周波数ギリギリまでテープ走行速度を上げていますし、カメラの走査速度も非常に高速になっています。これらの技術が完成したのは、高速・高集積 IC素子とアナログ素子の出現があったことは言うまでもありません。
↑にメニューバーが現れない場合、
← クリックして下さい。
▲ デジタル映像信号 (Digital Video Signal) (2008.08.19記)(2008.08.25追記)
映像のデジタル信号化は、固体撮像素子とコンピュータの発展により1990年代後半から急速な普及を見てきました。2011年以降のテレビ放送は、すべてデジタルに切り替わります。1954年に開始された日本のテレビ放送も、57年の年月を経てデジタル放送時代を迎えます。家庭で使われている写真も、2009年ではほとんどすべてデジタルカメラに置き換わりました。
デジタル画像の基本は、画像を画素(ピクセル)という単位の升に区切り、そこに濃度を与えて数値化(デジタル化)したものです。画素に番地がふられて濃度情報が記録される、きわめてわかりの良い考え方です。映像の記録はすべて画素単位で数値保存されます。これがデジタル画像です。このデジタル映像を1秒間に30枚、しかも720画素x480画素で表示するとなるとどうでしょう。テープレコーダにデジタル記録する回路技術もさることながら、この情報を電波で送信する技術もそれだけの周波数帯域を持っていなければなりません。
30 画面 / 秒 x 720 画素 / 横画面 x 480 画素/縦画面 x 24 ビット/画素 = 248.8 Mbit/s ・・・(Rec -27)
この値は、1980年代後半普及していたデジタル電話回線(RS232C)の26,000倍もの速い通信速度で、インターネットの普及した2006年頃のADSL方式の12Mbit/sよりも20倍も速い値です。光通信でもこの帯域を確保していません。インターネットでは、画像を圧縮するという技術で高画質を保ちながら高速の動画像を送ることができます。そうした技術がない時代にあっては、NTSCアナログ信号ですらこのような膨大なデータ量になってしまうため、アナログ信号のまま送らざるを得なかった事情がありました。デジタル技術では、圧縮とか周波数の増強などの技術的ブレークスルーが要所要所でありました。
最初のデジタル画像 (2008.08.19記)(2009.01.11追記)
最初のデジタル画像が使われた事例を紹介したいと思います。
デジタル画像とその処理を最初に開発したのは、米国JPLです。1965年のことでした。
JPLは、正式名称を Jet Propulsion Labs (= ジェットプロパルジョンラボラトリーズ)と言い、NASAの研究組織として惑星の探査研究を受け持っていました。
米国カルフォルニア州のパサデナにあります。
CMOS-APS 固体撮像素子の親であるFossum氏も、この研究所の研究員でした。
■ NASAプロジェクト
NASAでは、1962年11月に火星に探査船を送るプロジェクトを立ち上げました。
当時、全米では、火星に生物が存在すると深く信じられていて、大統領はじめ全米が火星の様子を探るこのプロジェクトに大きな関心を寄せていました。
マリナー4号は、1964年11月に打ち上げられて、翌年1965年7月に火星軌道に入り、地上高6,000kmから地表面を200x200画素の解像力で撮影を行い、合計22枚の画像を地球に送ってきました。この画像は火星表面の1%にあたるもので、200x200画素の画像は、1画素あたり1kmに相当する200kmx200km範囲の画像でしたが、地球から撮影して得る画像よりも150倍も良い分解能を持っていたそうです。
このプロジェクトの技術的チャレンジは、以下の二つでした。
(1)火星地表を鮮明な画像を撮影すること。
(2)得られた画像をデジタル信号に変換して、遠く離れた地球に送り届けること。
■ 遠隔通信手法 - PLL (Phased Locked Loop)
遠く離れた宇宙空間で画像データを送受信する通信技術は、これに先立つ1962年、金星に送り込んだマリナー2号のデータ通信で採用されて実証された「Phased Locked Loop = PLL」という通信方式で目途が立っていました。PLLは、宇宙通信史上画期的な技術発明でした。これは、送り手と受け手の両方が原子時計のような非常に正確な時計を持って同期をとり、同期に合わせて「0」と「1」のデータ情報を送るものでした。二つの信号しか送らない方法こそが、まさにデジタル通信であったのです。この技術を彼らは画像通信に応用しました。
このプロジェクトを遂行するには、デジタル通信システムが絶対必要でした。
普通のアナログ・ビデオシステムは、すでに探査機「レンジャー」に乗って月に飛び、あるいは「タイロス」衛星に乗って地球軌道を回っていました。普通に考えれば、アナログ方式を採用すれば問題ないと考えるでしょう。しかし、今回は、地球周回や月などと違って桁外れの距離からの通信です。テクノロジーのスケールをそのまま相似的に当てはめるわけにはいかなかったのです。
デジタル通信こそが、画像データの超遠距離伝送を高い忠実度で実現してくれる、唯一のシステムであると考えざるを得なかったのです。
■ テレビカメラ
火星探査衛星マリナー4号(Mariner 4)に搭載されたカメラは、フィルムカメラではなく、現像工程のいらないテレビカメラでした。カメラは、当時のテレビ局が最新のスタジオカメラ用として採用していた「ビジコン管 」(Vidicon tube、撮像管、真空管)を採用しました。もちろん、白黒テレビでした。当時は、CCDなどの固体撮像素子はありませんでした。テレビ放送は、NTSC呼ばれる(アメリカと日本などが採用したテレビ放送規格。2011年までアナログ放送として使われる)とアナログ送信技術が規格化されていて、電子映像装置はすべてNTSC規格に準拠していました。従って、ビジコン管は走査線525本の性能を持っていました。しかし、宇宙通信ではアナログ通信が行えないため、データの通信が確実におこなえるデジタル信号に置き換えなければなりません。当時のデジタル通信では、525本の情報は多すぎて送信することができなかったので、ビジコン管の走査線を変更して200本と低くしました。
■ A/D変換(Analog to Digital transfer)
テレビカメラ(ビジコン管)で作られる画像は、電圧の強弱になったアナログ電気信号であるため、マリナー4号ではこのアナログ信号をA/D変換器(Analog Digital Converter)を使ってデジタル信号に変換しました。A/D変換器は、トランジスタとコンデンサで組み合わせた電子回路であり、弁当箱程度の大きさがありました。この装置により、カメラ画像を200x200画素、6ビット(64階調)濃度に変換しました。ビジコンカメラがとらえた画像は、240kビット(30kB)のデジタル画像だったことになります。
このデジタル画像を1枚作るのに2.5秒かかりました。A/D変換されたデジタル信号は、一旦、4トラック・デジタル・テープレコーダに記録されました。このテープレコーダの性能が、どの程度のものであったかは、資料がないのでわかりませんが、110kpsの記録は、4トラックで25umギャップの磁気ヘッドを使って、76.2cm/s(30 inch/s)のテープスピードでなんとか出せる性能です。こうしたことの意味するところは、当時、たったこれだけのデータ情報を記録する電子メモリ(ICメモリ)がなかったことです。それ以上に興味あることは、200x200画素、それも64階調とお世辞にも高画質といえないデジタル画像を、2.5秒もかかって変換したという当時のデジタル技術のレベルです。つまり、デジタル画像は、まだ産声を上げたばかりだったのです。当時は、デジタル技術をささえる半導体製造技術が成熟していなかったのです。デジタル・テープレコーダ(おそらくアナログテープレコーダの改造)が使われたのは、ビジコン管から得られる画像の撮像スピード(110Kbps)に対応できる通信速度が確保できなかった(当時のデジタル通信は8.33bpsが限界であった)ことと、火星の裏側に回り込んだ際に地球にデータが送信できない問題があり、データは一旦テープで保存して、後でゆっくり送信する必要があったためでした。宇宙通信データも、当時は1秒間に8ビットを送るのが精いっぱいでした。200x200画素のデータを地球に送るのに8時間もかかったのです。テープレコーダも、記録と再生では、1,320倍ものスピード差がありました。磁気テープ装置は、録画はハイスピードで行って、再生は恐ろしく遅いスピードでテープを送っていたことになります。
VGA規格(Video Graphics Array) (2009.02.03追記)
VGA(Video Graphics Array)は、パソコン画面のもっとも基本的な画面構成で、米国IBM社が1987年に規格したデジタル画面です。これは、テレビ放送の規格ではありません。パーソナルコンピュータの規格です。VGAは、パーソナルコンピュータの草分けであるIBM-PC(PS/2)に最初に採用されて、クローンメーカによる互換機もこれに追随したため標準規格となりました。
IBMがこの規格を作ったことにより、パソコン表示画像の作り込みが楽になり、写真や図表などがパソコン画面にどんどん取り入れられるようになりました。
画像ボードメーカも、この規格に合うようにいろいろなインタフェースボードを作って行きました。このことは、1987年以前のコンピュータ画面が、コンピュータを作るメーカでまちまちであったことを示しています。同時に、コンピュータ画面は、文字だけ表示されれば(ターミナルモードで)良しとされていた時代であったことを伺わせます。
VGAの規格は、NTSCアナログ規格の踏襲と言えるべきものです。
VGAに採用された画素数は、NTSCの解像力をお手本にして、そのままデジタルに置き換えました。そのほうが既存のテレビモニタが使えるので便利だったのです。ただ、色表示は無限表示(RGB各8ビット、24ビット)とするには、当時のパソコンのパワーが足りなかったので、16色(4ビット)からスタートし、256色(8ビット)まで取り決められました。これは、カラー写真を表示するには不満の残る設定でした。逆に言うと、1990年代までは、パソコンを使って写真を見るなどという考えが無かったことを伺わせるものでした。当時は、文字を表示するのに精一杯で、文字に色がついたことに感激していた時代だったのです。MS-DOSによるパソコンができた当時は、日本語では、漢字1文字が16x16画素のビット表示として割り当てられ、これを全角と呼んでいました。従って、VGA画面では、全角で40文字x25行の文字が表示できました。当時のパソコンは、こうした文字をパソコンに打って、これを読んでコンピュータと対話するという文字だけの世界に終始していました。
VGAは、当初、コンピュータ内部のマザーボードにモニタの画像を構築する回路を搭載していましたが、マザーボードから切り離して、ISAバススロットを介した拡張ボードとして供給されるようになります。VGAボードがマザーボードと切り離して供給されるようになって、目的に応じた画像ボードを使うことが出来るようになり、高画素(SVGA、XGA)のモニタも使用できるようになりました。以降、コンピュータ画像の高画素化はご存じの通りです。現在のパソコンのもっともタフな仕事は、高画素になった画面表示にあることも、また事実です。
以下にVGAの規格を示します。
【VGA規格】(1987年)
・ 画素数: 640画素x480画素が代表的
・ 色: 16色もしくは256色
・ RAM領域: 256KB ビデオRAM
・ マスタークロック: 25.175MHzもしくは28.3MHz
・ 最大水平画面表示: 720画素
・ 最大垂直画面表示: 480画素
・ 画像表示周波数: 最大70Hz
・ 映像出力信号: アナログ0.7V p-p・ ビデオ信号終端: 75Ω
【VGA規格の派生】
・ VGA: 640 x 480 画素
・ WVGA: 800 x 480 画素
・ SVGA: 800 x 600 画素
・ WSVGA: 1024 x 600 画素
・ XGA: 1024 x 768 画素
・ SXGA: 1280 x 1024 画素
・ SXGA+: 1400 x 1050 画素
・ WXGA: 1280 x 800 画素
・ WSXGA+: 1680 x 1050 画素
・ SXGA+: 1400 x 1050 画素
・ UGA: 1600 x 1200 画素
・ QXGA: 2048 x 1539 画素
デジタル放送(Digital Broadcasting) (2008.08.25記)(2009.05.06追記)
計測分野で使われる動画像とは別の世界に位置しているデジタル放送は、日本では2011年に全面的に置き換わります。デジタル放送の流れは、26年も前(1982年)から始まっていました。デジタル放送の最初の流れは、録画装置から始まりました。テレビカメラは、最初の間、アナログの放送局カメラが使われました。デジタルカメラになったのは、デジタル放送を初めてからのことです。カメラのデジタル化は最後の方で実行されたことになります。つまり、放送の世界のデジタル化は、カメラで作り出したNTSCビデオ信号をデジタル処理してデジタルテープレコーダに保存することから始められました。デジタルで保存されたビデオ信号は、再生時に再度アナログのNTSC信号に変換されて、編集装置や送信部門に送られて各家庭に配信されていました。
デジタル放送のさきがけのデジタルVTRが、どのように規格化されたのかを見てみましょう。
■ デジタルVTR(Digital Video Tape Recorder)
放送局で扱われる映像のデジタル処理は、1982年から始まります。
デジタル処理は、録画装置(VTR = Video Tape Recorder)から始まりました。つまり、カメラは当時、まだアナログカメラを使い続けていました。
デジタルVTRが開発された1982年は、IBM社によるパソコンが登場した時期です。また、オーディオのCDが発売された時代でもあります。
パソコンでは、とてもデジタル動画など出来なかった時代に、テレビ放送はデジタルに向けて動いていたことになります。
デジタル化への道は、信号周波数との戦いだったと想像します。
■ D1-VTR
最初のデジタル録画装置は、D1規格と呼ばれるもので、1982年に制定されて1986年からD1-VTRによる編集や保存が開始されました。
もちろん、放送にはこれを再びアナログに変換していました。保存だけデジタル処理になったのです。
1980年代は、家庭用のVHSタイプやベータ方式のVTRが急速に成長していた時代です。磁気テープ の詳細については、項を改めて紹介しています。
これらの技術が発展して、放送局に使われるVTRがデジタル化されていきました。
デジタルVTR(D1-VTR)に使われたテープは、3/4インチ巾(19mm)で、U-matic規格のビデオテープを改造したものでした。これを使って、NTSC(アナログ)ビデオ信号成分を余すところなくデジタル信号に置き換えたのです。
放送用のデジタル信号は、静止画像と違って1秒間に30枚の映像が連綿と続く信号です。
これを、デジタル処理して連続して録画しなければなりません。
待ったなしです。
したがって、放送用のデジタル信号はアナログ(NTSC)信号をできるだけ簡単にデジタルに変換する手法、つまり、コンポーネントデジタル信号(YCbCr、UVR 4:2:2信号) が採用されました。
■ D1-VTRとD2-VTR
放送局用デジタルVTRの系譜
規 格
D1 - VTR
D2 - VTR
D3 - VTR
D4 - VTR
D5 - VTR
D6 - VTR
開発年
1986
1988
1992
欠 番
1993
1995
記録方式
4:2:2
コンポーネント方式
コンポジット
デジタル方式
←
4:2:2
コンポーネント方式/
10ビットコンポジットデジタル方式
4:2:2
コンポーネント方式
デジタル/アナログ
デジタル
←
←
デジタル
←
使用テープ
←
1/2インチ(12.7mm)
磁気テープ
1/2インチ(12.7mm)
磁気テープ
3/4インチ(19mm)
メタル磁気テープ
アナログ式との互換が難しく、あまり普及しなかった。
実を言うと、D1-VTRはあまり普及を見ませんでした。
1988年に作られた D2-VTR の方が大きな普及を見て、1990年代の主力となっていきます。
D1-VTR と D2-VTR の違いは、デジタル信号のエンコード方法にありました。
D2-VTR は、NTSC信号のアナログ信号をバサバサとそのままサンプリングしてデジタル化しました。
D1-VTRでは、輝度信号と色差信号をそれぞれ抽出(コンポーネント化)し、デジタル化しています。方や D2-VTR はそういうことをせずにアナログ信号をそのまま8ビット濃度で処理しました。 D2-VTR の方がより簡単にデジタル変換する方式だったのです。
D1-VTR の登場は、時代が早すぎたようです。当時の放送局で使われている設備は、アナログ装置が圧倒的でしたから 、D1-VTR を他の装置と組み合わせて使うときに、変換などの処理に手間がかかり相性があまりよくなかったようです。 D1-VTRを開発したソニーは、そのことに気づいて、すぐさまD2-VTRの規格を策定し、認定を受けて開発に着手したそうです。D2-VTRは、デジタル技術が熟成する1994年まで主力として使われました。
D2-VTR は、アナログ信号をそのままデジタル化したので変換処理が楽でした。ただ、この方法は、ある意味少々手荒い処方だったので、色のつき具合が D1-VTR に比べて芳しくないという欠点も持っていました。コンポーネントデジタル信号手法は、デジタル技術が進んだD5-VTR で再登場し、現在の主力になっています。
D2-VTR のデジタル変換は、先に説明したようにアナログ信号をそのままA/D変換しています。
A/D変換を行うサンプリング周波数は、14.31818MHzです。これは、カラーバースト信号 (3.579545MHz)の4倍の周波数にあたります。
カラーバースト信号を4倍でデジタル化すれば、色情報もデジタル記録できるという設計思想のようです。
D2-VTR規格の後に開発される D3-VTRは、使用するテープを1/2インチ(12.7mm)巾とした規格となり、コンパクトになりました。
D1-VTR信号に採用されたコンポーネントデジタル信号は、1993年のD5-VTRで再度登場します。D4-VTR は欠番です。D5は、ハイビジョン対応です。D4がなぜ欠番かと言うと、D3-VTRの開発で松下(現:パナソニック)が先行し、ソニーはベータカムをデジタル化する時にD-4規格として認可を受けるはずであったのが、タイムコードを受け持つ部分がアナログであったため、認可が下りずに欠番になりました。
NHKでは、2008年時点では、D5を標準として映像の保存、編集、出力を行っているそうです。
以降、デジタル放送信号は、コンポーネントデジタル信号が主流となって行きます。1993年に登場したD5-VTRは、デジタルカメラから直接映像信号を取り込み、デジタル信号で出力する機能を備え、ハイビジョンに対応していました。D5-VTRの対抗機であるソニーのHDCAMは、V5-VTRが登場した4年後の1997年に開発されました。
以下に、デジタルビデオの原型であるD1-VTRの基本規格を示します。
【D1-VTR 規格】
* 使用テープ:19mm(3/4インチ)
* テープ磁性体:酸化鉄塗布型
* 記録方式:ヘリカルスキャン方式
* 記録ヘッド数:4
* ヘッドドラム径:φ75mm
* テープ送り速度:約 286.6 mm/s
* 相対速度:約 35.6 m/s
* 信号方式:デジタル
* 圧縮: なし。
* 記録速度:80Mbps/ヘッド(総合 正味226Mbps)
* 情報源符号化方式:
映像:非圧縮 8ビット 4:2:2コンポーネントデジタル
コンポーネント輝度信号(Y)を13.5MHzでデジタル化。
音声:非圧縮 48kHz/20ビット直線量子化 x 4ch。
■ 4:2:2 コンポーネントデジタル信号(ITU-R BT.601) (2009.05.06追記)
4:2:2コンポーネント信号は、映像信号をデジタル処理する手法の1つであり、現在の放送用の信号として主流になっているものです。NTSC信号は、輝度信号(Y信号)で明るさを決め、色差信号(Cb、Cr)で色を決めています。アナログ信号であるNTSCでの色差信号は、輝度信号すべてにあてがわれているわけではなく、周波数の低い部位に対してのみ当てられています。色づけ作業を真面目にやると、送信周波数帯域を大幅に上回ってしまうので、人の眼が映像を見て問題のない小さな部位領域では、色を付けずに輝度(明るさ)だけを表示させているのです。
デジタル信号である4:2:2コンポーネントデジタル信号においても、色を付ける方法はアナログ信号と同じような方式を採用し、輝度信号と色差信号から構成される映像信号を作り、細かい部位に対しては色を付けない方法を採用しました。それが輝度信号4に対して色差信号をそれぞれ2つづつに割り当てたデジタル処理であり、これを4:2:2と呼びました。輝度信号と色差信号を色空間の用語でYUV(ワイ・ユー・ブイ)とも言うので、YUV422と呼ぶこともあります。
上で説明したアナログ信号を、コンポーネントデジタル信号に変換する規格が、ITU-R BT.601として取り決められています。
ITUは、International Telecommunication Union(国際電気通信連合)の略で、Rは、Radiocommunications Sector(無線通信部門)を意味します。
この機関が策定した601番目の規格というのが、 ITU-R BT.601です。この規格では、デジタル映像信号をYUV422で処理すると規定しています。
4:2:2コンポーネント信号とは、先にも述べましたが、輝度信号(Y)4(2画素 x 2画素)の情報に対して、色差信号の青(Cb)と赤(Cr)をそれぞれ2画素ずつあてがう方式です。4つ分の情報を持つ輝度信号は13.5MHzでサンプリングされ、色差信号は13.5MHzの半分の周波数で交互に織り込む方式としました。
従って、色情報は輝度信号の半分しかないことになります。
この規格では、画像のサンプル数が垂直525本で、水平が858本、これを29.97フレーム/秒でサンプリングするため、
525 本(垂直) x 858 本(水平) x 29.97 フレーム/秒 = 13.5 MHz ・・・(Rec -28)
というサンプリング周波数が導き出されます。
実際の有効画面は、ブランキング期間があるので、上の数値よりも小さくなり480画素 x 720画素(この画素構成でも縦横比は3:4です)となります。
映像情報に対しては、何度も言いますが、この方式が持つ色情報は半分ということになります。ただ、記録される色情報は半分でも、色づけを行う処理ではすべての画素について色が割り当てられます。これがアナログNTSC信号とは異なる所です。NTSCでは、大まかな部分しか色をつけず、細かい所は明るさ(輝度)しか情報を持たせませんでした。(持つことができませんでした。)
また、YUV422では、デジタルカメラで一般的になっている、単板CCD素子のBayer方式 よりも色づけに関してはきめ細かくなっています。Bayerフォーマットでの色づけは、各画素に原色フィルタをつけて8ビット(256階調)の輝度情報を得ています。色情報は、輝度情報とフィルタの配列から計算して4画素〜9画素分の情報から求めています。反面、YUV422は、1画素に輝度情報と色差情報の合わせて16ビット(8ビット輝度情報 + 8ビット色差情報)を持つため、Bayerフォーマットより2倍の画像情報となります。この点から、デジタル放送(YUV422)は、色づけに関しては真面目に対応していると言えます。D1-VTRでは、この方法でカラー画像を記録していましたが、この処理がとても煩雑であったので、次ぎに出されたD2-VTRでは、これをやめて、NTSCアナログ信号を単純に量子化する方法にしてしまいました。NTSC信号では、細かい部位での色情報がそぎ落とされてしまうので、これをデジタル化しても、きれいな画像を作り出すことはできません。画質的は、コンポーネントデジタル信号にしたD1の方が優れていたのはこのためです。
色を作る処理には、YUV422のほかにYUV444、YUV420、YUV410という取り決めもあります。YUV444は、全ての画素に色情報をあてがう方法なので情報量が一番多くなります。YUV410が最も簡便なデジタル録画方式となります。
■ ハイビジョン放送(アナログ放送とデジタル放送)(High-Definition Television)
テレビ放送も進化を遂げ、NTSC信号にとらわれない、より高精細のテレビ映像が開発されました。それがハイビジョンと呼ばれる高品位テレビ(High Definition Television)画像です。
当初、ハイビジョン放送は、アナログから出発しました。ハイビジョンの研究は、東京オリンピックが終わった1964年から始められ、8年後の1972年に規格提案がなされています。
ハイビジョン放送は、日本のNHK(日本放送協会)が精力的に開発を進めて、1989年から通信衛星を使って試験放送を始めました。
ハイビジョン放送では、画面を構成する走査線数を、従来のNTSCの525本から倍以上の1125本に設定し、16:9という画面構成をもっていました。今の液晶テレビの主流になっている横長の画面構成です。この信号を、そのまま送るのはとても容量が大きくなるので、独自の圧縮技術を開発しました。これがMUSE( Mu ltiple S ub-Nyquist-Sampling E ncoding system)と呼ばれるものでした。MUSEは、デジタルで映像の圧縮を行い、送信は従来のアナログ回線を使うためにFM変調伝送を行いました。MUSEでは空間の圧縮(画素近傍は動きが少ないので間引いて情報量を少なくする方法)と、時間圧縮(動きのある情報はベクトルだけを記録して再生時に補間する方法)の双方を行っていました。MUSEは、アナログハイビジョン方式の圧縮方式なので、現在のデジタルハイビジョンには採用されていません。
【アナログハイビジョン放送(MUSE)規格】
・ アスペクト比: 16:9
・ 総走査線: 1,125本(有効1,035本)
・ インターレース: 2:1
・ 再生速度: 60.00 フィールド/秒
・ 伝送サンプリング周波数: 16.2 MHz
・ 時間軸圧縮率: 12:11
・ 圧縮方式: フィールド間、フレーム間、ライン間オフセットサンプリング方式
・ 動きベクトル補正: 水平±16サンプル(32.4MHzクロック)/フレーム、 垂直±3ライン/フィールド
・ 音声: 48kHzサンプリング 16bit(2ch)、 32kHz 12bit(4ch: 3-1ステレオ)
NHKが主導で進めたこの規格も、欧米の放送業界のコンセンサスを得られず、NHK単独の開発となり、デジタルハイビジョンの発展の中で2007年9月に放送を中止しました。
【デジタルハイビジョン】
地上デジタル放送やハイビジョン放送という言葉が使われるようになって久しくなります。地上デジタル放送は、2003年から運用が開始されています。地上デジタル放送の大きな特徴の一つが、ハイビジョン放送です。ハイビジョン放送は、先に触れましたようにNHKがアナログ放送で試験運用を続けていました。その放送も終了して、現在はデジタルによるハイビジョン放送が主流となっています。2006年あたりからテレビを販売するお店では、16:9の横長の液晶テレビが並べられてハイビジョン一色になりました。
ハイビジョンの定義は、比較的緩やかで曖昧な部分があるようです。アナログハイビジョンは、放送を中止してしまったので除くとしても、2010年時点で、ハイビジョンと称しているもののには、以下の種類があります。
・ 1920画素x1080画素(インターレース) --- 衛星放送によるデジタルハイビジョン(画面比 16:9)
・ 1280画素x720画素(プログレッシブ) --- 地上デジタル放送によるデジタルハイビジョン(画面比 16:9)
・ 1440画素 x 1080画素(インターレース) --- 地上デジタル放送によるデジタルハイビジョン(画面比 4:3)
この中で、上の二つは画面比が16:9を持ったもので、一番下のものは画面比が4:3となっています(ただし、表示するときに、横方向に引き伸ばして、擬似的な1920画素x1080画素とします)。放送局で使うテレビカメラは、1920x1080画素のハイビジョンカメラで整備されつつあるようで、このカメラで得られた画像を必要に応じてサイズ変換して利用されています。1920画素 x 1080画素をもつハイビジョンは、フルハイビジョンと呼ばれています。地上デジタル放送は、この画素での放送はできず、衛星放送の帯域でなければ見ることはできません。
NHKなどの放送局では、フルハイビジョン対応のテレビカメラと編集装置で機器を整備して来ているようです。フルハイビジョンの画像は、コンポーネントデジタル映像信号(ITU-R BT.601)で統一しています。放送局内では、このデジタル映像信号を走らせるデジタル配線網が整備されていますが、この信号帯域は、以下の計算式で求められ、
2,200画素 x 1,125 走査線 x 10 ビット/画素 x (1 輝度 + 1/2 色差 + 1/2 色差 ) x 29.97 フレーム/秒 = 1.4835 Gbps ・・・(Rec -29)
1.485 Gbpsの信号ラインが確保されています。この信号を送るため、放送局内では、HD-SDI(High Definition - Serial Digital Interface) ケーブルが開発されました。HD-SDIケーブルは、1.485 Gbpsの帯域に対応した同軸ケーブルです。外見がBNCケーブルと酷似していて、取り扱いもほとんど同じなので、アナログ信号の時代からBNCケーブルに親しんできた関係者にとっては大変扱いやすいものになっています。
ハイビジョン放送は、この信号帯域で映像が作られて、保存・編集が行われますが、電波に乗せて送るときは、MPEG-2という圧縮手法によって、BS放送(衛星放送)では最高29Mbps、地上デジタル放送では最高23.3Mbpsで送られています。およそ、1/30以上の圧縮がなされていると言えます。
■ セグメント放送(Segment Broadcasting) (2009.02.03追記)
2011年から本格的に放送が開始される地上デジタル放送では、セグメント放送が採用されています。従来のアナログテレビ放送は、送信周波数90MHz(チャンネルでは1ch)から6MHz単位で12ch(222MHz)まで割り当てられているVHF帯域と、470MHz〜770MHz(300MHzの帯域に13chから62chのチャンネルが6MHz単位で割り当てられている)UHFの帯域がありました。アナログ放送では、東京地方の1chがNHK、4chが日本テレビ、8chがフジテレビという具合に割り当てられていました。デジタル放送では、アナログ放送で使っていなかったUHF帯域の13ch〜52chを、各放送局に割り当てました。東京地方では、NHK総合が27ch、NHK教育が26ch、日本テレビが25ch、フジテレビが21chという具合です。(ただし、従来のアナログで使っていたチャンネル番号が親しみやすいため、テレビ受信機のリモコン番号は、従来の番号、すなわち、東京地方のNHK総合テレビは「1」のままに設定されています。)
旧来の、6MHzの帯域を1チャンネル分とした枠組みを崩すことなく、この中にハイビジョン放送と音声、文字多重送信ができる工夫をデジタル技術に盛り込みました。考えて見れば、すごい技術です。旧来の送信周波数帯域の中に、ハイビジョン放送をデジタルで埋め込んでしまうのです。
デジタル放送では、映像帯域の6MHzを14等分にしたセグメント構造としました。14等分したセグメントのうち1つは、隣り合わせたチャンネルとの干渉を避けるためのガードバンドに使用するため、放送コンテンツで使われるのは13個分のセグメントになります。さらに、13個のセグメントのうち、1セグメントは携帯端末にサービスを行う情報セグメントチャンネルとしたため、実質的には12セグメントが地上デジタル放送分として使われています。
1セグメントは、429kHzに相当します。「ワンセグ」と呼ばれるおまけの1セグメントはユニークな機能です。全世界のデジタル放送規格は、大きく分けて3つありますが、ワンセグを採用している放送規格は、日本(とブラジル)が採用したISDB-T(Integrated Services Digital Broadcasting for Terrestrial )だけです。欧州のDVB-TもアメリカのATSCもこの機能はありません。 日本だけが、ワンセグの価値を認めてこの方式を採りました。
■ 計測映像分野でのハイビジョンテレビの役割 (2008.12.16記)(2009.05.06追記)
▲ 計測分野での高精細カメラと放送用ハイビジョンカメラの違い。
ハイビジョン放送が家庭に入り込むようになって、高画質の動画を楽しむことができるようになりました。ハイビジョンテレビが家庭に置かれたことにより、ハンディタイプの家庭用一体型デジタルビデオもハイビジョン対応になり、簡単に高画質動画を自分のテレビで楽しむことができるようになりました。また、IEEE1394の高速インタフェースの開発によって、パソコンにもハイビジョン画像を取り込んで編集、再生、保存ができるようになりました。我々のような画像を計測手段として使っているものにとって、放送局用のハイビジョン放送は有効でしょうか。この問題を考えるときに大事なことは、両者の成り立ちを知ることだと思います。放送映像は、連続した切れ目のない映像の提供が主命題であり、いかに魅力ある映像を作るか、つまり、視覚に訴える手法がもっとも大事であるのに対し、計測手段として使う高精細動画は、動画像を単に流して見るだけでなく、画像を止め、1コマ送ったり戻したり、ゆっくり再生をしたりします。また、必要に応じて画像に物差し(カーソル)を発生させて、興味ある点(画素)の位置情報と濃度情報を求めることをします。放送映像が流れるような視覚効果をねらうのに対し、計測映像は、計測要素(時間分解能、空間分解能、濃度分解能)を重用視します。
こうした観点から、放送局で行われている映像作りと、我々計測屋が関わっている動画像の違いを述べます。
● 画面構成の縦横比のあいまいさ
テレビ放送では、幾何学的歪みに対する厳格さがありません。これは、パソコンやデジタルカメラが普及して、テレビ放送にも影響を与えだした1990年代からとみに顕著になってきました。というのは、デジタルカメラやパソコンの表示が1画素を縦横同じ寸法の正方画素で行っているのに対し、テレビ放送では、NTSCアナログ放送時代のCCDカメラに、縦横の比率が違う画素の個体撮像素子を使っていた経緯があり、これが混在してしまったのです。NTSC規格では、走査線が525本と決められていたので、画質を向上させる必要上1走査線上の解像度を上げるために画素を詰めるようにしました。DV信号というのがあります。これは、NTSCアナログ信号をデジタル化したものですが、この規格では、画面を4:3というアスペクト比にして、画面を720x480画素構成としました。一画素が正方画素であったら、3:2の画面比になる画素配列です。これを4:3に収めているのですから、デジタルビデオカメラに使われている撮像素子の1画素の大きさは、横方向が縦に対して8/9(すなわち11.1%短い短冊状)にしなくてはなりません。
また、1990年代の終わりに、ハイビジョン放送に備えて16:9の画面比を持ったテレビ受像機が販売された際に、通常のNTSCの4:3( = 12:9)の画面を強引に横に引き伸ばして放映していた時期があります。当然、円形のものは横長の楕円に、美人俳優も33.3%も横に太った体型として映し出されました。テレビ放送では、33.3%の幾何学的誤差などあまり関心がなくて神経を使っていなかった感じを受けました。映画監督が見たら腰を抜かしそうな画面でした。
デジタルハイビジョンの時代になっても、同じようなことがあります。地上デジタルハイビジョンは、送信帯域の関係上、ハイビジョン画像は、1440x1080iしか送ることができません。地上デジタルハイビジョンは、正式には1280x720pが正しい画素構成で、この画素が16:9を正しく維持している画面比です。フルハイビジョン(1920x1080i画素)は、衛星デジタルハイビジョンか、DVD(Blu-ray)でなければ再現できないのです。しかし、フルハイビジョン対応の受像機を持っている視聴者のために、1440画素を1920画素に増やす(33.3%も横長にしてしまう)機能があるそうです。
テレビ放送は、こと幾何学的な画面構成から言うと、正方画素のデジタル画像が後から出てきた規格のために、幾何学的歪みに対して非常にルーズな感じを受けます。こうした機器を画像計測で使う場合には、縦横の倍率比を補正する必要があります。
● 圧縮による情報の損失
テレビ放送には、30フレーム/秒(29.97フレーム/秒)という絶対条件があるので、これが最も優先される規格です。そのために、限られた送信帯域の中で見た目に許される画像情報の間引きを行いました。デジタルテレビ放送では、MPEG-2が採用されました。MPEG-2圧縮は、時間方向成分の圧縮を行っています。これは、映画をDVDに収めるときに採用された圧縮方式です。この方式では1枚1枚の独立した画像を持っておらず、1枚目と、ある間隔をあけた、例えば、10枚目を独立した画像で保存し、その間だけは、変化のある部分だけを保存するという方式になっています。再生時、画像を構築するのに、高速処理をする画像処理装置が必要となります。また、映画鑑賞では、計測分野のように、動画像を止めたり、スローで送ったり逆転再生をさせたりすることはまずないので、計測応用には、よほど強力な処理手法を使わないとストレスを感じます。また、圧縮によっては、細かい部位が失われるので、希望する解析結果が得られない問題が出てきます。放送局分野でもMPEG圧縮は編集がやっかいなので、オリジナル映像はフレーム毎に録画された素材で行うようにしているようです。
● 濃度情報のリニアリティ
テレビ放送では、人間の目に合うように、階調を調整して放映しています。これは、再生側だけではなく、撮影側でも受像機の特性に合うようにラチチュードを調整しています。計測分野では、画像をデジタル化するときに、階調を、例えば8ビット(256階調)で割り振る場合、リニアになるように処理します。入射光量に対する濃度値が正比例し、かつその傾きが1(γ = 1)になる方法、つまり、10,000ルクスの被写体が濃度値で200あるとすると、1,000ルクスの被写体が20の濃度値になるような濃度曲線をとります。この方が、計測にとっては理解しやすい(計算にのりやすい)ので、この方法をとります。物体の明るさを測るときは、画像にカーソルを発生させて濃度プロファイルを取ったり、それを数値データとして表計算ソフトウェアに移したりします。応用によっては、10ビット(1024階調)以上の濃度画像をとることもあり、この時にはすべての階調をコンピュータモニタに映し出すことはできません。液晶モニタは、せいぜい100階調(から200階調)程度しか表示できないのです。
しかし、テレビ放送の場合は、最初に、テレビ受像機(ブラウン管や液晶ディスプレー)の映り具合を含めて、画像の写り具合が人間の感性に合うように調整しますので、撮影の際の取り込みは、必ずしも直線になっていません。暗い部分のディテールを若干残して、かつ明るい部分を飛ばさないように階調を調整しています。こうしたカメラを計測用に使うには、階調のよくわかった濃度タブレットを撮影して、キャリブレーションをとる必要があります。また、通常のカメラは、使用温度(撮像素子温度)によって感度が変化するので、キャリブレーションは頻繁に行う必要があります。
● 時間スケールのあいまいさ
計測屋にとって、時間ファイターほど重要なものはありません。一枚一枚の画像がどの時間タイミングで得られたものか、はたまた、一枚の画像に与えた露光時間はどのくらいか、露光方式はレーザかキセノンストロボか、電子シャッタかなど、時間に関するファクターに細心の注意を払って画像を見ます。方やテレビ放送では、与えられた番組時間内に放送を無事に終了させるという約束があるため、枚数の詰め込み作業が大きな関心事となります。時間を引き延ばして見せたり短縮させて見せることは映像表現の一手段であり、時間軸を正確に表現することは、それほど重要なことではないようです。科学番組を見ていても、進行役は現象がよく見えたか見えないかに焦点を置いて、撮影された映像の撮影速度がどのくらいで、それをどのくらいの再生速度で放送しているかという説明や表示がありません。我々の分野で、高速度カメラを使ってスローモーション再生を行うと、担当するエンジニアは、まずこの映像がどのくらいの速度で撮影されたかを聞いてきます。そして、画像の隅に時間情報のわかる表示を入れてくれと要求します。それほど、現象を究明している人にとっては時間軸は大切なのです。
■ コンピュータによるデジタル画像 (2009.02.08)(2009.05.28追記)
コンピュータは、デジタルしか扱えないので、コンピュータで扱う画像も当然デジタル画像となります。
コンピュータによるデジタル画像は、1965年、NASAが行った火星探査衛星の火星表面の画像化に始まります(「最初のデジタル画像 」の項目参照)。
火星からの画像データは、 NASAにあったIBM科学計算用コンピュータ「7094」(1962年開発、当時、日本円にして11億円の高級コンピュータ)にかけられて、画像処理をした後、火星表面のマッピングに成功しました。
1981年から登場したパソコン(IBM-PC、及びApple Macintosh)の発展により、デジタル画像を扱う応用が急速に増えて、DTP(デスクトップパブリッシング)という分野が確立しま す。パーソナルコンピュータを使ったデジタル画像は、当初、フィルム画像をフィルムスキャナーでデジタイジングすることから始まりました。当時(1980年代後半)は、デジタルカメラはありませんでした。ビデオカメラからのNTSCビデオ信号は、ビデオキャプチャーボードを介してデジタル画像に変換されました(右図参照)。1980年代のパソコンは、高画質の画像を扱うには、CPUの性能や画像表示能力、画像を保存するメモリ性能などが不十分でした。そのため、パソコンを補助する機能がまず発達します。それが、画像ボード(右図 - 4)と呼ばれるものでした。パソコンのCPUにできるだけ負担をかけずに、画像入力側でやれるべきことはすべてやってしまおうという考えだったのです。
■ バス規格
画像ボードでデジタル画像に変換されたデータは、コンピュータのデータバスによって、処理装置(プロセッサ)やDRAMに送られます。1984年当時、IBM-PCパソコンに標準で装備されたボード規格は、ISA規格(Industry Standard Architecture)というもので、16ビットで8MHzのクロック(16MB/s)を持っていました。ISAは、時代とともに若干の性能向上が行われました。しかし、CPUの性能向上の方がおどろくほど早く、ISAバスの性能があまりにも見劣りするようになったので、1991年に、25倍の性能を持つPCI規格(Peripheral Component Interconnect)を作り上げました。この規格は、比較的長寿で、18年経った2009年にあっても第一線で活躍しています。画像を取り込む画像ボード(キャプチャーボード)は、この規格に準じたものが多く作られました。
ただ、IEEE1394やUSB2.0、ギガイーサネットなど、簡単な接続で高速通信ができる規格が整備された2000年以降は、PCIバスを使った拡張ボードに代えてこうした規格によるデバイスが作られはじめ、カメラ側でもこうしたインタフェースを介してコンピュータに取り込まれることが多くなりました。従って、PCIバスに差し込んで使う拡張ボードは、需要が急激に落ちました。
■ 高速通信規格
パソコンの性能が向上して、通信方式が高速化し、デジタルカメラの性能が格段に進歩するようになってくると、画像を直接コンピュータに取り込むことが可能になりました。デジタルカメラの出現は、1990年代に入ってからです。1000x1000画素のいわゆるメガピクセルカメラの登場をもって真のデジタル画像の時代に入ったと言えるでしょう。こうした時期に、データを高速で取り込める、イーサネット やIEEE1394 、USB2.0 が登場しました。これらのデータ通信規格は、データ転送速度もさることながら、使い勝手も良かったので計測カメラ用のデータ通信ポートとして広く使われるようになりました。
■ 画像取り込みの基本
右図に、コンピュータを使った画像取り込みシステムの構成を示します。図中の右側の箱(5.画像プロセッサ部)が、コンピュータの中身です。コンピュータは、中央演算処理装置(CPU)を中心として、デジタル処理される周辺機器が接続されています。中央演算処理部からは、データの出入りする中央幹線道路(システムバス)が走っていて、このバスにハードディスク(HDD)や、メモリ(DRAM)、画像表示ボード、画像取り込みボード(画像キャプチャーボード)、マウス、キーボードなどが接続されています。コンピュータに取り込まれるデータが膨大で、コンピュータの処理能力を上回る時は、外部でいったんデータを蓄えて、コンピュータの能力に併せて送り出すバッファ装置を設けたり、画像キャプチャボードを作ってコンピュータに接続しています。コンピュータを使った画像の取り込み性能は、
カメラ自体の取り込み速度 < (1/2) x 画像ボードの取り込み性能
< (1/10) x システムバスの転送速度 < (1/2) x CPUの性能 ・・・(Rec -30 )
というおよその関係になっています。カメラがいくら高性能で取り込み速度が速くても、画像キャプチャーボード側がカメラの読み込み速度の2倍以上の取り込み速度を持っていなければ、カメラの性能を十分に発揮することはできません。また、それ以上に、パソコンのシステムバスの速度、CPUそのものの性能が十分であることが求められます。
例えば、1280x1024画素、8ビット白黒のカメラがあり、1秒間に30枚の割合で撮影でき、ファイル加工せずにそのままデータを転送したとすると、1秒間に送るデータ量は、
1280画素 x 1024画素 x 8bit/画面 x 30画面/秒 = 314.57 Mbit/s ・・・(Rec -32)
となります。この速度は、ISAバス(128Mbit/s)ではとても対応できない速度であり、PCIバス(4Gbit/s)では1/10の速度ですから十分に対応できます。したがって、このカメラは、PCIバスの画像ボードが必要となり、これを経由して、パソコンのDRAMに読み込むことが可能となります。取り込んだ画像を、パソコンで希望するファイルフォーマット、例えばBMPとかJPEGに変換する場合に、画像データを取り込んだ端から処理を行うと、CPUとDRAMには、画像の取り込みとファイル変換保存という二つの仕事が課せられ、双方に仕事の割り当てを振らなければなりません。したがって、その処理を受け持つCPUには、32ビットで400MHz以上の性能を持ったものが望まれます。一般的に、イーサネットにしてもUSBにしても、カタログ値にあるデータ転送速度を常時確保することはとても難しく、せいぜい1/10程度の性能と言われています。各デバイスは、こうした理由から、そうした冗長性を踏まえてシステム構築を行う必要があります。
ノートパソコンは、デスクトップパソコンに比べて、CPUも比較的非力で、システムバスも高速に作れられていないので、高速転送を主目的とするならば、デスクトップパソコンを使用した方が無難です。なぜノートパソコンがデスクトップに比べて性能が劣るのかと言えば、ノートパソコンは携帯性が重要視されるため、消費電力の大きな高性能CPUを搭載することが難しく、また、CPUやシステムバスが載るマザーボードはコンパクトに作らなければならず、性能が劣ちてしまうのです。
■ コンピュータの仕組み
画像をコンピュータに取り込むとき、コンピュータの仕組みを知っておくと、デジタル画像の本質をより深く理解して利用することができます。
そこで、コンピュータがどのようにデータ処理をしているか、ハードウェアの観点から見てみることにします。
下図に、2008年当時のパソコンの内部回路を示します。
▲ CPUの性能
コンピュータの中枢部中の中枢です。人で言うと、脳に相当します。CPUは、クロック(内部発振信号)に合わせて演算を行います。従って、CPUの性能は、クロック周波数と扱うデータビット数でおおよそ決まります。
パソコン(1974年、Altair8800)ができた当初のCPUは、Intel8080で、8ビット、2MHzの性能を持っていました。これは、256個のデータを1秒間に2百万回のスピードで処理する能力を持っていたことになります。現在のCPUは、64ビットのデータビット数で3.2GHzの性能を持っています。実に1垓倍(1兆の1億倍)のデータ量を扱える性能になりました。1秒間に2百万回も演算をするというのは相当なスピードだと思えるのですが、画像(画面表示)を扱うと、その数値もうすのろになってしまいます。画像表示を単純計算すると、VGA(640x480画素、24ビットフルカラー)での60フレーム/秒表示は、8ビット、55.3MHzのCPUが必要となります。初期の8ビットマイコン、Intel8080を使うと、27秒かけてやっと一枚のVGAビット画像が表示できる性能しかありませんでした。
ちなみに、当時はCPUで直接画像描画することは不可能だったので、キーボードから打ち込んだキャラクターをキャラクタージェネレータに渡して、そこでVGA画面を作って画像表示を行うようになっていました。日本語のパソコンでは、パソコンに漢字ROMと呼ばれるチップが内蔵されていて、キーボードから打ち込んだコードをここで漢字変換させてキャラクタージェネレータに送っていました。当時は、文字表示しかできない性能だったのです。
▲ システムバス(FSB = Front Side Bus、及び、NB - SB Data Bus)
システムバスは、CPUにデータを送ったり、CPUの処理結果を関連デバイス(モニタ、HDD、DRAMなど)に送り出すデータ線です。人間で言うと、脊椎を通って走る中枢神経に相当します。このデータバスの広さ(ビット数)と速さ(クロック)がコンピュータの処理能力に大きな影響を与えます。
システムバスの能力が低いと、データ送受信で交通渋滞がおきます。システムバスでは、DRAMへデータを転送とモニタ表示のための信号送信の二つが一番大きな負荷となっています。システムバスは、CPUのデータビット数と対をなして、関連デバイスとつながっています。従って、64ビットCPUであるならば、64本のデータバス線で構成され、CPUにデータを供給し、また、処理されたデータをCPUから関連デバイスへ送ります。その速度は、クロックで533MHz〜1,333MHzです。このスピードは、CPUの性能とチップセット(ノースブリッジとサウスブリッジ)の性能の兼ね合いで決められています。システムバスのクロックが速い方が、高性能であるということが言えます。
▲ BIOS(Basic Input Output System)
BIOS(ばいおす)は、コンピュータの根本情報を持っている部分で、人間でいうと脳幹にあたります。データの出し入れの情報をこの部分で担当しています。BIOSは、パソコンのOSが開発された1975年から存在している重要なデバイスで、CPUと周辺機器の橋渡しをする役割を持っていました。これがないと、フロッピーに書き込んだファイルを読み出すことも、書き込むこともできません。1981年にIBMがパソコンを開発した時に、IBMは、すべての規格をオープンにして、FDD(フロッピー・デスク・ドライブ)やDRAM(ランダムメモリ)、HDD(ハードデスクドライブ)、モニタなどをいろいろなメーカに作らせて競争させました。しかし、ただ一点、コンピュータ部品に法的なプロテクトをかけて、他のメーカに作らせないようにした部分があります。それがBIOSだったのです。BIOSは、不揮発性メモリで構成されたプログラムです。IBMは、このBIOSのコードをすべてオープンにして、逆に違法コピーさせないようにしました。このBIOSが作れないかぎり、コンピュータはたんなるガラクタ箱です。IBMは、ここを徹底的に保護することによって、自分たちのパソコンを保護しようとしました。しかし、この戦略はものの見事にはずれて、IBMの開発したBIOSと完全互換を持ちながら、まったく違ったコーディングで書かれたBIOSが作られました。それを作ったのはコンパック(Compaq)とフェニックステクノロジーでした。このBIOSを手に入れれば、IBM-PCと互換のあるコンピュータが作れるようになったのです。こうして、コンパックを初めとしたクローンPCが台頭し、それに伴い、競争原理は世界レベルとなり、パソコンの急速な発展が始まりました。
▲ ノースブリッジ(Chip set North Bridge)
ノースブリッジは、コンピュータ(CPU)からの指令を受けて、最適なデバイスにデータを転送する司令室の働きをします。パソコンには、システムバスにノースブリッジとサウスブリッジの二つが接続されていて、CPUとのデータ転送における制御管理を行います。ノースブリッジでは、高速データ転送デバイスの制御を行い、サウスブリッジでは、低速データ転送を行うデバイスの担当を行っています。これは、CPUにつながるデータバスを高速道路と一般道路に見立てて、通信速度に応じてデータバスを使い分けるという考え方に立っていて、データ転送が遅くても良いもの(マウスの動きやCDからのデータ読み書き)と、常時、高速でデータ転送を必要とする画像表示やDRAM間での交通渋滞を解消する目的を持っています。ノースブリッジでは、従って、DRAMのデータ転送や、グラフィック処理をするデバイスとつながっています。DRAMやグラフィック表示が、処理を最もたくさん行っているデバイスとなります。
興味あるのは、PCI Expressボードです。このボードは、ノースブリッジに接続されています。非常に高速でデータ通信を行うために、ここに配置されています。
▲ サウスブリッジ(Chip set South Bridge)
サウスブリッジは、比較的データ転送の遅い非定期的なデバイス通信管理を行う司令塔です。ここに、HDDや、CD/DVD、USB、イーサネット、PCIといったインタフェースがつながります。例えば、イーサネットからデータを受信してハードディスクに保存する場合には、サウスブリッジだけの管轄でデータ処理を行うため、CPUが占有される割合を低くすることができます。このように、ノースブリッジやサウスブリッジは、CPUの代理を兼ねることもしています。
▲ DRAM(Dynamic Ramdom Access Memory)
DRAMは、コンピュータに実装されている作業用メモリであり、OSが立ち上がる際にこのメモリにOSが移植されて常駐します。WordやPhotoshopなどのアプリケーションソフトを立ち上げると、HDDに保管されているソフトウェアがこのメモリ部にコピーされます。また、コンピュータで処理されるデータも、全て、一旦ここに保管され、メニューの「保存する」というボタンでハードディスクやメモリスティックに保存されます。なぜ、OSやアプリケーションソフトがDRAMに移されるのかというと、DRAMは、アクセスがとても速いからです。DRAMは、コンピュータが働いているときの作業場としての機能があるので、広ければ広いほど(メモリ容量が大きいほど)、そしてアクセスが速いほど快適で高性能と言えます。現在(2009年)のDRAMは、1GB〜4GBまでをコンピュータに実装することが多いようです。このメモリは、コンピュータを購入した後からでも追加で取りつけることができます。1990年当時のDRAMはとても高価で、2MBで20,000円程度していました。DRAMは、その特性上、素子に絶えず電気を流してメモり内容をリフレッシュし続けていないとメモリが消えてしまうので、コンピュータの電源を切ると、この作業場の記憶は消えてしまいます。
現在(2009年)のDRAMの書き込み・読み出し速度は、0.2GB/s〜3.2GB/sです。1,000 x 1,000画素の8ビット白黒もしくはRAWデータ映像なら3,000コマ/秒で取り込める性能値です。(「半導体メモリ 」参照。)
▲ AGP(Accelerated Graphic Port)
AGPは、コンピュータディスプレーの表示のための通信ポートです。コンピュータの働きの中で、もっとも負荷のかかる仕事が画面表示です。
単純計算で、1秒間に60フレームの割合で、1280x1024のフルカラーを表示させるとすると、
1280 画素 x 1024 画素 x 3 バイト/フレーム x 60 フレーム/秒 = 235.9 MB/s ・・・(Rec -33)
のデータ転送能力が必要です。実際は、常時、これだけの情報をCPUからディスプレーに送ってはおらず、変化した情報だけを送ったり、画像表示ボード部にメモリと画像プロセッを搭載して、ローカルに画像表示を担当させ、CPU部の仕事を軽減させて表示能力を高めています。
AGPでは、ディスプレーの高解像度表示を満足させるために、266MB/s〜2.13GB/sの転送能力を確保しています。
▲ PCI Express(Peripheral Component Interconnect Express)規格
PCI Expressは、2002年に策定された新しい拡張インタフェースボードの規格です。このインタフェースは、最も高速で通信をすることができるため、ノースブリッジを介してCPUにつながれています。その通信速度は、8GB/sであり、従来のPCIより16倍も高速になっています。この性能は、画像表示用のポートであるAGPよりも、3.7倍から30倍ほど速いので、PCIExpressを使った画像表示ボードも作られています。
▲ PCI(Peripheral Component Interconnect)規格
PCIは、パソコンでもっとも普及した拡張インタフェースボード規格です。1991年に規格化されました。いろいろな付属装置がこのインタフェースボードを介して接続されています。NTSCアナログ信号による画像ボードや、アナログデータ収録装置、イーサネットボード、SCSIボードもこの規格を使っています。
パソコンができた当初(1981年)は、ISAバスという規格が一般的でした。ISAバスは、16ビットで10MHzの通信速度(20MB/s)しか持たなかったので、500MB/sの速度を持つPCIは、ISAに比べて25倍も速い性能を持っていました。
PCIボードは、2009年時点でもまだ第一線で活躍しています。ただ、高速画像ボードのように、この性能に不満のある拡張ボードもあり、そうした応用には、PCIの16倍の性能を持つPCI Expressに置き換わりつつあります。
▲ USB、イーサネット、SCSI、IEEE1394、他
外部装置とデータ通信を行うための規格です。パソコン内部では、比較的低速の速度領域に位置しています。これら個々の規格については、データインタフェース で詳しく触れています。
■ 画像の転送 (2004.10.24)(2009.03.30 追記)
パソコンで動画が見られる、それも高画質で!
14年前(1995年)には考えられないことでした。1995年当時は、静止画像をインターネットで送ること自体でさえも至難の業だったのです。
それが2000年くらいから、普通のパソコンを使って高解像度のデジタル画像をストレスなく扱えるようになりました。一般のパソコンで膨大な画像データを扱えるようになったのは、CPUが高速になったこと、大容量の記憶装置が安価になってきたこと、画像を転送する手段が高速になって来たこと、画像フォーマットが巧妙になったことなどが挙げられます。
1990年までは、データのデジタル転送と言えば RS232C が一般的でした。当時、RS232Cは、電話回線を使ったデータ通信時代の主役でした。このデジタル通信は、1秒間に9,600ビットのデータが送信できました。それが2000年には、ギガベースのイーサネットが確立し、IEEE1394という高速通信の規格も決まり、さらにUSB2.0という使いやすい規格も出来上がりました。こうした恩恵に預かって、さらに画像データファイルの圧縮(JPEGやMPEG)という技術が向上して、100万画素を超える画像をストレスなく記憶装置に貯えることができるようになりました。
この項では、画像データの通信手段について述べて見ようと思います。
最初(1998年)にこの項を書きはじめて、今年2009年で11年の歳月が立ちました。テクノロジーは恐ろしく進歩するものです。
家庭用AV機器に使われているアナログ信号端子。米国RCAが開発したのでRCA端子と呼んでいる。
【NTSCビデオ信号の送信について】 (2006.09.02追記)
1940年代後半から、現在までテレビ放送に長く君臨してきたNTSC規格 は、一秒間に30枚の映像を4.2MHzの帯域で情報処理して送信することができました。この信号は、何度も述べますがアナログ信号でした。1990年までの技術では、同じ内容の映像信号をディジタルで送ることはできませんでした。その理由は、アナログ信号では、送信帯域の4.2MHzが解像力に相当し、信号の振幅成分がダイナミックレンジに対応するのに対し、ディジタル信号ではダイナミックレンジ8ビット分も周波数成分に直さなければならず、帯域が不足してしまうからです。
一枚の画像を、最も古い通信規格であるRS232C 通信で転送することを考えてみましょう。この時、送信する画像は、512画素x512画素、 8 ビット(白黒)で量子化(ディジタル化)したものと仮定します。RS232Cは、1秒間に最大9,600ビット(= 9,600baud、9,600 bps)のデータを転送できます。これを単純に計算すると、
512画素 x 512画素 x 8ビット/画面 x 1/9600 ビット/秒 = 3分40秒 ・・・(Rec -34)
となり、最高の転送速度でも、1枚の画像を送るのに3分40秒かかることになります。NTSC信号(アナログ画像)では、この時間に6,600枚の映像が送れました。実際のところ、RS232C信号では信号の転送を確実にするために、データの切れ目にストップビット、パリティチェック、Xパラメータなどが入り、これにより3 〜 5倍の転送時間がかかります。このことから、 RS232C (FAX、コンピュータモデム通信も似たようなもの)を使って映像を送ることがいかに気の遠くなるようなことなのかが理解できると思います。
アナログ信号による撮影と記録は、デジタル通信速度が遅い時代には、確固たる強い地位を築いていたのです。
以下、データ転送技術の変遷を説明したいと思いますが、その前に高速大容量データ転送を支えたケーブルとその接続方法(コネクタ)について紹介します。
■ コネクタとケーブル (2009.06.11追記)
【映像信号を送るコネクタと通信方法について】
映像信号は送る情報が多いので、アナログ、デジタル時代を問わず送信技術や接続するコネクタ開発に多くの労力が払われてきました。以下、大容量、高速通信に使われたコネクタとケーブル、通信規格について紹介します。
電気信号、特に、映像情報などを含めた周波数の高い情報信号を送る方法については、これまでにいろいろな方式が考案されてきました。コネクタは、信号ラインを接続する所で、しっかりと接続されていないと信号がとぎれたり、減衰したり、ノイズが入ったりします。コネクタは、また、着脱が容易でなければなりません。容易、かつ、信頼性の高いコネクタが理想のコネクタとなります。
高速大容量データ通信では、従来、同軸ケーブル と呼ばれるものが使われてきました。これは、アナログ/デジタル両方に使われ、歴史的には海底ケーブル通信、テレビ放送、ビデオ放送に使われました。また、デジタル通信の時代に入ると、ツイストペアと呼ばれる1対の信号線による不平衡信号が使われるようになりました。そうした信号形態に合わせてコネクタが開発されました。
■ RCAコネクタ/ケーブル
米国の音響・映像メーカRCA(Radio Corporation of America)社が、1940年代に開発した音声信号の接続端末コネクタを、RCAコネクタ(右写真。使用周波数: 10M Hz)と呼んでいます。このコネクタは、蓄音機(レコードプレーヤ)の音声信号をアンプに接続するために開発されました。安価であることと、使い勝手が良いこと、性能が良いことから一般的になり、オーディオ機器にはすべてこのタイプの端子が使われていました。ビデオの時代になっても家庭用の信号ケーブルにはRCAコネクタケーブルが使われました。映像信号でも、家庭用のビデオ帯域であるならば十分な性能を確保できたものと考えます。しかし、放送局や周波数の高い信号を扱う分野では、性能が満足できなかったので、以下に示すBNCコネクタが一般的になりました。
RCAコネクタは、比較的太い正極棒が中心にあり、その周りを「割り」の入ったグランドターミナルで囲まれています。「割り」が入っているのは、バネ効果を利用してプラグ装着時の接触性を良くするためです。コネクタのピン接続は、電気信号を通信する上でトラブルの多い部分です。ピンの接続は、微視的に見ると面で接触しておらず点で接触しています。そのためにバネ作用を利用して力を与えてコンタクト面をできるだけ多くしています。また、コンタクト面に金メッキを施して接触性を高める工夫もしています。
現在のRCAケーブルは、家庭用のアナログAV機器によく使われていて、右に示したような色分けしたケーブルで、映像信号(黄色)、音声信号右側(赤色)、音声信号左側(白色)という取り決めになっています。アナログ信号は、デジタル機器が主流になってきている現在にあっては使われなくなる傾向にあります。
■ BNCコネクタ/ケーブル、映像出力インピーダンス(75Ω)
ビデオ信号を取り出してVTRやモニタに接続するときに、使用する接続ケーブルのことを、我々は何気なく「75Ω同軸ケーブル」と呼んでいます。また、ビデオ信号のコネクタは、BNCと呼ばれるワンタッチで接続できるコネクタと、RCAと呼ばれるピンジャック方式のコネクタを使用しています。BNCは、RCAに比べると高価なコネクタで、放送局用や計測機器などの高級な装置に使われます。ピンジャック(RCA)コネクタは、家庭用のオーディオ、ビデオ機器などの低い周波数(10MHz程度)のケーブル接続に使われています。
映像信号は、非常に高密度な(周波数が高い)信号ですから、ノイズに対して敏感に反応します。また、接合部(コネクタ部)で信号速度が変化し、高周波信号であるほどその問題は顕著になります。BNCコネクタは、映像信号を扱う帯域では、こうした問題をクリアする満足できるものでした。高周波信号を扱うコネクタとしては、今述べているBNCコネクタや、M型コネクタ、N型コネクタ、F型コネクタが使われてきました。こうしたコネクタは、通信分野で培われ発展してきました。
BNCとは、Bayonet Neill Concelman connectorの短縮名称です。時に、British Naval Connectorとか、Bayonet Nut Connectorとも呼ばれていますが、いずれも誤りです。BNCコネクタが使われる前には、N型コネクタ(下写真参照)と呼ばれる高周波信号用のケーブル結線コネクタがありました。これは、BNCより一回り大きなねじ込み式の耐水型高周波対応(12GHz)のものでした。N型コネクタは、ベル電話機研究所のPaul Neillが1940年に開発しました。また、Cコネクタ(使用周波数: 12GHz)と呼ばれるものが、Amphenol社(コネクタで有名な米国の会社)のエンジニアCarl Concelmanによって設計され、放送局用のビデオ信号コネクタとして使用されていました。この二人(NeilとConcelman)の設計したコネクタの良い所をとって、より簡単に確実なコネクタを作ろうということで、1940年代に作られたのがBNCコネクタだったのです。BNCは、人の名前を取ってつけられた名前です。BNCコネクタの使用周波数帯域は、2GHzとなっていて、N型コネクタの12GHZよりも一桁も低い性能ですが、取り扱い勝手がよいので、周波数帯域の低いビデオ信号用に重宝されました。BNCコネクタは、イーサネットケーブルの初期のタイプの10Base-2 にも採用されました。また、デジタル放送の通信ケーブルであるHD-SDIにもBNCコネクタが使われています。
同軸ケーブル は、ケーブルの芯が銅線でできていて、その回りをポリエチレンなどの絶縁物で覆い、さらにその回りを網状のシールド線で覆っています。電気を流す時、ケーブルが長いと抵抗が増えて遠くまで流しずらいという性質があります。不思議なことに、交流を流す場合には、ケーブルの持つ直流抵抗(オーム)と、インダクタンス(誘導)、それにキャパシタンス(容量)を特定の値にしておくと、ケーブルの長さに関係なく、高周波数に対し一定のインピーダンス(交流の抵抗値)を示すようになります。つまり、(交流)インピーダンスの取れたケーブルを使うと、ケーブルの長さに関わらず電気信号(高周波信号)を損失なく伝えることができ、5mでも40mの長さでも良好な電気信号を得ることができます。
一般の同軸ケーブルは、現在、50Ωと75Ωの2系統あります。75Ωはビデオケーブルによく利用され、50Ωは、通信ケーブルや、コンピュータの初期のイーサネットケーブルに使用されました。
BNCコネクタ。
「N」型コネクタと「C」型コネクタを組み合わせバヨネットタイプとした。両者よりも小型化した。
「N」型コネクタ。
BNCの原型。ねじ込み式。
「C」型コネクタ。
BNCの原型。メスのアースに取り付けられた2つの突起(stud)にひっかけて着脱する方式はBNCと同じ。
■ 耐環境コネクタ
高性能電子機器を、屋外で使用したり、厳しい環境で使用する時に使われるコネクタが、以下に示すような耐環境コネクタです。こうしたコネクタの製造規格は、アメリカの軍規格(MIL-spec)が古くからしっかりしたものを公開しているので、宇宙開発分野や産業用分野(自動車搭載の計測機器)でもこの規格に準拠したコネクタを使うことがあります。ミルスペック(MIL-spec)のコネクタは、しっかりとコネクタとレセプタクルを接続する構造になっており、振動や衝撃に対しても簡単に緩んだり損傷しないことが求められています。また、温度条件に対しても規格が決められています。最近では、コンピュータなどを使った通信データにもこのコネクタを使うので、高い周波数を伴う信号に対して特性が良くてEMI対策が施されています。接続ピンとソケットは、良好な接触面を得るために、金メッキが施されています。
提供: Amphenol社
航空機や船などの環境性が重視される分野では、上図に示したコネクタが使用される。
このコネクタは、Tri-Startと呼ばれるもので、MIL-DTL-38999規格を満足したものである。
このコネクタは、1回転で10mm強のねじ込みが可能となっている。
シェルは、ステンレス構造で、電磁ノイズに対する配慮がなされ、海水に対する防蝕にも
配慮がなされている。
■ HD-SDI(High Definition - Serial Digital Interface)ケーブル (2008.06.19記)(2009.04.01追記)
BNC同軸ケーブルを使った映像伝送はとても扱いがよいので、放送局では映像・音声転送の標準ケーブルとして使われてきました。BNCコネクタは、着脱が容易であるのに加えて確実な結合ができ、しかも周波数特性が良かったので、この分野で大いに普及しました。この同軸ケーブルとコネクタが一般的になってしまったため、ハイビジョンデジタル放送を始めるにあたっても、この長所を生かしたケーブルとコネクタが残されて、デジタル信号が規格化されました。HD-SDIは、1994年に規格化されたデジタル信号で、テレビ放送業界にあっては新しい規格です。
HD-SDIの詳細は、HD-SDI 規格に譲ります。説明の流れから行くと、ハイビジョンデジタル信号は、ここで説明している規格よりももっと後に取り決められたものなので、この項ではBNCコネクタがデジタルの時代になっても引き継がれて使われたことを述べるにとどめます。
古い規格のアナログ映像信号(NTSC)用ケーブルが、ハイビジョンケーブルに使えるかというと、もちろんそれは違います。コネクタは同じ形状のものを使っていますが(細かく言うと、結合の信頼性などで改善されている)、同軸ケーブルの径や材質が異なります。また、BNCプラグにおいてもグレードの違いにより使用帯域が異なります。ハイビジョンが扱っている1.485Gbpsの信号情報は、とても高い映像周波数なので、旧来のアナログ信号用の同軸ケーブル(3C-2Vケーブル = 75Ω同軸ケーブルの一般的な規格)では信号の減衰が大きく、長距離に渡る(100m程度)伝送が難しくなります。
■ 不平衡ケーブル(unbalanced cable)と平衡ケーブル(balanced cable) (2009.02.23)(2009.04.14追記)
信号を送るケーブルを扱っていると、不平衡ケーブルとか平衡ケーブルという名前をよく聞きます。映像信号などには、同軸ケーブルを使った不平衡ケーブルが多く、イーサネットケーブルなどには、1対(2本)の撚り線による平衡ケーブルが使われています。こうしたケーブルは、どのような特徴があるのでしょうか。
単に電気を導体に流すだけであれば、電気抵抗の少ない素材のものを使えば問題ありません。しかし、微弱な信号を扱う場合や、周波数の高い電気信号を長い距離に渡って伝送するときには、信号の減衰が激しくなったり、外部からのノイズ混入によって正しい信号が送れなくなる不具合がでます。こうした不具合を解決するために作られたものが、平衡ケーブルや、不平衡ケーブルです。
平衡ケーブルとは、以下の図に示すように二本の信号線にそれぞれ位相の反転した信号を送るケーブルです。双方に対称的な信号が乗っているので平衡(balance)信号と言います。デジタル信号の時代になると、平衡信号は、差動信号(Differential Signaling) と呼ばれるようになります。
不平衡ケーブルは、一方の信号線にのみ信号を乗せ、もう一方はグランドラインとするものです。同軸ケーブル は、信号を送る中心の導体の回りをシールド性の高い導体で覆った構造のもので、長距離での高周波通信(〜20GHz)目的に開発されました。
両者は、歴史的に見ると、同軸ケーブルが高い周波数の微弱な信号を長い距離に渡って送信する目的用途に(内部と外部の電磁ノイズ対策用に)使われているのに対し、音声信号などの電話回線の長距離伝送には(周波数が比較的低くて信号電圧が高い用途には)平衡ケーブルが使われました。
現在では、双方ともGHz帯域で利用されていますが、長距離転送には同軸ケーブルを使うことが多いようです。同軸ケーブルは高価なので、短い距離での周波数の高いデータ転送には平衡ケーブルが使われます。イーサネットケーブルにおいても、初期の同軸ケーブルの時代からツイストペアの平衡ケーブルになったのは、同軸ケーブルを使ったのでは設備費が高くついたからだと言われています。イーサネットは、ハブやルータが安価に供給できるようになったので、短いケーブルを使っても中継できるようになり、安価なツイストペアによる平衡ケーブルが主流となりました。
▲ 同軸ケーブル
一般的な同軸ケーブルは、右写真に示すような極細の導線を網状に編んだ編組線( = へんそせん)を外部導体として、中心に銅線(内部導体)を配置し、その間を誘導体(ポリエチレンが一般的)が取り巻く形となっています。これは、BNCケーブルによく見られるタイプです。ケーブルが同心(同軸)状に作られているので、同軸ケーブルと呼ばれています。外部導体に高価な編組線が使われているのは、ケーブルの可撓性(かとうせい = 曲がりやすい性質)を良くして、取り回しが楽なように配慮されているためです。反面、編状のシールド線は周波数伝達があまりよくありません。本来ならば、銅管などのようなパイプを外部導体としたいところです。
同軸ケーブルの特徴は、高周波信号を長い距離に渡って送受信する目的に開発されたため、周波数伝達が良くて電磁ノイズを外部に漏らさず、また、外部から進入する電磁ノイズにも強いことです。外部導体がBNCコネクタの外側メタルと接触しているため、中心の内部導体が信号ラインで、回りの外部導体がグランドラインになっていることがわかります。信号は片側だけに乗るので、信号的にバランスの取れていない不平衡ケーブルとなります。
写真提供: Miikka Raninen氏
Hardlineと呼ばれる同軸ケーブル。
外部導体の口径は、φ46.5mm。
内部導体口径は、φ17.27mm。
曲げは、最小1m。重さは1m当たり1.6kg。
放送局用、マイクロウェーブ回線のkWクラスの高出力用途に使われている。
【同軸ケーブルの歴史】
同軸ケーブルを使った電気信号伝送方式の考え方は、電信・電話事業やテレビ伝送とともに発展してきました。電信事業が、鉄道敷設の発展とともに1830年代から始まったとき、芯線(信号線)は裸線で、これを碍子で電信柱に固定していました。絶縁は、空気でした。グランドは、地中を使っていました。1850年代、海底ケーブルを敷設するにあたって、芯線を海水から絶縁する必要があり、絶縁技術が進みました。当時使われていたゴムは、長期間海水にさらされると絶縁が破壊してしまうため、これを海底ケーブルに使うことはできませんでした。1840年当時、イギリス人の軍医モンゴメリー(W. Montgomerie)がマレー半島に赴任しているときに、ガタパーチャ(Gutta-percha)という樹脂を発見し、これを、ファラデーが電気絶縁材料として有効であることを認めました。ガタパーチャは、熱可塑性を持ったゴムの一種で、常温で凝固するという加工性に優れた特性をもっていたので、外科用器具として注目されました。その樹脂が、海水に対して経年変化が極めて少ないこともわかり、海底ケーブルとして使われるようになりました。(この樹液は、ドイツのジーメンスも注目していて、ケーブルの被覆用としていち早く事業化にこぎ着け、イギリスが進める海底ケーブルの敷設にも協力し、巨大企業に成長しました。)
ガタパーチャは、第二次世界大戦後、石油化学の進歩によって開発されたポリエチレン(イギリスICI社開発)に置き換わるまで、100年以上もの間、海底ケーブルの絶縁材として重用されました。当時、イギリスでは、ガタパーチャの輸入を一手に引き受ける利権を得ていて、独自の製法によって絶縁電線の製造を請け負った独占企業のガタパーチャ社(The Gutta Percha Co.)があったそうです。海底ケーブル通信事業は、イギリスが非常に進んでいました。
信号を送るこうした伝送方式も、モールス信号ぐらいの周波数では、裸線を木製の柱に取り付けて使っていても問題はそれほど顕在化しません。しかし、通信周波数が上がってくると、反射波の影響や長距離伝送における減衰が激しくなります。周波数の高い信号帯域において良好な伝達ができるケーブルが望まれ、同軸ケーブルの登場となりました。
【同軸ケーブルの原理】
同軸ケーブルの本質的な構造は、中心を走る内部導体とその回りを覆う外部導体からなり、その間を絶縁の高い空気で満たすというものです。同軸ケーブルの初期のものは、外部導体にバネのような螺旋線を使って、その中に内部導体を通して麻糸や絹糸で懸架していました。右上写真に示した同軸ケーブルは、同軸管(導波管とは違います)とも言うべき様相を呈しています。この構造を見る限り、同軸ケーブルというのは、内部導体と外部導体の関係(相互の口径と絶縁体)が厳しく取り沙汰されているのがわかります。絶縁体として、空気が最良であることもこの写真からわかります(実際のケーブルは、材質の酸化を防ぐために乾燥窒素でパージされています。)また、内部導体が中空になっていることから、高周波は、導体の表面を伝わることが理解できます。中空にするのは、軽量化を図ることにも一役かっています。このケーブルの内部導体も、外部導体も、蛇腹構造になっているのは興味あるところです。この構造は、可撓性(曲げ)と強度を持たせるためだと解釈します。両者の導体を支えるために、ナイロンでできたスペーサが螺旋状に組み込まれています。
同軸ケーブルの構造を見ていると、単に電流を流すという目的で作られているのではなくて、電磁波成分を伴った信号伝播を十分に考慮していることがはっきりと見て取れます。こうした構造を採らないと、電磁波を伴った信号成分(高周波信号)はうまく進まないのだと言うことも教えてくれています。同軸ケーブルは、電磁波を送る伝送路であることを、これらの構造から十分に認識しておくべきでしょう。
一般の電気信号では、電磁波をあまり意識することはありません。しかし、信号が1MHzから数GHzになると、信号がうまく伝送できなかったり、ノイズが混入して正しい信号が伝達できなくなります。シールドを施していないと、導体がアンテナのようになって、内部の信号が外に飛び出したり、外部の電磁ノイズを拾ってしまうのです。同軸ケーブルは、周波数の高い信号を送る目的で作られました。周波数の高い電気信号の伝送では、上図のようなモデルを考慮する必要があります。信号の回りに発生する電場と磁場をうまく処理しないと、空中に飛び出して他の機器に影響を与えます。同軸ケーブルには、こうした信号に対するシールド効果があり、外部にノイズを出さない働きを持ちます。同様に、周波数の高い信号に対しても一定の抵抗(インピーダンス)で進む環境を作り、スムーズに高周波データを伝送することができるようになっています。
【インピーダンス】
高い周波数の信号をケーブルで送る場合、ケーブルには以下の抵抗成分を持ちます。
XL = 2πf x L
XC = 1/(2πf x C) ・・・(Rec-35)
XL : 誘導性リアクタンス(Ω)
XC : 容量性リアクタンス(Ω)
f: 信号周波数(Hz)
π: 円周率( = 3.14159)
L: ケーブル誘導成分(インダクタンス)
C: ケーブル容量成分(キャパシタンス)
右図に示した同軸ケーブルのモデルの「C成分」は、内部導体と外部導体の間に入っているポリエチレンの誘電体の容量成分です。これは、直流成分の場合、f= 0 なので Xc = ∞となり、問題となりません。また、内部導体の「L成分」も直流ではf = 0 となるので、抵抗成分(XL)も0となります。しかし、周波数成分を持つ信号が流れますと、双方はインピーダンス成分を持つようになり、周波数が大きくなるとL成分による抵抗は大きくなり、C成分による抵抗は小さくなります。両者の比は、1MHz以上の周波数やケーブルの長さに依存せずに一定となります。このことから、高周波成分のインピーダンスは、
Zo = √(L / C) ・・・(Rec-36)
Zo: 特性インピーダンス(Ω)
L: ケーブル誘導成分(インダクタンス)
C: ケーブル容量成分(キャパシタンス)
で表され、これが50Ωや75Ωで言い表される同軸ケーブルの特性インピーダンスとなります。「L」も「C」も、直流成分では意味をなさないものですから、交流成分に対して成立するインピーダンスであることがこの式からわかります。
同軸ケーブルは、イギリスのICIという化学会社が、絶縁体素材であるポリエチレンを発明(1933年)するまでは、空気を介した同軸ケーブルを使っていて、その特性が75Ωでした。それを、電気的特性の良いポリエチレンに置き換えて、同じ径で同軸ケーブルを作った所、50Ωの特性になったそうです。現在では、絶縁材にポリエチレンを使うのが一般的で、75Ωもしくは50Ωの特性が出るように、内部導体と外部導体の口径比を正しく取り決めています。ポリエチレンも発泡性のものを使って空気の占める割合を大きくして、同じ電気特性で口径を小さくしたものもあります。
【3C-2Vと呼ばれる同軸ケーブル】
実際の同軸ケーブルでは、伝送する距離と周波数帯域によって、推奨できるケーブルのタイプが決められています。我々がアナログ映像信号を送る目的に使う20m長程度のケーブルには、3C-2Vと呼ばれる規格のものを使っています。3C-2Vというケーブルは、以下の規格で作られています。
3C-2V
3: 絶縁部(ポリエチレン)径が3mm。他に、4mm径の「4」、5mm径の「5」や、「7」、「10」などがある。
C: インピーダンスが75Ω。他に50Ωの「D」などがある。
2: 絶縁方式としてポリエチレンを使用
V: 外部導体が1重の編組でPVC被覆
同軸ケーブルは、同じ75Ωのインピーダンス特性でも太いほど周波数特性が良いので、長距離伝送や高い周波数を送るときには、5C-2Vや10C-2Vなどの太い同軸ケーブルを使います。 太いケーブルは、性能がよいものの、高価であったり取り回しが大変なので、目的に応じて使い分け、通常の室内でビデオ機器などを接続するには3C-2Vを使います。
3C-2Vと10C-2Vの特性は、以下のようになっています。
項 目
3C-2V
10C-2V
1MHzの減衰量基準値:
12 dB/km
4.8 dB/km
40 dB/km
16 dB/km
70 dB/km
29 dB/km
195 dB/km
80 dB/km
-
540 dB/km
1 kV eff.
3 kV eff.
φ0.5 mm
φ1.5 mm
φ3.1mm
φ9.4 mm
PVC(塩化ビニール)
t0.9 mm
PVC(塩化ビニール)
t1.4 mm
φ5.6 mm
φ13.2 mm
重量:
50 g/m
230 g/m
特性インピーダンス:
上の値は、3C-2Vケーブルでは、1kmの距離を信号伝送するのに1MHzの周波数では1/4程度に減衰し、10MHzでは1/100に、30MHzでは1/3,160まで減衰することを示しています。同軸ケーブルといえども、1kmまでケーブルを延ばすと周波数の高い信号ほど減衰が激しくなることをこの表は示しています。
【1ナノ秒で信号が20cm進む同軸ケーブル】
電気信号は、導線中をどのくらいの速度で進むのでしょうか。電子の動きそのものは非常に遅く、カタツムリ程度の移動と言われています。しかし電子は、電磁波を仲立ちとして電気信号を光速で伝達させるので、導線中は光速( = 電磁波の伝わる速度)で信号が伝わり、先々にある電子が電磁波に反応します。導線中では電子がいっぱい詰まっていますから、玉突きのように電子が互いにエネルギーを伝達しあって電気が流れる( = エネルギーが伝わる)ようになります。従って、結論を言えば、導線中に流れる電気エネルギーの速度は光速に近く、電子そのものの移動は遅いということが言えます。水の流れは遅いけれど、波は速く伝播するというイメージで良いかと思います。
同軸ケーブルの場合の電気の流れは、一般の導線とは趣がことなります。高周波信号は、一般の導線ではノイズを外にまき散らしたり、減衰が激しいので、同軸ケーブルでは、これらの対策を優先しています。同軸ケーブルは、従って、導線中の電磁波の伝播を優先的に考えなければならないケーブルとなります。
同軸ケーブルを伝わる電気信号は、顕著な電磁波を伴うため、信号伝達は基本的に光速となり、構造上、内部導体の表皮と外部導体の表皮を電磁波が伝播します。この場合、両導体に介在する誘電体の種類によって(誘電率が真空と異なるので)、電磁波の伝播する速度が遅くなります。一般の同軸ケーブルは、誘電体にポリエチレンが使われているので、その材質から「波長短縮率」が求まります。ポリエチレンの場合、67%となるので、同軸ケーブル内では、光速の67%で信号が進みます。光速は、1秒間に30万km(1ナノ秒で30cm)進みますので、この光速の67%、すなわち1ナノ秒で20cmの距離を進むことになります。この速度は、同軸ケーブル内での話であり、BNCコネクタ部のカプリングは、この限りではありません。高級なBNCコネクタは、2GHz帯域までこの波長短縮率を満足するように十分な設計と製造が施されていますが、安価なBNCコネクタでは低い帯域しか性能を満足しないので、カプリング部で位相が変わり速度が落ちます。
いずれにせよ、同軸ケーブルを使う場合は、ケーブルの長さに応じて信号の遅延を割り出すことができます。遅延装置が高かった時代、同軸ケーブルを使った遅延線というものを利用していました。
この原理から、BNCケーブルでは、1m長で5ナノ秒、10m長で50ナノ秒、100m長で0.5マイクロ秒の信号遅延を持つことがわかります。
▲ 平衡ケーブル(balanced cable) (2009.04.01追記)
ビデオ信号ケーブルに使われている同軸ケーブルが不平衡ケーブルの代表的なものであるなら、イーサネットケーブル やLVDS 、RS-422 (EIA-422)は、平衡ケーブルの代表的なものです。平衡ケーブルは、1対の信号線に相補する(位相の反転した)信号( = 差動信号 )を乗せています。例えば、一方の信号線が正極の信号であればもう一方は負極の信号になっています。この方式は、外部からノイズが入ってもノイズを簡単にキャンセルできるので、信号成分が安定します。この手法は、電話機の送受信の手法として発達しました。近年のデータ通信の方式を見てみますと、高周波での長距離通信では同軸ケーブルが使われ、短い距離と低周波信号では平衡ケーブルが使われる傾向があります。
■ フィーダー線(ladder line)
平衡ケーブルは、初期のテレビアンテナの給電線(フィーダー線)として300Ωのものが使われていましたが、同軸ケーブルの方が性能が安定しているので、最近ではフィーダー線に代わり同軸ケーブルが主流になっています。当時、アンテナ線やテレビ信号線に300Ωのフィーダ線(給電線)が使われたのは、安価であったからです。しかし、300Ωフィーダー線は、使っている間に特性がどんどん崩れたり、50m程度以上引き回す場合には、設置に細心の注意を払わないと特性がでないという問題がありました。十分な注意を払った設定では、その特性は同軸ケーブルよりも優れています。しかし、現実には、多くの場合、そうした結果にならない(金属を近づけると特性が崩れる、湿気が結露して水分がつくと特性が崩れる、オートバイからの電磁ノイズを拾いやすい)ことが多いので、近年では同軸ケーブルによる敷設が主流になっています。フィーダ線は、アンテナから直接接続することできますが、同軸ケーブルは外側がグランドになっているためアンテナから直接同軸ケーブルに接続することはできません。この場合は、平衡 / 不平衡変換器(balun = バラン、balance / unbalanceの略)を用いて、不平衡ケーブル(同軸ケーブル)に適応できるようにして信号を送っています。
■ ツイストペア線(Twisted pair line)
RS-422や、イーサネット、LVDSなどの平衡ケーブルは、ノイズ対策の一つとして、ペアになったリード線を撚(よ)っています。撚(よ)ることによって、自ら発する電磁ノイズをキャンセルすることができ、また、外部から入るノイズもキャンセルすることができます(下図参照)。ツイストペア線とは反対に、アンテナのフィーダー線は撚り線になっていません。撚ってしまうと、アンテナから受け取った電磁波信号がキャンセルされて伝達速度が理想状態から崩れてしまい、減衰も激しくなるからです。撚り線は、従って、電磁波を伴う微弱信号には都合が良くないことがわかります。ツイストペア線は、電流をしっかりと流す送受信に威力を発揮します。
平衡ケーブルの欠点は、2本の線の双方に信号成分が乗るので、同軸ケーブルのようにグランド線を共通にすることができないことです。従って、一対の信号ラインは信号線の数だけ必要になります。また、周波数が高くなると、対になっている信号情報が崩れる可能性があり、「平衡度」が悪くなります。このことから、長距離伝送や周波数が高い平衡ケーブルでは、平衡度をうるさく規定しています。
ツイストペア(撚り線)による電磁ノイズ除去効果
■ シールド処理されたツイストペアケーブル (2009.04.29記)
ツイストペアケーブルは、基本的にノイズに強い性質を持っていますが、それでも外部からの電磁ノイズが心配される場合に、ケーブル全体をシールド処理したツイストペアケーブルを使うことがあります。シールド処理を施したものは、していないものに比べて若干の信号の減衰があります。そして高価です。従って、工場内の電磁ノイズの多い場所での利用に有効です。しかし、そうでない所では、あえてシールド処理のケーブルを使わない方が安価であり性能も上がると考えます。シールド処理は、ケーブルを含め、コネクタや接続装置全体をシールド処理しなければならないので、設置が大がかりになります。イーサネットケーブルでは、シールド処理をしているケーブル(STP)とシールド処理をしていないケーブル(UTP)の2種類ありますが、日本では、扱い易さの観点から、UTPが圧倒的に多く使われています(2種類のツィストペアケーブル参照 )。
シールド処理は、装置全体を考えないと逆効果になることを知っておくべきでしょう。
■ 光ケーブル(Optical Fiber Cable) (2009.04.16記)
データ通信で1980年代から主流になってきたものに、光ファイバーがあります。光は電子と相性がよいものの、相互に干渉しないので、光通信は電磁ノイズに左右されず、しかも光速で通信できるという特徴を持っています。1960年後半、レーザの発明と光ファイバーの発想によって、光によるデータ通信が着実に発展してきました。2009年時点においては、長距離データ転送(海底ケーブル、主電話回線網)はすべて光ファイバーケーブルに置き換わっています。我々の身の回りでの光ケーブルは、インターネット回線に使うLANや、オーディオの出力にもこれら光ファイバーが使われています。
光ファイバーの原理については、「光と光の記録 - レンズ編 ■光ファイバー 」を参照下さい。
レーザファイバーでは、ファイバーのコア部に、エルビウム(Er、Erbium)やネオジム(Nd、Neodymium)、イッテルビウム(Yb、Ytterbium)などの3準位の元素がドーピングされていて、900nmの励起光によって反転分布が作られます。
ここに、信号光(1.55um)が入ると次々と増幅が行われて、強い信号光を取り出すことができます。
■ ファイバーレーザ(Fiber Optic Laser)
ファイバーレーザは、ファイバー自体に自己増幅機能をもったレーザで、長距離通信用として発明されました。
実用的なファイバーレーザは、1985年、英国サウサンプトン大学(Southampton University)のSimon Pooleらによって、低損失の単一希土類添加光ファイバーが開発されてから、ファイバーレーザの開発が本格的に始まり、1987年、同大学の Robert Mearsらによって、希土類添加(Erbium-doped)光ファイバーのレーザ作用を利用した、1.55um帯光増幅器が開発されました。
この光ファイバーは、従来の光ファイバーと異なり、ファイバー内で光増幅が行えるため、長距離転送に必要な光を増幅する中継ボックスを少なくするというメリットがありました。このファイバーは、1995年、トランスアトランティック電話会社(Trans-Atlantic Telephone, TAT)の海底ケーブルに使われ、米国と英国、フランスを結びました。このケーブルは、総延長が14,000kmに及び、ファイバーの中継を45kmとすることができ、5Gb/sの伝送速度を持っていました。ファイバーレーザは、小型で低消費電力、そしてビームクォリティが高いので通信用目的の他に高温加工分野で注目され、レーザ溶接機の熱源として使われています。
詳細は、「光と光の記録 - レーザ編 ■ファイバーレーザ 」を参照下さい。
■ データインタフェース
この項目では、データ通信の規格について触れます。データ通信を規格化することにより、通信機器の互換性が高まり、たくさんの通信機器と簡単に接続できるようになります。データインタフェースは、高速、大容量化の歴史でもあります。右図に代表的なデータ通信手法と転送速度の歴史的推移を示します。パソコン(IBM-PC)ができたのが1981年ですから右図を見てみますと、パソコンができる以前からRS-232CやGP-IB、イーサネットがあったことがわかります。
通信方式は、大きく分けてたくさんのデータ線を平行に配置して一度にたくさん送るパラレル方式と、1本のデータ線でシリーズに送るシリアル方式の二つに分かれます。パラレル方式は、高速に対応できる反面、ケーブル長に限界があります。また、シリアル方式は、ケーブル長が長くできる反面、転送速度が上がらないという傾向がありました。しかし、近年では、イーサネットなどのシリアル転送でもSCSIのパラレル転送なみの速度を持つものがあり、一概に傾向を論ずることができなくなりました。パラレル転送は、8人9脚のような転送なので、足並みが揃わないと転んでしまう(データ欠損が起きる)問題があります。そうであるならば、走りやすい走路を確保して(ツイストペア線による平衡信号にして)高速でデータを送った方が、結果的には大量のデータを送ることができるのです。
以下、データインタフェースの歴史的な流れを見てみることにします。
【RS232C】
パソコンに備わっている通信ポート群をよく見ると、COM(もしくは、|O|O|)と書かれた9ピン(もしくは15ピン)の端子がついているのがわかります。COMというのは、Communication(通信)の略で、通信ポートの意味です。このCOMポートが、実はRS232Cという通信ポートなのです。RS232Cは、電話回線を使った通信(モデム通信)を前提にして、1969年に作られた(40年も前です!)インタフェース規格です。「C」バージョンの原型であるRS232は、1962年にできています。1962年当時は、IBMの大型コンピュータがトランジスタ素子を採用してやっと軌道に乗った時代でした。また、この時期は、デジタル素子であるTTL(Transistor-Transistor Logic)が米国テキサスインスツルメンツ社から市販化されはじめた時期です。
1980年代にパソコンができてから、イーサネットが標準装備されるまでの15年間は、このRS232Cがパソコン通信の代表的な通信手段でした。音響カプラーと呼ばれる装置(電話の受話器にお椀のようなものを取り付けて、FAXを送る際のコール/アンサー信号のような音源でデジタル通信を行った装置)もこのRS232C規格を採用していました。
この通信手段は、名前からもわかるように、米国EIA(Electronic Industries Association: 米国電子工業会)が制定したもので、データ端末装置(DTE: Data Terminal Equipment)と回線終端装置(DCE: Data Circuit terminating Equipment)の両者について、機械的・電気的な仕様を定めたものです。信号は、±10V(ドライバやレシーバ回路電源は±12V)程度で、規格上の伝送速度は、20Kb/s以下となっていました。通信速度を示す9600ボー(baud、bit per second = bps、ビット/秒)が有名な数値と単位です。通信設定の際にちょくちょく目にした9600という数値は、RS232の規格上の半分の速度設定だったことがわかります。データは、不平衡信号であるためグランド線とデータ線で構成されていて、現在の主流である差動信号 ではありません。差動信号は、その後のRS422で採用されました。RS232Cは、従ってノイズに対して弱く、データ転送の負荷容量CLが2500pF以下だったため、ケーブル長さは十数メートルに制限されていました。それ以上に長くすると、通信エラーが起きて性能を満足できなくなりました。ただし、コンピュータ同士のインタフェースとして使用する場合には、一般公衆回線よりも雑音が少ないので、もっと高速、あるいはもっと長いケーブルを使用しているケースもありました。
現在(2009年)でも、COMポートはパソコンに標準で装備されています。淘汰の激しいパソコンのインタフェースの中にあって、40年も採用され続けているのは驚きです。この規格は、簡単なリモート制御を行うにはシンプルでとても安定しているので、ちょっとした機器の接続に今でも使われています。しかし、画像を送ったりインターネットを見る目的には速度が遅すぎるため適合せず使われていません。
【RS-422】
RS-422(EIA-422、TIA-422)は、RS232Cの改良版で、通信速度と通信距離を大幅に改善させたものです。RS232Cと互換性が強いので、長距離転送をRS422で行って、機器側でRS232Cに変換して使うことがありました。
RS-422の大きな特徴は、信号に差動信号(Differential Signaling) を採用したことです。これにより、耐ノイズ性能が向上し、長距離高速データ通信できるようになりました。アップル社のマッキントッシュでは、初期のモデル(Macintosh 128k、1984年)からmini-DIN8コネクタによるRS422規格を採用し、これにマウスやキーボード、専用のプリンタを接続していました。しかし、これも1998年に発売されたiMacでは、USBを採用したために、mini-Din8によるRS422ポートはなくなりました。
RS422は、伝送距離が400ft(1.2km)と長く、10Mbit/sのデータを送ることができました。RS-232Cが50ft(15m)で20kbit/sなので、距離にして80倍、伝送速度において500倍の性能を持っていたことになります。
【セントロニクス(Centronics)】
この規格は、1970年、米国Centronics Data Computer社が自社製品のプリンタに装備したインタフェースです。大型のD-subコネクタを使ったプリンタポートです。開発当時、同社がワイア・ドット・プリンタで大きなシェアを占めていたため、プリンタインタフェースの事実上の標準となりました。この規格は、後にIEEE1284として標準化されました。パソコンが普及するはるか以前から構築された通信規格です。
最初の規格では、Centronics社でプリンタ用に大量に余っていたアンフェノール社のD-Sub 36ピンのコネクタを使っていましたが、IBM社がIBM-PCにプリンタポートで採用したコネクタは、D-Sub 25ピンでした。従って、初期のセントロニクスケーブルは、36ピン - 25ピンのケーブルが必要でした。双方が25ピンのコネクタを使ったケーブルを使用し出したのは、プリンタメーカのHP(ヒューレット・パッカード)社です。1992年にHP社から発売されたLaser Jet 4 には25ピンのポートが採用され、これよりセントロニクスケーブルはより使い勝手の良いものになりました。この規格は、2年後の1994年にIEEEで採択されてIEEE1284規格となりました。
この規格は、プリンタポートとして大きな普及を見て、2004年までのパソコンには大抵装備されていました。しかし、最近のパソコンには装備されなくなりました。セントロニクス装備のプリンタがなくなり、プリンタ接続は、USB2.0やイーサネット、あるいは無線のBluetoothに切り替わって来たので装備する意味がなくなったからです。
このプリンタポートは、プリンタ機器の接続という本来の目的の他に、ソフトウェアのプロテクトキー(ドングルキー)を挿入するポートとして使われて来ました。しかし、それもUSBキーにとって替わられています。
セントロニクスは、非同期式の8ビット・パラレル転送方式をとっていました。8本の信号線を使って各線1ビット、合計8ビットの信号を500k バイト/秒程度でデータ転送を行っていました。信号は不平衡信号でした。従ってグランドは共通にすることができます。パラレルなのでシリアルのRS232Cより25倍も高速に転送できました。しかし、パラレル転送は、クロストーク(混信)の問題があり、ケーブル長をあまり長くとることができませんでした。これは、パラレル転送の宿命とも言えるべきものです。
25ピンのセントロニクスの主な信号とピンアサイン及び機能を紹介します。
* ピン1:STROBE:パソコンがデータを送信したことをプリンタに伝える同期信号。
* ピン2-9:DATA1-DATA8:8ビットのデータ信号。
---------------------------------
* ピン10:ACKNLG:プリンタがデータを受信したことをホストに伝える同期信号。
* ピン11:BUSY:プリンタが次のデータを受信できないことを示す信号。
* ピン12:PE:プリンタ用紙の終わりを知らせる信号。
* ピン13:SEL:プリンタの選択信号。
* ピン14:LF:プリンタの行換え信号。
* ピン15:ERROR:プリンタのエラー信号。
---------------------------------
* ピン16:PRIME:コンピュータの初期化信号。
* ピン17:SEL:コンピュータの選択信号。
---------------------------------
* ピン18 - 25:GND:8本のグランド信号線。
【GP-IB(General Purpose Interface Bus】 (2006.09.03)(2009.08.18追記)
計測器メーカで有名な米国ヒューレット・パッカード(HP)社(現Agilent Technologies社、HP社より分離独立)が、1960年代に開発し規格化したデータ転送規格です。当時のHP社は、温度センサーやプロッタなど優れた計測装置を設計、製造していたメーカで、こうした計測装置を有機的に結びつける必要上、機能的に優れた使い勝手の良いデータ転送方式を編み出しました。HP社では、これをHP-IB(Hewlett-Packard Interface Bus)と呼んでいましたが、他のメーカがこのバスを使用するようになって、General Purpose Interface Bus(GP-IB)として知られるようになりました。このバスは、1978年にIEEEが取り上げて、IEEE-488として規格化されました。
■ パラレル信号ライン
当時、GP-IBの斬新だった所は、8本の信号線にビットをあてて8ビットとし、他に8本の制御信号線を設けてデータの入出力をコントロールしたことです。GP-IBでは16本の信号線と8本のグランド線の合計24本(24ピン)で構成されています。データ線は8ビットのため8本(DIO1〜DIO8)あり、グランド線は共通で1本が配置されていました。制御線は、3本のハンドシェークバス(DAV、NRFD、NDAC)と5本の管理バス(ATN、REN、IFC、SRQ、EOI)の合計8本からなっていて、RENとEOIを除いた6本はすべて個々にグランド線があてがわれてペアとなっていました。RENとEOIはデータ線と共通のグランド線となっていました。24ピンのうちの1つはシールド線に結線されていました。信号は不平衡信号 です。
■ アドレス指定
GP-IBを接続する装置には、アドレスが機械的に割り当てられていて(DIPスイッチと呼ばれる小さいON-OFFスイッチで装置番号を設定した)、アドレスを設定した相手にデータを確実に送ることができるようにしていました。従って、GP-IBでデータ送信する機器(トーカ)にはデータ列の前にどの機器に送るかを宣言する方式になっていました。リスナGP-IBでは、ケーブルを数珠つなぎ(デイジーチェイン)にしても、並列接続をしても、中継ボックス(Hubなど)を介さずに接続することができました。ただ、ケーブル長さは、すべての合計が20m以内でなければならず、接続する機器も合計で15ヶ以内という決まりがありました。(機械番号を認識するDIPスイッチが4つだったので、16個の装置までしか認識できませんでした。)ケーブル自体は、あまり長くなく1〜2mが多かったような記憶があります。そして太いケーブルでした。
■ 転送速度
この規格でどのくらいの速度でデータが送れたかと言うと、1MHzのクロックで8ビットのパラレル信号が送れるので、理論的には最大1Mバイト/秒となります。この通信速度は、温度や圧力などのデータを送るのにはそれほど不便は感じないものの、画像転送に使うとなると非力になるのは否めません。例えば、512x512画素8ビットの白黒画像を送るとすると、1/4秒での送信が計算上可能です。実際の所、1990年代始めに行った我々の実験では、GP-IBの転送手順と同期の関係から30秒〜1分程度かかっていました。理論よりも100倍から200倍も時間がかかっています。当時は、GP-IB以外に信頼できる高速通信可能な手段がなかったので、こうした通信手段で画像を送っていました。しかし、これではあまりにも時間がかかるので、1990年代中頃には、SCSI による画像通信が一般的になりました。これも、2000年を境にして次第に使われなくなりました。
GP-IBケーブル。長さは70cm程度と短いものが多かった。ケーブルは8本のパラレルデータ線なので太い。
コネクタは、重ねて接続できるようにメスとオスが双方にもうけられていた。
下の図は接続例。重ね接続でも芋づる接続でも接続可能であった。
接続機器にはすべてアドレス(4ビット)が割り振られ、アドレスにそって
データの送受信が行われた。
【歴史的なデータ転送規格】
データ転送の規格は、コンピュータの発展とともに進化してきました。
多くのものは、メーカが独自に開発してそれが時流の勢いに乗って標準化されて行き、さらに、より進化した通信規格が開発されると前のものが淘汰されていくという進化の過程を経ています。こうした流れは、お互いをけん制しあいながらも影響を及ぼしあってきました。以下その規格を列挙します。
・DMA(Direct Memory Access)転送
DMAは、データの転送をCPUを介さずに直接転送する方式です。CPUのクロックが数MHzと低かった時代、CPUのクロックに乗せてRAMメモリのデータをハードディスクに書き込んでいたのでは時間がかかりすぎるので、データ転送は専用のプロセッサに任せて行う方法が取られました。これがDMA転送です。この手法は、現在も形を変えてパソコン内部のデータ転送に生きています。
・VME(Versa Module Eurocard)バス転送
VMEバスは、米国モトローラ社が1981年に自社のCPU68000用のデータ転送用に開発したバスで、Versa Module Eurocardの略から来ています。回路基板にユーロカード規格を採用したので、使い勝手の良さから広く使われるようになり、米国の規格IEEE1014-1987として登録されました。
初期のものは、16ビットバスでユーロカードDINコネクタをスロットに採用していました。現在では、64ビット対応になり、カードも6Uサイズになっています。
・SCSI(Small Computer System Interface)転送 (2009.08.18追記)
SCSIコネクタ。
この他に数種類のコネクタがあり、接続に注意が必要であった。
SCSI(すかじー)は、1979年に米国Shugart社(Seagate Technology社の前身でフロッピーディスクの製造会社)が周辺機器(特にHDD)向けに作成したSASI(Shugart Associates System Interface)をベースとしたものです。これに機能の拡張や追加を行い、1986年米国規格協会(ANSI)がX3.131-1986として標準化パラレルインタフェースとしました。SCSIは、Shugart社でこの規格の開発に従事したLarry Boucherが1986年にAdaptec社を創設して製品の開発につとめ、SCSIの性能向上に努めました。
SCSIは、イーサネットやUSBが普及するまでの間高速転送の主流でした。2000年までの多くのパソコンは、高速大容量データ転送用としてSCSIインタフェースボードをPCIボードスロットに差し込んで、これにハードディスクドライブやCDドライブ、プリンタなどを接続していました。当時としてはもっとも高速にデータ通信ができるパソコン周辺機器の通信規格でした。現在は(2003年〜)、RAIDなどのミッションクリティカルな高速通信目的以外ほとんど使われていません。その理由は、SCSIより使い勝手が良くて速度の速い通信方式(イーサネット、USB2.0、IEEE1394)が出現したためです。SCSIは、周辺機器を7台まで芋づる式(デイジーチェーン)に接続可能なインタフェースでした。接続の最後には必ず終端処理(ターミネータ)を施しておく必要がありました。
使用するコネクタのピンは50本で、データ用は9本(うち1本はパリティ)、制御用に9本の信号線を使っています。SCSIバスの電気的条件として、最大ケーブル長6mの非平衡型と最大ケーブル長25mの平衡型(差動型)が規定されています。非平衡型は負論理(LOWでアクティブ)の信号線とグランド線で構成され、その電位差でHIGHとLOWを決めています。一般には、非平衡型が用いられていて差動型との共存は不可能です。従って、SCSIケーブルは6m長が標準でした。SCSIの進化過程を以下に述べます。
1. SCSI-1 : 8ビットパラレル、5Mバイト/秒、1986年
2. Fast SCSI : 8ビットパラレル、10Mバイト/秒、1994年
3. Fast Wide SCSI : 16ビットパラレル、20Mバイト/秒、1996年
4. Ultra2 SCSI : 8ビットパラレル、40Mバイト/秒、1997年
5. Ultra3 SCSI : 16ビットパラレル、160Mバイト/秒、1999年
6. Ultra-640 SCSI : 16ビットパラレル、640Mバイト/秒、2003年
SCSIはその後、安価で高性能なIDE → SATA の台頭と、使い勝手が良く高性能なUSB の出現で次第に存在価値が絞られてきています。
・IDE(Integrated Drive Electronics)転送 / ATA規格 (2009.08.18追記)
IDEは、SCSI に置き換わるようにして発展してきたもので、ハードディスク(HDD)の高速データ転送を目的にしていました。
SCSIがハードディスクを初めて開発したシュガート(Shugart)社から作られたのに対し、IDEはライバルのウェスタンデジタル(Western Digital)社とクローンパソコンで台頭した米国Compaq Computer社(現在はHP社に吸収)の共同で開発されたものです。
SCSIとIDEは、ライバル関係にあったのです。
しかし当初は、SCSIの方が高速・高性能でした。IDEは安価なことがウリでした。
IDEの開発は1986年ですから、パソコンが台頭し始めた初期からありました。IDEは、SCSIと比べてデータ転送速度が遅い欠点がありましたが、IDE規格のHDDが安かったため急速に普及していきました。
SCSIが外部装置との接続ができるようにケーブルやPCIカードを整えたのとは対照的に、IDEはIBM PCATバスにハードディスクを直結するためのインタフェースに終始しています。したがって、IDEケーブルは右写真に見られるように、リボン(フラット)ケーブルになっています。価格を抑えた設計に終始しているのが理解できます。
IDEが大きな普及を見たことにより技術開発も進んで、2000年を越えたあたりから速度的にもSCSIとほとんど遜色がなくなりパソコン内部のインタフェースバスとして揺るぎない位置を占めるようになりました。2009年にあっても、HDD、DVDを接続する主要のインタフェースバスとして使われています。
IDEは、ANSI(American National Standards Institute、アメリカ規格協会)によって1988年に規格化されたために、その規格名からATA(Advanced Technology Attachment)と呼ぶこともあります。
IDEのコネクタは40本の信号線から成り、接地線を除く34本の信号線でデータの転送や制御を行っています。データ転送用には16本の信号線(16ビット)が使われています。グランドラインは16本すべてにあてがわれていないので信号は不平衡信号になります。
IDEに使われているケーブルは平べったいリボン状のもので、ケーブル長さは最大18インチ(45.7cm)と規定されています。これはケーブルとしてはすごく短いもので、コンピュータ内部でしか使えない長さです。
ケーブルの形状からわかるようにIDEではツイストペア信号になっていないことがわかります。ケーブル自体もシールドされていません。
ATA規格では、制定当初は3.3MB/秒の転送速度であったものが、2005年のATA-7規格では133.3MB/秒の転送速度を持つに至っています。
【SATA 及び eSATA】 (2010.01.25)(2010.03.17追記)
SATA(さーたー)は、シリアルATA(Serial Advanced Technology Attachment)と呼ばれるもので、上で述べたSAI通信規格のシリアル転送版です。
eSATA(いーさーたー)は、SATAの拡張版でextended SATAの略です。
SATAがコンピュータマザーボード内部で使用されるのに対し、eSATAは、IEEE1394やUSB2.0の接続と同じように外部機器との通信接続に使われます。 これは、主にハードディスクやDVDなどの光学装置接続用として使われています。
2009年で発売されているPC内部のHDD接続には、ほとんどこのSATA規格のものが使われています。
シリアルATAは、上で述べたパラレルATA( = IDE) の速度が限界になったため、転送速度と使い勝手を向上させるために2002年にワーキンググループが発足して規格化がなされました。
主な仕様を以下に示します。
■ シリアル転送
新しい規格は、従来のパラレル転送からシリアル転送に変わりました。
信号ピンは、差動信号の2ペアの4信号(A+、A-、B+、B- = 送信用と受信用)と、グランドピン3線の合計7ピンの配線となりました。
IDEは、40ピンのリボンケーブルを使っていました。
下図の右に示すようにケーブルの巾が非常に小さくなり、ケーブル長さも長くなったため配線がすっきりするようになりました。
■ 転送速度
転送速度は、当初、150MB/sからスタートしました(SATA150と呼ばれた)。
2004年のシリアルATA2.0では、倍の300MB/sとなりました(SATA300と呼ばれた)。
2009年05月のシリアルATA3.0では、そのまた倍の600MB/sとなりました(SATA600)。
このスピードは、PCIボード の性能を抜き去るものです。
■ 差動信号(LDVS)
シリアルATAに使われている信号は、LDVS とよばれる差動信号を使っています。
この信号は、高速通信では一般的になっているものです。
■ ケーブル長さ
シリアルATAは、従来のATAよりも2倍以上も長い1mまでのケーブルを使うことができます。
■ ホットスワップ対応
電源を入れたままケーブルを抜き差ししても、機器が認識できる機能を装備しました。
■ eSATA
SATAがPC内部のマザーボードと機器の接続であるのに対し、外部機器との接続を規格化したのがeSATAです。
ケーブルの長さは2mまで可能で、ホットスワップが可能でした。
コネクタは、SATAと区別するためにこれとは違ったものになっています。(上の右下写真参照。右側がeSATAコネクタ)
この規格は、USB2.0の5倍の速度を持っています。高速大容量のハードディスクにはこの規格の端子が装備されています。
【イーサネット = Ethernet】 (2006.07.13)(2009.09.11追記)
イーサネットポート。ツイストペアケーブルを使ったイーサネットは、4対(8本)の通信線で構成されている。
イーサネットプラグ(8P8Cモジュラージャック)。
これで1Gbpsの送信が可能!
ラッチは、取り外しを頻繁に行うと折れやすい。
インターネットやローカルエリアネットワーク(LAN)の普及とともに、よく知られる通信手段となったものに イーサネット(Ethernet) があります。
イーサネットは、コンピュータ同士を有機的に結びつける通信手段として急速に発展しました。イーサネットによる通信は、RS232Cと同じように一本の信号線で行われていました。初期のイーサネットは、1本のBNC同軸ケーブルが使われていました。現在はモジュラージャックを使った4対(8本)の信号線になっています。イーサネット接続によるデータ通信は、非常にたくさんの通信機器と合流・相乗りができて、最大10Mビット/秒の転送速度の通信が行えました(10Base)。イーサネットの大きな特徴は、長い距離に渡ってたくさんの機器を機能的に結びつけられることでした。高速通信も1990年代当時としてはとても速いものでした。
私が10Baseのイーサネットを使って画像通信の実験した1999年当時、640x480画素の画像1枚(BMPフォーマット画像)を20秒程度で転送できました。
640画素 x 480画素 x 8ビット x 3画面 ÷ 20s = 368.64kbps ・・・(Rec-37)
上の計算が示すように、10Mビット/sの通信ラインで実効値0.4Mビット/sの通信速度をもっていました。これは、公称データの4%の速度にあたります。これが、当時最も早く画像データを転送できる通信手段の一つだったことを覚えています。その後、Ethernetの伝送速度は100Mビット/秒に高速化され、Fast Ethernet = 100BASE-Tに対応した製品が普及しました。この規格を使えば、従来よりも画像転送時間を1/10に短縮することができました。
2002年頃からは、ギガイーサネットと呼ばれる1000Mビット/秒の通信速度をもつネットワーク通信システムが市場に出回るようになりました。この規格は、100Baseの規格のさらに10倍の転送速度を持っていました。この規格で高速度カメラの画像をダウンロードをしているものに、米国Redlake MASD社のHG-100K(2002年、現IDT社)があります。デジタル画像転送では最も確実な高速転送を行っているものです。
わたしの家庭のLAN(2004年〜2009年時点)では、デスクトップパソコンとノートパソコンのデータ通信を64Mビット/秒で転送しています(900MBのデータを約110秒で送ることができます)。デスクトップとノートパソコンが1000BASE-Tなので、そこそこの性能が出ているといえます。
イーサネット通信は、社内LANやインターネットでも使われている非常に安定した信頼性の高い通信手段で、通信距離もHUBを利用すれば距離に関係なくデータを送受信できます。
イーサネットの問題点は、ネットワーク内にたくさんの情報が入り込んできたときに情報の交通渋滞がおきて目的とする通信速度が達成できなくなることです。これは、イーサネットの成り立ち上、そして送受信の原理から致し方のないものです。使用者は、そうした原理をよく知ってデータの通信を上手に行わなくてはなりません。
▲ イーサネット開発の歴史
イーサネットの開発は、1973年に始まります。
随分と早い時期に着想されて開発されました。パソコン(IBM-PC、1981年)ができる8年以上も前のことです。
この通信手段は、米国のゼロックス社の研究所、PARC(Xerox Palo Alto Research Center)で考え出されました。
その中心人物は、ボブ・メトカーフ(Robert Metcalfe:1946.04.07 - 、1979年3Com社設立)でした。
イーサネットのアイデアの原点は、米国が軍需用にデータ通信を構築していたARPANET(Advanced Research Projects Agency Network、1969年)に始まります。
ARPANETは、現在のインターネットの母体でもあります。
■ アロハネット(ALOHANET)
その開発の一貫としてARPAから資金援助を受けていたハワイ大学のノーマン・アブラムソン(Norman Abramson: 1932.04〜)が、ハワイに点在する島々を無線を使ってパケット通信を行うことに1970年に成功しました。
この通信網はALOHAnet(アロハネット)と呼ばれました。ALOHANETは無線通信であったものの、複数の機器が同一ネットワークを簡単に構築できる特徴を持っていました。
このネットワークでは、データ通信の周波数を一定にしてデータを細切れのパケットとして送信を行っていました。
パケット通信は、現在のデジタル通信においては携帯電話や電話などすべての分野でつかわれているものです。
この細切れのデータ(パケット)の送受信を確実にするために、受信した相手からデータを受け取ったとする確認の信号が返ってくる仕組みを作り送受信を確実にしました。
また、複数の機器が同時にデータを送信した時に生じるデータ衝突を回避する機能も持っていました。
この機能は以下に述べるCSMA/CD (Carrier Sense Multiple Access/Collision Detection)として発展します。
イーサネットの初期構造は、一本の同軸ケーブルにコンピュータから接続線を延ばして結線していた。
ハブ構造ではなかった。
1本の同軸ケーブルは、終端処理されデータの混信を防いでいる。データの送受信は、現在のネットワークに比べるとシンプルであった。反面、信頼性は低く、通信トラブルも多かった。
コンピュータ同士が通信し合えるという画期的なものであった。
■ PARCとAlto
ALOHAnet通信方式に興味を持っていたのが、当時ハーバード大学大学院生であったボブ・メトカーフでした。彼は、ハーバード大学院時代からARPANETの研究に従事していました。彼は大学を卒業した後、ゼロックス研究所(PARC)に就職します。PARCでのメトカーフの研究グループは、何台ものコンピュータ(Alto)とプリンタ間相互の通信速度を上げる方法を探していました。当時のコンピュータの通信というのは、パソコン同士ではなくて紙へ出力するプリンタへの通信が主目的でした。
彼らが1973年に開発したコンピュータのアルト(Alto)は、時代の最先端を行くもので、現在のパーソナルコンピュータの主流技術であるマルチウィンドウ(複数の画面を表示できる機能)を持っていたり、表示画面をビットマップ処理によって表示し、アイコンを備えてsmall talkという言語でゴミ箱やフォルダ操作を感覚的に行うことができました。また、パソコンの操作にはマウスを使い、コンピュータ同士が通信し合えるネットワーク機能を備えるまで進化させていました。
現在のパソコン(Windows、マッキントッシュ)のほとんどの機能が当時のAltoに集約されていたのです。
彼らが開発したマウスや、マルチウィンドウ、アイコンのアイデアは、30年の歴史を持つパソコンの世界で生き続けています。
Altoは市販されませんでしたが、Altoの機能のほとんどを取り入れたパソコンがアップル社からLisa(リサ、1979年)として発売されました。Altoはアップル社とは別にゼロックスの研究所で進化し、1981年にXerox Starとしてワークステーションの位置づけで市販化されました。このワークステーションは、イーサネット機能を装備した最初のコンピュータでした。
当時、コンピュータもプリンタもそれ自体の処理速度はそこそこ速くなっていました。しかし、プリントに要する時間がとても長くかかっていました。プリントに長い時間がかかる原因は機器双方のどちらでもなく、二つのマシンをつなぐケーブルにありました。印刷するページ画像は、いったんコンピュータのメモリ上で組み立ててから、ビット単位でプリンタに転送されます。プリンタの解像度が600dpi(ドット・パー・インチ。解像度の単位で1インチ当たりのドット数を表す)の場合、ケーブルを経由して1ページあたり3,300万ビット(4MB)以上のデータを送り出さなければなりません。当時のコンピュータは、1ページ分の画像を1秒間でメモリ上に展開でき、プリンタはそれを2秒でプリントできました。しかし、問題はデータの転送であり、当時は高速だと考えられていたシリアル転送を使っても、このデータを全て送り出すのに15分近くかかったのです。
■ CSMA/CD(Carrier Sense Multiple Access/Collision Detection)
メトカーフは、データを通信する方式として電話の共同加入線(パーティライン)という概念を導入しました。パーティラインとは、電話会議に採用されている電話通話の方式で、一度に複数の人たちと会話(電話会議)ができるものです。パーティラインに参加する人たちは、通常、電話で話かける前に、受話器に耳を傾けます。そして誰も回線を使用していない合間を縫って話しをはじめます。また、パーティラインに流れている情報に対して、興味がなければ何もしなくてよく、自分に関係があることや情報を提供したいときにパーティライン上に話を持ち出せば興味のあるパートナーがそれを聞いてくれて反応してくれるという仕組みになっています。イーサネットも同じ方式を採用しました。つまり、回線の様子をうかがって、他で転送が行われているようならばランダムに時間をあけてもう一度かけ直す方式としたのです。電話回線の状況を見ながら話したい相手に情報を届ける方式を採用しました。こうすることにより、複数のコンピュータとプリンタは一本の同軸ケーブルで配線できるようになります。同軸ケーブルには、一秒間に267万ビット(2.67Mbps)のデータを転送できるようにしました。この方式によって、それまで15分かかっていた解像度600dpiで印刷する書類の転送時間を12秒まで短縮できるようになりました。
データ通信の制御を行うこの方式は、CSMA/CD(Carrier Sense Multiple Access/Collision Detection)(キャリア検知多重アクセス/コリジョン検出)と呼ばれているものです。難しい名前がつけられていますが、仕組みは先に述べた通りです。つまり、イーサネットでつながったコンピュータは自由な発言が許される反面、他の相手が話しているときには発言することができない工夫を施し、相手が発言しているかどうかを見る機能を備えたのです。それがキャリア検出(Carrier Sense)機能です。もし同時に発言が出されて衝突が起きた場合は、これを回避する衝突検出(Collision Detection)機能も設けました。相手が発言している(データを送信している)と言ってもイーサネットの場合はデータを細切れ(パケット、データグラム)にして送り出しているので、他のコンピュータが入り込む余地は十分にあります。この細切れのデータはMACフレーム(Media Access Control Frame)という塊として扱われます(右上図参照)。MACフレームは、データの前に宛先アドレスと送信元アドレスのタグがつけられて相手に送信されます。データは、46〜1,500バイトを任意に選ぶことができ、データの大きさ(データグラム)が小さい設定では確実な送信ができる反面すべてのデータを送るのに時間がかかり、大きいと速く送れるかわりにデータの受け渡しに失敗する可能性が高くなります。複数のコンピュータが送信を始めて通信回線上に送り出されるデータが多くなると、各コンピュータはデータの合間合間を縫うようにして送り出すようになるので交通渋滞が起きている状況と同じになり、相対的な送信速度は遅くなります。
■ イーサネットのいわれ
2.67Mbps(メガビット・パー・セカンド)の転送速度を持つイーサネットは、とても魅力的なシステムでした。開発当時は考えても見なかったことで後でわかったことに、イーサネットはコンピュータとプリンタをつなぐだけでなくコンピュータ同士の接続も行えました。どのアルトにもイーサネット機能が付けられて、プリンタとネットワークで接続された環境では、各コンピュータにアドレスと名前をつけることになります。全ユーザが自分のアルト(ワークステーション)に名前をつけたときコンピュータ同士が認識できるようになり、互いにデータを通信し合えるようになったのです。ネットワークの母体が完成したのです。
2.67Mbpsのイーサネットは、頑丈で比較的単純な技術でした。コンピュータとプリンタは、一本の同軸ケーブルにT-BNCで芋づる式に接続するだけでよかったのです。これをPARC(ゼロックス研究所)は10Mbpsまで速度を上げました。不運なことに、3倍強の通信速度を上げた10Mbpsのイーサネットは、複雑な技術を必要としました。
このようにして、1本のケーブル線で互いのコンピュータや周辺機器を接続したことにより、まるで光が宇宙を伝搬していくように高速で快適な通信ができるようになりました。イーサネットは、光を伝搬すると考えられていたエーテル(Ether=イーサ)をもじって、エーテルのネットワークという意味でエーテルネット(Ethernet = イーサネット)と名付けられました。イーサネットは、1982年、IEEE802.3で規格化されました。
▲ 半二重通信、全二重通信(Half Duplex、Full Duplex)
イーサネットに限らず電話回線などを使ったシリアル転送は、たえず送り手と受け手の関係(転送手順)がつきまといます。つまり、コンピュータとプリンタのように話手がコンピュータで聞き手がプリンタのようにデータの通信方向が一方向のものであれば、一本の通信ケーブルを使っても通信は行えます(片方向通信、Simplex)。しかし、互いがコンピュータ同士であったり電話での会話の場合には、話し手が聞き手に回ったり、聞き手が質問に対して応えなければならないケースが多く出てきます。一本の通信線でこれを行う場合、例えばトランシーバや一本の糸電話を想定してみますと、話し手が聞き手に情報を伝達し返事が欲しいときに「どうぞ」と自身の話を終わる意志表示をします。そうして互いにトランシーバの送信ボタンを切り替えたり糸電話を口から耳に変えて情報伝達を逆向きにさせます。このような手法のことを半二重通信と呼んでいます。半二重通信は、一本の通信線で交互に送信と受信を切り替える方法でした。イーサネットでは初期の同軸ケーブルを使ったもの(10BASE-2、10BASE-5)が半二重方式を採用していました。これは当然の事ながらデータの通信が煩雑となりデータの衝突や交通渋滞を招きやすいものでした。このデータの衝突を監視して交通整理を行う機能が先に述べたCSMA/CD でした。この機能によって一本の同軸ケーブルでも多数の機器が相互乗り入れしてデータ転送を行うことができるようになりました。
全二重通信は、送信線と受信線が分かれていて送信と受信を個別に行える方式です。これは、電話回線やイーサネットのツイストペアケーブル(10BASE-T、100BASE-TX) で採用されているものです。全二重方式では、データの流れの方向性が一定でスムーズであり送信と受信が同時に行えるのが大きな強みです。この通信では2対のペアラインで送信(TxD)と受信(RxD)を行うのが普通ですが、必ずそうであるとは限りません。例えば、周波数を変えて送信するという方式では1本の信号線を使って全二重送信を行っているケースもあります。全二重通信ではデータの衝突という不具合が起きないので、データ衝突回避機能(CSMA/CD)を使う必要はなくなります。しかし、ケーブルを接続するハブがスイッチング・ハブではなくリピータ・ハブの場合は、このハブが全二重送信を行わないので、ツイストペアケーブルを使ったとしても半二重通信となります。全二重通信が行えるのはクロスケーブルを使ったコンピュータ同士の直接接続か、スイッチング・ハブを使った接続に限られます。
▲ 同軸ケーブルからツイストペアケーブルへ
イーサネットが開発された当初、データを伝送するケーブルには同軸ケーブルを使っていました。1982年にイーサネット規格IEEE802.3が制定されたとき、ケーブルは10BASE-2という規格でまとめられました。この規格は、直径5mm、50Ω同軸ケーブルが採用されていました。コネクタは、BNCを使っていました。10BASE-2は、10Mbpsの速度で200mの伝送距離性能を持っていました。当時としては、かなり長距離で、かつ高速通信だったと言えます。BNCコネクタを採用したのは、使い勝手と信頼性が良いからだと思います。この方式は、10BASE-5というカテゴリーで500mの伝送性能を持つようになります。
ツイストペア式のケーブル(UTP = Unshielded Twisted Pair)は、4年後の1987年に登場し、1990年に10BASE-T規格となりました。なぜ、同軸ケーブルからツイストケーブルに変わったのでしょうか。その理由の一番大きなものは、価格であったと言われています。同軸ケーブルは、周波数特性が安定していて長距離伝送にも耐えられる性能を持っていましたが、価格が高かった。敷設費用を低く抑えたいという要求から、ツイストペア式ケーブルが開発されたと言われています。
ツイストペアケーブルの原型は、電話ケーブルです。
これは、電話回線を使った通信網を研究していたAT&TとIBMがトークンリング(Token Ring = IEEE802.5、通信速度4Mbps[1985年]もしくは16Mbps[1989年])という技術を開発したのに始まります。これは、一種の高速データ通信規格でした。この通信方式に、電話回線で使うツイストケーブルを使っていたので、その延長線上にあったイーサネットもこの技術を流用して10Mbpsの伝送速度を満足する仕様を構築しました。トークンリングは、イーサネットが開発された当時はライバル関係にありました。しかし、イーサネットの方が使い勝手良く伝送スピードも速いものが開発されて行ったので、ギガイーサネットが開発された1999年以降、TokenRingの開発は停滞してしまいました。
ツイストケーブルを採用したイーサネットは、高速通信は満足できたものの長距離伝送が難しく、10BASE-Tでは100mまでと規定されていました。伝送距離がそれほど長くとれない撚り線式ケーブルの10BASE-Tでしたが、伝送距離の短さをハブを用いることによって克服し、敷設費用が安くできることと簡単な工事が功を奏して、以後、100BASE-Tや1000BASE-T規格としてTタイプ(ツイストケーブルタイプ)が普及することとなりました。
右の表を見てもわかるようにツイストペアケーブルでギガヘルツ帯域のデータを送ることがいかに困難であるかがわかります。同軸ケーブルや光ケーブルならたやすく達成できるこの速度も、ツイストペアでは困難であるために以下で説明するギガビットイーサネット では巧妙な方法を用いてギガビットの速度を達成しています。
▲ モジュラージャック(Modular Jack)
イーサネットケーブルに使われているコネクタは、電話で使われているモジュラージャックに形状が極めて似ています。電話のモジュラージャックは、米連邦通信委員会(FCC:US Federal Communications Commission)が制定したRJ-11(RJはRegistered Jackの略)という6ピンのものが一般的で、他にRJ-14、RJ-25、RJ-45、RJ-48などが取り決められています。イーサネットケーブルに使われるモジュラージャックは、RJ-11より大きい8ピンのものを使っています。形状が電話用に規定されたRJ-45モジュラージャックに極めて似ているため、RJ-45という呼び方が一般的になっています。しかし、本来、電話用のRJ-45はイーサネットで使われるRJ-45とは形状が若干異なり、配線も異なります。電話用RJ-45は、結線が中央部の2つのピン(No.4 + No.5)だけしか結線されておらず、残りのピンは抵抗器で短絡処理されています。またジャックの形状が片側の横部に出っ張りがもうけられていて(キー溝処理)、キーのついたRJ-45ジャックはイーサネットに接続できないようになっています。従って、イーサネットで使われるモジュラージャックは電話用のものと区別するために、「8P8C」という言い方をするようになっています。どうしても「RJ-45」を使いたい場合は、「イーサネット用RJ-45」と但し書きで使うことが望ましいと言えましょう。
8P8Cモジュラージャックは、100BASE-Tまでは、2対(4線)しか使用しておらず残りの4線は開放になっていました。つまり1番ピンと2番ピンを送信線(TxD)にあて、3番ピンと6番ピンを受信線(RxD)にあて全二重通信ができるようになっていました。
ギガビットイーサネットでは、4対8線の信号線をすべて使っています。従って、100BASE-Tで使っていたUTPケーブルを1000BASE-Tで使う場合には、ピン配線がすべて結線されているカテゴリー5以上のものを使う必要があります。
▲ ストレートケーブルとクロスケーブル
RS232Cやイーサネットケーブルなどのシリアル転送を行うケーブルには、2種類の配線処理を施したものがあります。ストレートケーブルとクロスケーブルです。どうしてこのような2種類のケーブルがあるのでしょうか。コンピュータを直接接続(ピア・トゥ・ピア = peer to peer)する場合を考えてみます。この場合、一方のコンピュータから送り出されるデータ(TxD)は相手の受信(RxD)ポートに入らなくてはなりません。コンピュータは自身で送受信の切り替えを行いません。従って、コンピュータ同士の直接接続をする場合送信データを受信側に持っていくクロスケーブルが必要になるのです。ケーブルは本来ストレートケーブルが基本です。コンピュータは多くの場合マスターになるものであり、コンピュータに接続される周辺機器はスレーブとなるので機器側には予め送受信を変換する機能、すなわち、ホストであるコンピュータから送られてくるデータを受信部で受けてホストコンピュータに送るデータはケーブルの受信ポートへ流す機能が備わっています。従って、この場合はストレートケーブルを使えば問題なく通信ができます。コンピュータ同士はお互いがホスト(主人公)なのでストレートケーブルでは通信がなりたたないのです。コンピュータ同士を接続する際に直接ではなくてハブを介して行う場合は、ハブ内部に送受信の切り替えがついているのでストレートケーブルを使うことができます。クロスケーブルは、コンピュータ同士の一対一の接続などの極めて限られた用途に使われるだけで、ほとんどの場合ストレートケーブルが使われます。
100BASE-Tまでのケーブルは、以下に示す2対(4本)しか使っていません。送信線(TxD)と受信線(RxD)の2系統です。クロスケーブルは、送信→受信という結線になっています。ストレートケーブルは当然、送信→送信、受信→受信という配線です。イーサネットケーブルのピン配置は面白い配線になっていて、ピン番号1から8まで順番通りになっていません。4番ピンと5番ピンを避けて配線されています。これは、イーサネットケーブルが電話線の規格と同じものを使っていて、電話線ですでに中央の4番ピンと5番ピンが使われているので、ここを避けてイーサネット通信に適用しました。従って、送信は1番ピンと2番ピンを使い、受信は3番ピンと6番ピンを使う取り決めになっています。ギガビットイーサネット では、4対(8線)をすべて使わないと速度が足りないのですべて送信線になり、同時に受信線にもなっています。
▲ ギガイーサネット(Giga-bit Ethernet)
1999年に規格化された1000BASE-T(ギガイーサネット)では、8P8Cコネクタに結線されている8本すべてのピンを使って送信しています。1Gビット/秒のデータ通信をこれまでのツイストペアケーブルの延長で行うと帯域が不足してしまうため、4対(8線)すべてを使って目的とする通信速度を達成しています。この手法はもはやシリアルとは言い難くパラレル転送と言えなくもありません。また、1000BASE-Tでは4対8線のすべてのケーブル線を使って送信するので、通信は全二重とはならずに半二重通信になるのではないかと思いたくなります。しかし、ツイストペアケーブルを使うギガイーサネットではハイブリッド回路がもうけられていて、送信と受信を位相反転することによって混信を回避できるため4対8線すべてを使って同時に送受信が可能となっています。
さらにまた、1対の信号線には従来「0」と「1」の信号しか乗せていなかったものを1000BASE-Tでは電圧を変えて5種類(+1.0V、+0.5V、0V、-0.5V、-1.0Vの5進数)の信号パターンを使っています。これを4対の信号ラインで同期を取って送るので、54 = 625種類のデータを一度に送ることができます。2進数で言うと10ビットの数字を扱うことになります。
■ 8B1Q4(8bit-1 quinary quartet)の導入
8B1Q4は、とても難しい言葉です。これは要するに1000BASE-Tでの信号を送る取り決めです。1000BASE-Tでは4対8線すべてを使って高速通信をします。このとき、4対の信号線に8ビットの情報を振り分けて並列に送る方式を採用しました。これが「8B1Q4」という規格です。この言葉の意味は、8ビットの情報を5進数(quinary)に直して4ライン(quartet)の通信線で送るという意味です。1000BASE-Tでは、4対の通信線で5種類の信号パターン(5進法のデータ)を送りますから、4桁の5進数情報となります。4桁の5進法は、10進法では54 = 625までの数値となります。元の情報は8ビット(256種類)ですので数が倍以上多くなりました。数を多くしたのは、高速通信でのエラーを防ぐために、元の8ビット情報にエラー検出ビットを1ビット加えて9ビット化しているためです。9ビットデータは512種類なので625種類ある4桁5進法表示で十分に対応できます。
話をまとめますと、
『1000BASE-Tでは、既存のツイストペアケーブルを使って高速通信をするために4対の信号線をすべてを使って送信し、信頼性のあるデータとするために8ビット情報を9ビットにし、これをさらに4ラインに9ビット情報を振り分けるために5進法データとした。 』
ということになります。
この方式の採用によって、1ギガビット/秒のデータは4対の信号線で振り分けて8ビットの元情報を送ることになるので、1000Mビット/秒 / 8 = 125M ビット/秒の速度で送信すればよく、カテゴリー5のイーサネットケーブルを使ってもなんとか初期性能を達成できる数値となりました。
■ オートネゴシエーション(Auto-Negotiation)
ギガビットイーサネットの普及に関しては、すべてを入れ替えるのではなく既存の設備を最大限利用して通信速度を上げるというのが基本構想にありました。ネットワーク社会に広く普及した100BASE-T環境のネットワーク設備の大枠を崩すことなくギガビット環境を織り込んでいくために、通信手順にオートネゴシエーションという機能が盛り込まれました。この機能は、通信を開始する前にネットワークがギガビットベースでできるかどうかを確認し、できない場合には100BASEで行うというものです。従って、イーサネットケーブルがギガビットで送信できる性能にない場合やハブにもその性能が満足できない場合、低速で行うことになります。
この機能をオートネゴシエーションと言っています。この機能は1000BASE-T対応のスイッチング・ハブに装備されていてデータを通信する際にどの速度で通信をするかを決めています。
■ ハブ(Hub)
ツイストペアケーブルを使うイーサネット接続では、機器はハブと呼ばれる中継器に接続されます。
ハブの仲間には機能上、以下に示すようなものがあります。
1. リピータ:
ケーブルに流れる信号の中継を行うためだけのもの。
単純にデータを右から左で流すだけなので、
送信データの宛先を読み取って相手先に効率よく転送する機能はない。
伝送距離が長くなる場合、リピータを中継してデータを転送する。
2. ブリッジ :
リピータの機能に加え、転送先のMACアドレスを解読して
適切なポートにデータを転送する(フィルタリング)機能が付加されている。
3. スイッチング・ハブ :
現在、もっとも一般的に使われているハブ。
ハブと言えばこれを指す。
本来の目的は、4台から8台のイーサネット対応機器を接続して
送信されてくるデータの宛先を読み取り適切にデータを転送し、
配布しなくてもよい宛先にはデータを送信しない機能を持つ。
階層化したネットワーク(ハブが何台もつながれた構造)での
効率よいデータ転送を行う。
それに加え、通信の手順(半二重か全二重かの判断)や、
接続されている機器が10BASE-Tか100BASE-Tか1000BASE-Tかの
判断を行う。
1990年代中頃までは高価であったが、低価格化と共に急速に普及した。
現在のスイッチングハブは多機能になリ、ピータ機能やブリッジ機能、
ルーター機能まで備えたものが市販されている。
4. ルーター
ネットワーク群相互のデータ通信を効率よく行うための中継器。
インターネットが開発される中で、必要不可欠の技術がルータの開発
であり、IMP(インプ:Interface Message Processorメッセージ転送装置)
が開発された。
IMPは、コンピュータそのものである。
1969年に1号機が完成した。当時のIMPは、ハネウェル社製のDD516
で、180cm(H) x 60cm(W) x 70cm(D)という大型のものであった。
というコンピュータIMPを使って、ユタ大学の「PDP-10」 → スタンフォード
大学の「SDC940」 → UCLAが所有している「シグマ7」での接続が行われた。
ルータは、ネットワーク上で交通整理の役割を果たし、入ってきた
パケット情報をどのルートに出してやるのが一番効果的かを判断
して処理を行う。
▲ 二種類のツイストペアケーブル(UTPとSTP)
ツイストペアタイプのイーサネットケーブルには、性能別カテゴリーに分けられた種類の他に、構造上2種類のものがあります。ケーブルをシールド線で覆った構造のSTP(Shielded Twisted Pair cable)と、シールド線を使わないUTP(Unshielded Twisted Pair cable)の2種類です。右図にケーブルの体裁を示します。STPケーブル(図の右ケーブル)では各ツイストペアケーブルがシールドされているのがわかります。シールド線を使ったSTPの目的は、外部ノイズの侵入を防ぐためです。シールドタイプのものは、ノイズ発生の多い工場などで有効であるものの、日本での普及は低く、シールド線を伴わないUTPケーブルが圧倒的です。STPは、ヨーロッパで広く普及しています。シールドタイプケーブル(STP)は、1000BASE-CXというカテゴリーに属していて、日本の家庭やオフィスで使われる1000BASE-Tのカテゴリーは、シールド線のないUTPです。STPケーブルを使う場合は、これを接続するハブやルーターにアース対応のものを使わなければならず、これを怠ると効果が半減してしまいます。シールドというものは、そもそも、装置から発するノイズを外に出させなかったり、外からのノイズを遮断する目的ですから、装置全体を完全に密封する形でシールドを施さねばなりません。水道のホースや密閉容器と一緒で、穴が空いた箇所(シールド処理を施していない部位)があるとそこからノイズが容易に侵入するので、それがかえって大きな影響を及ぼします。シールドは、特にコネクタ部でシールド性が保たれない場合が多く見られます。STPは、シールドが施されている関係上取り回しが悪く、距離も25mと限られています。また、ハブなどの関連機器を含めたコストがかかるため、この規格が普及をみない大きな理由となっています。日本では、ノイズに対する配慮をしなければならない高速通信には、STPよりも光ケーブルを設置する傾向にあります。
【GigE Vision】 (2010.02.28追記)
GigE Vision(ぎぐいー・びじょん)は、ギガビットイーサネット技術を元にした産業カメラでのデータ通信規格です。
この規格は、AIA(the Automated Imaging Association、1984年設立)が策定して管理しています。この規格は、1999年に開発されたギガビットイーサネット規格を産業カメラに対して有効にかつ簡単に利用できるように細かい規格を取り決めたものです。
GigE Visionは、一般に公開された規格ではなく、これを使う場合にはAIAに加盟し、有償でこの規格の使用許可を得る必要があります。
AIAは、営利団体ですからもっともなことです。
GigE Visionの大きな特徴は以下のとおりです。
【特徴】
1. データ転送速度: 1000 Mbps。
2. ケーブル長: 100m max. カテゴリ5以上の品質をもつケーブル
3. カメラ機器との簡便な認識 - Device Discovery機能
4. 10Gイーサネットに対応
この特徴を見る限り、一般のイーサネット規格とさほど大きな差異は見あたりません。GigEはイーサネット規格ですから当然と言えば当然です。ケーブルもハブもパソコンもギガビットイーサネット対応の市販品が使えます。しかし、イーサネットの性能ギリギリまで転送速度を向上させている点やカメラの認識のしやすさという点で細かい規定が施されています。
GigE Visionは、産業カメラ向けに使いやすいにように規格を絞ったもの、と言えましょう。
■ UDP/IP
GigEを使うと何がメリットがあるかというと、ギガイーサネットの通信速度帯域を規格の上限までに引き上げることができます。
通常のギガビットイーサネットは、通信手順が手堅いためにデータ通信速度の上限が規格の1/3程度でした。
GigEでは、通信速度を上げるために、通信手順にUDP/IPを使っています。この規格は昔(1980年)からありました。
標準的なイーサネット通信プロトコルは、TCP/IPです。
UDP(= User Datagram Protocol)は、シンプルなデータ転送手順で、データ量(= Datagram)を任意に決めてデータを送ることができます。UDPでは、データのパケット毎に受信側がデータを受け取った確認を行わずに一方的にデータを送り続けます。この方法によってデータ転送速度を向上させ、規格速度に近づけています。
この規格では、当然、データ通信時のエラー発生時の処理が問題となります。
しかし、UDPでは、この件に関しては規格として決めていません。
この問題は、ユーザ側で対応すべきものとしています。
したがって、UDPでは、エラー処理をアプリケーションソフトウェアで対応していました。
GigEは、このエラー処理手順を決めて規格化したと言えます。
ちなみにTCPは、Transmission Control Protocolの略で、インターネットで一般的になっている通信手順です。
インターネットではこの手順で全世界をつないでいます。TCPは、データパケット毎に通信が完了したかを逐次確認しています。当然TCPでは確実な通信手順を行うのでデータ転送速度が上がりません。
■ Discovery( = カメラの認識)
イーサネット接続でやっかいなのは、イーサネット機器とコンピュータとの接続です。インターネットに接続する場合、サーバの決まりによってインターネットプロトコルを設定しなければなりません。もっとも大事な接続はIP設定です。これを正しく設定しないとネットワークに接続できません。GigE Visionでは、イーサネット接続を簡単にできるようにしています。それが Device Discovery 機能です。
GigE Visionでは、3段階によってIPアドレスを設定できるようになっています。
つまり、
1. 固定IPアドレス(Persistent IP)
2. 自動取得(DHCP = Dynamic Host Configuration Protocol)
3. LLA(Link Local Address)設定
の3種類です。GigE Visionでは、カメラを立ち上げて接続されたネットワークでコンピュータとアドレスの確認をするとき、上の3種類で次々と接続の可能性を確かめて行きます。本来ならば2番目のDHCP(自動取得)が一番簡単なのですが、たくさんのカメラが一度にONされるとそれぞれの認証に時間がかかってしまうために、上の3つを柱として迅速な接続設定がなされます。
■ GVCP ( = 通信手順)
GVCPは、GigE Vision Command Protocolの略で、GigE Visionで使われるコマンドのことです。このコマンドを使ってカメラを操作します。規格が決まっているのでカメラを作る側も使う側もカメラタイプを気にすることなく操作ソフトウェアを開発したりカメラ操作を行うことができます。
通信手順は、ヨーロッパのEMVAという団体が無償のGEN<i>CAM というプログラムインターフェースを出しているので、多くのユーザはこれを利用しています。
■ GVSP ( = ストリーミング手順)
GVSPは、GigE Vision Streaming Protocolの略で、カメラからの画像をコンピュータに転送する手順を決めたものです。ギガビットイーサネットでは、従来のパケットサイズよりも大きなジャンボフレームが設定できるので、より高速なデータ通信が可能となっています。
■ GenICam ( = カメラ操作規格)
GigEが有償の規格であるので、GenICamという無料のプログラムインターフェースを利用すればGigE対応のカメラが操作できます。
GenICamは、abbreviated for Generic Interface for Camerasの略で、GigEやCameraLinkなどに対応した産業カメラの操作を統一化するために作られたインタフェース規格です。この規格は、欧州のEMVA( = European Machine Vision Association)が2006年にリリースしたものです。
GenICamで決められた規格に従い、XML言語(インターネットブラウザで使われる言語)でカメラ操作ソフトウェアを作れば、GigEに対応した産業カメラを動かすことができます。カメラのシャッタ速度やゲイン設定、データ通信などは、この規格とイーサネット規格を利用します。
GenICamは、EMVAより無料でダウンロードできます。
【CoaXPress】 (2010.03.28)(2010.04.10追記)
CoaXPressに採用されている同軸ケーブル。
ビデオケーブルと同等の75ΩBNCケーブルが使われている。
下のケーブルは、5本の同軸ケーブルを1体化した
5W5と呼ばれるケーブル。
5W5ケーブルは、5m、15m、50mの
3種類の長さが供給されている。
CoaXPress(こあっくすぷれす)は、ビデオ用75ΩBNCケーブル(右写真)を使った高速データ通信規格です。
同様のものに、放送局で使われているHD-SDI があります。
CoaXPressは、計測用デジタルカメラのデータ通信用に開発されたもので、最大通信速度6.25G bit/sの性能を持ち、4本同時に使用すれば25bit/sの通信速度が得られます。
CoaXPressの特徴は以下の通りです。
【CoaXPressの特徴】
・1本のBNCケーブルを使用(シンプルで簡便な結線)
・高速通信(ギガイーサネット通信よりも6倍以上高速)
・長距離通信(100m以上)
・1本のBNCケーブルで
カメラへの電源、カメラ制御、データダウンロードを行う。
CoaXPressの通信速度は、CameraLinkと同程度、もしくはそれ以上の通信速度となります。非常に高速でかつ簡便な通信手段です。
この規格は、オランダに本社を置くカメラメーカのAdimec社が中心となって開発されました。その後、2009年にコンソーシアムができて規格化されました。
CoaXPressを使った製品は、2010年末に発売される予定です。2010年時点では、最も新しいデジタル通信規格と言えます。
この規格に参画したのは、以下の企業です。
・ Adimec社(オランダ) - カメラ開発
・ Active Silicon社(英国) - 画像ボード開発
・ EqcoLogic社(ベルギー) - 送受信素子開発
・ Components Express社(米国) - ケーブル担当
・ アバールデータ社(日本) - 画像ボード開発
・ 日本エレクトロセンサデバイス社(日本)
- ラインスキャンカメラ開発
日本では、JIIA(日本インダストリアルイメージング協会)が標準化に向けて活動を行っています。
この規格の大きな特徴は、同軸ケーブルという馴染みの深い簡便なインフラを使ってカメラとコンピュータを簡単に接続していることです。同軸ケーブルの特徴であるケーブル長を長くすることができ、100m以上の通信距離を可能として、尚かつ最速レベルの通信速度を達成しています。
同軸ケーブルは、不平衡ケーブル ですから、データは不平衡信号となります。イーサネットやUSBで使われいる差動信号 と異なります。
同軸ケーブルは、長距離通信が得意であるものの無尽蔵に長くすることはできません。
CoaXPressの規格である6.25G bit/sの転送は、100mの長さに渡って行うことはできず、ケーブルの長さやBNCケーブルの種類によって伝送スピードが変わってきます。およそ30m程度までであれば最高スピードは確保されているようです。
この規格の面白いところは、BNCケーブル1本でカメラへ電源(最大13W)を供給し、カメラ制御信号を送り、かつ画像データを高速で受け取ることができることです。
以下に、CoaXPressの機能図を示します。
CoaXPressでは、CoaXPress対応のカメラと画像ボードが必要です。ケーブルはBNC1本を接続するだけです。
CoaXPressの心臓部は、EqcoLogic社(ベルギー)が開発したCMOS技術のEQCO62T20/EQCO62R20素子で、これでBNCケーブルを使ってデータ送受信できるようにしています。
【Fire Wire = IEEE1394、i.Link】 (2009.09.12追記)
IEEE1394のコネクタ。iLinkや小型パソコンでは右の小さいコネクタが使われる。
■ 開発背景
FireWireは、IEEE1394という名前で知られているシリアル高速データ通信規格です。 大容量ハードディスクや、DVD、カメラとの接続に使われています。この規格は、米国アップル社が当時高速通信の代名詞であったSCSIパラレル転送の置き換えを狙ったものです。1980年代後半から開発を手がけて1995年に完成しました。アップルが開発したシリアル転送方式は、当初Fire Wire と呼ばれていましたが、標準化によってIEEE1394となりました。この高速データ通信インタフェースは、1998年になってソニーをはじめとした関連企業が採用を始めました(1999年1月15日、アップル社は新型G3Mac=GossamerにこのFireWire通信機能を標準でサポートしました)。ソニーは、この規格に i.Link という呼称を与えました。
この高速通信インタフェースは、USB1.0とほぼ同時期に登場しました。両者が出始めたとき双方の性能はそれほどかぶってはおらず、両者の棲み分けはできていました。USBがマウスやキーボード、プリンタなどの比較的低速のデバイスをサポートしていたのに対し、IEEE1394は開発の目的を高速通信と使いやすさに置いていました。USBがコンピュータの一元管理で接続から解除、通信管理がなされるのに対し、FireWireはコンピュータの管理を受けなくても通信を行うことができました。接続も安定しており、通信時でのパソコン負荷がかからないため実効スピードはUSBよりも優れていると言われていました。FireWireのターゲットはSCSIであり、SCSIに比べると随分と使いやすいものになりました。FireWireは、通信ケーブルを長くすることができ、SCSIと同じようにディジーチェーンで機器を接続することができました。また電源も同一ケーブルで供給できるホットプラグ対応でした。
■ 通信速度
IEEE1394の通信速度は、当初、12.5Mバイト/秒、25Mバイト/秒、50Mバイト/秒で策定されました。ケーブルは6ピンで構成され、2対4線の信号線と+8VDC 〜 +30DC、1.5Aまでの電源を供給するパワーライン2本で構成されています。4ピンの小さいコネクタは、パワーラインが無く信号線だけとなっています。ケーブル長は1本当たり4.5mで、リピータの使用により最大総延長72mとすることができ、ケーブル太さもφ6mmでSCSIのφ10m mに比べて細くなっています。また、接続できる機器は63台までという規格になっています。これもSCSIよりははるかにたくさんの機器を接続する仕様となっていました。
IEEE1394a(2000年)の転送速度は、400Mbpsとなっていてビデオ画像を十分に送る能力を持っていました。また、2002年には800M bpsのスピードを持つIEEE1394bができあがり、さらに2006年にはIEEE1394c-2006という規格ができ、LANケーブル(カテゴリー5)を使って800M bpsの転送速度を持つようになりました。
■ USB2.0 との比較
IEEE1394は、製品が世に出されたタイミングが極めて近いUSB2.0とよく比較されます。USBは、そもそも高速通信を行う目的として作られたのではなかったのですが、USB2.0で高速通信ができるようになるとIEEE1394の通信速度が遅く感じられるようになって、USB2.0の後塵を拝する感じを受けるようになりました。現在のパソコンにはUSBポートがたくさんついているのに対し、IEEE1394はソニーのVAIOとマッキントッシュ以外はオプション扱いになっています。こうしたことから、IEEE1394b(2002年)では転送速度を800Mbpsと速くして、USBとの差別化を図るようになっています。
Fire Wireは、1対1で使うことが多い応用(デジタルカメラをパソコンに接続するとか外部HDDを接続する目的)では、転送効率が良いために実質上のデータ転送がUSB2.0よりも優れていると言われています。
▲ i.Link
デジタルムービーカメラの画像転送インタフェースとして使われているのがi.Linkと呼ばれる通信方式です。これは、パソコンのIEEE1394と同じもので、呼称を変えただけです。i.Linkで扱うテレビ信号には、i.Link(TS)(Transport Streamの略)と、i.Link(DV)(Digital Videoの略)とがあります。i.Link(TS)はデジタル放送で使われるMPEG-2 TSであり家庭用DVD機器との接続に使います。i.Link(DV)は家庭用デジタルビデオで使われているDV信号です。これらは、同じIEEE1394の仲間ですが互換性がないために、i.Link(TS)端子とパソコンのIEEE1394端子にケーブルを接続しても映像を取り込むことはできません。ただし、i.Link(DV)はIEEE1394と互換があるため、家庭用のデジタルビデオカメラの映像をIEEEE1394ケーブルを介してパソコンに取り込みことができます。デジタル受信機では、両者の信号を明確にするためにi.Link(TS)、i.Link(DV)が明記されています。
上に示したコネクタは、IEEE1394bに採用されている9ピンコネクタです。ピン配列を見てみますと、旧来の6ピンコネクタよりシールドラインが3本増えて9本になっていることがわかります。通信ラインは2対4線でツイストペアになっていて、一方の送信ライン(1ピンと2ピン)が他方の受信ライン(3ピンと4ピン)で結線されてクロスケーブルになっていることがわかります。 2008年に発表されたIEEE1394c-2006では、イーサネットで使われているカテゴリー5のLANケーブルの使用が決められています。これはFireWire 800Tとも呼ばれているもので、インターネットで実績を積んだケーブルを使うことによりより使い勝手のよい(そして安価な)通信網を構築しようとしたものと思われます。しかし、2009年の時点ではこのケーブルを使った機器やカードが市販化されたという話は聞いていません。
【USB = Universal Serial Bus】 (2009.04.01追記)(2009.09.23追記)
■ 開発背景
USBポート。取扱が簡単。管理された電源も供給される。
USB2.0では 480Mbpsの通信を可能にした。
USB (Universal Serial Bus)は、名前が示す通りパソコンに接続されるさまざまな周辺機器の通信形態を統一した、シリアル転送によるインタフェース規格です。接続機器は、マウスからキーボード、プリンタ、ハードディスクドライブなどコンピュータに接続される機器すべてが対象となりました。
USBは、1993年頃より、インテル、マイクロソフト、コンパック(現ヒューレット・パッカード)などの米国のコンピュータ関連企業と日本のNECによって共同研究が始められ、その後、デジタル・イクイップメント(DEC)、IBM、ノーザン・テレコムが加わって、3年後の1996年1月にRevision1.0として正式発表されました。
このインタフェースは多目的に使われる通信方式であるため、Universalという名前がついています。USBは、2000年あたりから急速に普及し、2009年時点ではパソコンのインターフェースの中で最もよく使われる代表的なものとなっています。通信速度がそこそこ速くて使い勝手がとても良いというのがUSB普及の大きな要因でした。
1998年5月、マッキントッシュのiMacが発売されました。その驚異的な売上で有名になったパソコンに標準装備されていたのが、シリアル転送方式のUSBでした。iMacでは、マッキントッシュが従来使用してきたプリンタポート、ADBポート(RS422シリアル転送)、SCSIを廃止してこの新しい方式を全面的に採用しました。現在ではしごく当たり前の出来事と思えることが10年前では斬新的だったのです。また、USBの決定的な普及を見たのは、Windows98がUSBを標準でサポートしたことによります。
■ 機能
USBは、マウスなどの低速データ通信からプリンタ出力へのまとまった量のデータ通信まで幅広い応用に活躍し、USBハブの使用によって最大127種類の機器との接続が可能です。USBでは、コンピュータなどのホストが接続確認からデータ転送の管理、電源の管理などをすべて行います。従って、この規格は単なる電気規格だけではなく、コンピュータ (ホスト)による管理を必要とします。USBはホストを中心とした接続なので、頂点にホストが位置するツリー構造(木構造)となります(右図参照)。USB機器をケーブル接続してホストがデバイスを認識すると、ホストはデバイスにIDを割り振ります。割り当ては7ビットで行われるため「0」を除いた127の番号がデバイスに当てられます。ハブも一つのデバイスとしてカウントされます。ケーブルは1本あたり最長5mであり、ハブは5台までシリーズに接続することができます。従って、ホスト(コンピュータ)から末端のデバイスまでのケーブル総延長は、5m x 6階層 = 30mとなります。ケーブルは、データ線が1対(2線)しかない単純なものです。このデータ線は、一方通行の信号ですから互いの送信を行うときは、通信の切り替えを行う半二重通信 となります。
■ 通信の4つのモード
USBの巧妙な所は、転送モードを4種類に分けていることです。各デバイスにはこれら4種類のモードのいずれかが割り当てられ、データの交通整理を効率よく行っています。 4種類の転送モードは、以下の通りです。
1. コントロール(Control):
USB接続や解除時のデバイス認識、パラメータ設定通信。
通信は 半二重。
転送の周期は不定で、必要に応じて行われる。
データ量は8バイトで、転送速度は1.5M bps。
データを受け取ったかどうかの再送機能あり 。
2. インタラプト(Interrupt):
マウス、キーボードなどの低速通信。デバイスに決められている
転送周期(N = 1ms 〜 255 ms)で、デバイスからのデータを
転送する。
データ量は、1 〜 64 バイト。
マウスやキーボードは、いつデータがコンピュータに送られるか
わからないので、コンピュータ(ホスト)は、1/1,000秒〜1/4秒
でデバイスにアクセスしてデータを出しているかチェックしている。
転送速度は1.5M bpsと低い。
データを受け取ったかどうかの再送機能あり。
3. アイソクロナス(Isochronous):
ビデオ信号などの垂れ流し転送用。データ受信の確認を行わず一方的に
データを送る。1ミリ秒毎に1フレームの転送。
データ量は、1 〜 1,023バイト/フレームで、最高12Mビット/秒の転送
を行う。
4. バルク(Bulk):
プリンタ転送などの一括大容量転送用。データ受信の確認あり。
データがうまく送れなかった時は再度同じデータを送る。
インタラプトとアイソクロナスでの転送がないときを見計らって、
8/16/32/64バイトの4種類のいずれかで転送。
細かいデータ量であるが、12M bpsの最高の転送速度を持っている。
これらの転送モードは、USBが低速から高速までのデータ通信を行わなければならない関係上、データ転送を効率よくおこなうために決められたものです。マウスやキーボードからのデータは、量的にそれほど多くはないものの、絶えずそれらの情報を監視してその情報でコンピュータを動かさなければならないので、インタラプトモードが指定されます。プリンタやメモリスティックなどへのデータ転送は、まとめて一気に行う必要があるのでバルク転送となります。ビデオ画像を表示する装置では連綿と大量のデータが送られるので、再送要求を行わないアイソクロナス転送となります。
これら4つの転送モードで、どのモードの優先度が一番高いかというと、
アイソクロナス転送 > インタラプト転送 = コントロール転送 > バルク転送
という順番になっています。プリンタへのデータ転送(バルク転送)は優先順位が低いために、他のデータが通信ラインを占有しているとそれが空くまで待つ仕組みになっています。通信が空いた瞬間を狙ってデータを送り出し、合間を縫って再びデータを送り出す仕組みをとっています。一番優先順位が高いのはアイソクロナス転送で、すべての通信に優先します。この通信が行われているとき、これがマシンに負担をかけている場合、マウスもキーボードも動きがぎこちなくなります。私が使っているパソコンにはUSB接続のテレビアダプタがついていて、テレビをパソコン上で放映させながら他の作業をすると速度が落ちます。アクティビティモニタを使ってコンピュータのCPU稼働率を見てみると(下図参照)、USBテレビのアプリケーションでのCPUの負荷は109.2%を示しています。このことから、USBによるテレビ放映はコンピュータにかなりの負担をかけていることが理解できます。
■ 電源管理
従来の通信ポートは、コンピュータに電源が入っているときにケーブルを抜き差しすることはできませんでした。これを行うと機器との通信が途切れたり、認識しなくなったり、パソコンがフリーズしたり、コンピュータの基板が損傷する危険がありました。Windows PCの専用マウスとキーボードは、PCを立ち上げたままケーブルを抜いてしまうと再び挿入しても動かず、再度PCを立ち上げ直さなければなりません。SCSIケーブルを使った機器接続でもこの傾向が強く、1990年代、パソコンがSCSI周辺機器を認識してくれるかどうかいつも神経を使っていました。私は、SCSI機器を電源をいれたままパソコンに接続し、マザーボードを損傷させたことがあります。それほどデリケートな通信ポートだったのです。それがUSBでは、電源を入れたままマウスやキーボードのケーブルを抜き差しができ、ケーブルを再度挿入してもパソコンは都度接続した機器を認識してくれます。パワーマネージメントがしっかり管理された規格だと言えます。ただ、そうだからと言ってUSBのプラグを闇雲に抜き差しするのは危険です。HDDやメモリスティックなどでは大量のデータを保存しますからデータ転送中にUSBプラグを抜くとデータが壊れるおそれがあります。こうした機器では、ケーブルを外すときホストとデータのやりとりをしていないことを確認する必要があります。USBから供給できる電源は、初期のもので供給電圧が4.4VDC、供給電流は100mAでした。USB2.0では5VDC、500mAとなりました。これ以上の電源をUSBケーブルから供給することができません。
USB1.1規格の特徴は、以下の通りです。
● フルスピードモードで、12Mbps(1.5Mバイト/秒)の高速転送が可能。(USB2.0では480M bps)
● USBハブを介して、SCSIのような数珠つなぎ(デイジーチェイン)ではなく
ツリー状(階層状)の接続を行う。最大127台の装置の接続が可能。
● ケーブル長は、最長3m(USB2.0では、5m)。
● ハブの接続は、5ヶまで可能(ハブ経由で30mまで延長可能)。
● デバイスへの電源の供給: 4.4VDC、100mA以下(USB2.0では、5V、500mA)
● 取り扱いが容易:コンピュータの電源やUSB装置の電源が入った
ままで、USB装置の抜き差し(ホットプラグ)が可能。
また、USBインタフェースを採用した装置なら、その種類を問わず接続が可能。
● 4種類の転送モード
1. コントロール(Control) : デバイスの認識、パラメータの設定。
2. アイソクロナス(Isochronous) : 映像、音声などのリアルタイム転送。
1ミリ秒毎に最高1,023バイトのデータを転送。最高12Mビット/秒の転送。
再送がないために一方通行のデータ送信で確実性は保証されない。
3. インタラプト(Interrupt) : マウス、ジョイスティック操作などの低速リアルタイム転送。
1.5Mビット/秒での転送。
4. バルク(Bulk) : プリンタ、モデムなどの不定期的大量データ転送。
上記2つのモードを持つ機器のデータ転送が行われていないときに実行。
■ USB2.0規格
2000年4月、USBが高速になってUSB2.0となりました。USB2.0の通信速度は480Mbpsとなり、USB1.0より40倍もの高速通信を可能にしました。この速度は高速通信を目的に作られたIEEE1394aをも抜き去るスピードでした。USB2.0では、アイソクロナスモードにおいて125us単位で1,024バイトのマイクロフレーム転送を行います。このモードで8.192 MB/sの転送を実現しました。以下にUSB1.xの規格から変更された主だった項目を挙げます。バージョンアップの根底は、従来のUSB1.xの環境をそのままにして、より高速通信を可能にし信頼性を向上させたことです。
・ 転送速度: 480M bpsと高速になった。USB1.xで採用された12/1.5M bpsの転送と混在できるようにしている。
・ 互換性: USB1.xと互換性を維持するために、ケーブルやコネクタは変えない。
・ データ信号: USB1.xでは、3.3V差動信号。USB2.0では400mVの差動信号のLVDSとなった。
・ コントロール転送: USB1.xでは、8/16/32/64バイト。USB2.0では64バイトのみとなった。
・ インターラプト転送: USB1.xでは、1 〜 64バイト。USB2.0では1 〜 1024バイトとなった。
・ バルク転送: USB1.xでは、8/16/32/64バイト。USB2.0では512バイトとなった。
・ アイソクロナス転送: USB1.xでは、1 〜 1023バイト。USB2.0では1 〜 1024バイトとなった。
・ デバイスに供給する電源: 5V、500mAとなった。
■ 接続認識
USBの問題を強いてあげるとすると、たくさんの機器が接続できるために通信上の安定性が損なわれたり、通信スピードが遅くなったり、そして末端に接続した機器の認識が不安定になることです。USB通信の大きな特徴の一つに、デバイスをホストがすべて管理していることがあげられます。つまり、通信はホストを頂点としたツリー構造となって管理がトップダウンで行われています。この特徴がよくもあり問題ともなるところです。SCSIなどは、ホストの管理が厳しくないので機器間で直接データ伝送ができます。IEEE1394は、SCSIの後継として開発されたので直接接続ができます。USBは、ホストが中心になってデバイスが絶えず通信可能かどうかチェックしています。USB1.1では、1.5usの時間をおいて通信がとぎれるとデバイスが切り離されたと解釈します。また、デバイスが接続されたときにホストは127個のアドレスの一つを割り振ります。USBに流れるデータはパケットになっていて、これにホストが割り振ったアドレスをつけて送り出します。アドレスに指定されたデバイスは、そのパケットを受け取ります。
USBが出回った当初は、デバイス間のコンフリクトがよくあったことが思い出されます。つまり、二種類のマウスを接続すると一方のマウスが動かなくなったり、マウスを外して別のポートに接続すると動かなくなってしまったりと認識に問題がありました。今(2006年〜)は、かなり改善されてそのようなプリミティブな問題は少なくなりました。
このようにUSBはパーソナルユースではとても使いやすい反面、基幹ユースではお奨めできません。基幹ユースでのネットワークは、イーサネットに一日の長があります。
■ USBに使われるコネクタ
USBには、以下に示すコネクタが使われています。この中でタイプAとタイプBがもっとも一般的なものです。USBの信号線はとてもシンプルであり、標準USBは4本の信号線しか使っていません。2本がツイストペアの差動信号 線で、残りの2本が機器に供給する電源ラインです。極めてシンプルな結線で高速通信が行われているのは驚きです。USB経由で供給される電源は、5V、500mAであるので2.5Wの電力を機器へ供給することができます。ハードディスクドライブやプリンタは、2.5W以上の電源を必要とするので、この場合はこの電源ラインからではなく別途電源を供給する必要があります。
■ USB3.0規格
USBは使い勝手が良いので技術開発の取り組みも速く、2009年末にはUSB3.0規格の製品が登場するようです。USB3.0は、USB2.0の10倍強の5Gbpsの通信速度を持っています。ケーブル長は5mから3mと短くなったものの、ギガイーサネットよりもIEEE1394よりも高速通信ができる性能です。
USB3.0は、より高速のデータ通信を達成する目的で2008年11月17日にversion1.0が決められました。製品は2009年暮れ頃に出ると予想されています。これらの製品は、当面、パソコンでは拡張ボードとして供給され、周辺機器装置はこれに接続して使うものと思われます。パソコンに標準装備されるのは、2011年以降と言われています。
2010.07の時点では、USB3.0対応のHDD、PCI-Expressカード、PCカード(ExpressCardスロット)、ケーブルが市販されています。ハードディスクのデータ通信装置での使用から始まっています。
USB3.0の最大の特徴は、データ転送速度が5G bpsになったことです。この速度はUSB2.0の10倍以上に相当します。データ転送の高速度化を実現するために、新しいコネクタを作って10ピンとなりました。右図のコネクタは、Micro-Bコネクタの上位互換性を持ったUSB3.0のものです。これはUSB2.0で使われていたMicro-Bコネクタに新たに5ピンの信号線をもうけて、ここに2対4線の送信線を走らせています。1ピンから5ピンは従来のUSB2.0で使われているピン配列です。このピン配置からわかるように、USB3.0では送信と受信を別々に行う全二重通信 となっています。USB2.0までの通信線は1対(2線)でしたから半二重通信でした。
電源供給ポートは、従来の1ピンと5ピンで行っています。供給できる電源は、USB2.0の500mA(5V)から900mA(5V)と80%アップしました。USB3.0ではケーブルの長さに規定はなく、送信帯域が確保できるケーブルであればどんな長さでも良いとされています。しかし、メーカが保証して販売するケーブルは最大3mと言われています。これはUSB2.0の5mよりも短い長さです。通信周波数が高いので、あまり長くはできないものと思われます。
USB3.0の高速通信で恩恵を受けるのは、デジタルムービカメラの映像通信やSSD(半導体メモリ)装置です。デジタル映像の世界ではHDMIによる映像の送受信が普及してきていますが、USB3.0はそのHDMIの領域に踏み込んだ速度性能と言えます。コンピュータの世界では注目すべきものと言えましょう。
【D端子(D-Terminal)】 (2007.04.16)(2009.11.07追記)
D端子は、家庭用ビデオ機器に使われている映像端子です。コネクタの形が「D」の文字に似ていることからD型端子と呼ばれました。Digitalの意味のD端子という誤解を招きやすい名前のためにデジタル転送と思われがちですが、アナログ信号です。従って、デジタル機器でD端子で出力する場合は、デジタル信号をいったんアナログ信号に直して受像機器に送っていることになります。
端子は、7ピンx2段の合計14ピンで構成されています。内訳は、輝度信号(Y信号)と色差信号(Pb、Pr)の3つの同軸ライン(6信号ライン)と3系統の制御信号(識別信号)(3信号ライン)、それに一つのホットプラグ検出信号(2信号ライン)の合わせて11信号ラインとなります。14ピンのうち、残りの3ピンは予備です。識別信号(3系統)にはグランドラインが割り当てられていないため、外被(FG = フレームグランド)がグランドになっています。
コネクタの形状からわかるように、BNCやRCAのような同軸シールド構造をとっておらず、コネクタ部での電磁シールド効果が崩れています(ケーブルには同軸ケーブルが使われています)。このコネクタは、当然ノイズに対する配慮が弱いので長いケーブルでは信号が鈍ったりノイズが入りやすくなります。しかしBNCコネクタやRCAコネクタより取り回しが良いので、短い長さの映像信号ケーブルとしてこのタイプが普及しました。
D端子は、JETA(社団法人 電子情報技術産業協会)によって映像コネクタ及び映像ケーブルの仕様が決められました。これは日本独自の規格であり、世界標準にはなっていません。日本で販売されている現在(2007年)のテレビにはすべて取り付けられています。
以下の表示にあるD1〜D5は、放送局用のデジタルVTRの規格(D1-VTR〜D5-VTR)と混同しがちになりますけれども、両者の関連性はありません。
表示
映像フォーマット
D1
480i
D2
480i、480p
D3
480i、480p、1080i
D4
480i、480p、1080i、720p
D5
480i、480p、1080i、720p、1080p
i はインターレース、p はプログレッシブを示す。
映像フォーマットの数値は、画像の縦の画素数を示す。
右上の写真は、我が家のテレビについているD端子です。D端子の外観はD1からD5まですべて同じなので、どの映像フォーマットに対応しているかわかりません。したがって、テレビにはどの映像フォーマットに対応しているかが明記されています。我が家のテレビは、D4まで対応しているので1080iか720pのハイビジョン映像をこの端子を通して見ることができます。従って、このテレビでは1080pは見られないことになります。プレイステーション3のような高級ゲーム機は、D5の出力を持っていてハイビジョン画質を提供しています。
D端子は、以下に述べるHDMI端子の出現とともにその存在が危ぶまれています。その理由は、D端子ではアナログ信号のためセキュリティのプロテクトがかけられなかったり、画質が思うように向上しないという問題があるからです。また、高品位のアナログ出力を持つ映像機器の販売を中止するという動きも活発になってきているため、D端子を装備せずにHDMI端子の受像機器になっていく可能性も大きくなっています。
【HDMI(High-Definition Multimedia Interface】 (2007.04.16)(2009.10.02追記)
HDMIは、家電向けAV機器向けに開発されたデジタル通信の規格です。日立、東芝、松下、ソニー、フィリップス、トムソン、Silicon Image社7社が中心となって2002年12月に規格化されました。HDMIは、コンピュータディスプレイ接続方式のDVI(Digital Visual Interface) 規格をベースに、音声伝送機能や著作権保護機能、色差伝送機能を加えて拡張したものです。
この端子が装着されたAV機器は、2006年以降から出荷され始めたので、それ以前のAV機器では装着されていないものが多く、2006年12月ソニーのPlayStation3(家庭用ゲーム機)で標準装備されて話題となりました。
HDMIは、ケーブル1本で最大5Gbpsの伝送速度を持っていて、非圧縮のデジタルハイビジョンの伝送が可能です。HDMIで採用された高速データ通信方式は、TMDS(Transition Minimized Differential Signaling) というデジタル伝送技術であり、1990年代後半にコンピュータ用液晶 モニタに接続する映像信号(DVI)に採用されました。この信号伝送技術が、HDMIにも採用されました。
この技術は差動信号 を使っているので長い距離を伝送させるのは不得意で、1.5m〜3m程度のケーブルが中心となっています。
2007年には10m長のケーブルが発売されました。
HDMIでは、信号ピンが19ピンあります。その内訳は、TMDSの映像信号線が3対(6線)とそれぞれのシールド線(3線)、クロック信号が1対(2線)とそのシールド線、それに電源と制御線などから構成されています。3つの映像信号線は、RGBの映像信号であり、これをクロック信号に合わせてデジタル信号で伝送する仕組みになっています。
アナログビデオ端子(上写真)とデジタルビデオ端子(DVI)(下写真)
デスクトップパソコンではデジタルビデオ端子が普及しているが、ノートパソコンの付属モニタ出力や液晶プロジェクタの端子には依然として上図のアナログ端子が使われている。
■ TMDS(Transition Minimized Differential Signaling)
TMDSは、高速デジタル通信を目的としたシリアルデータ通信です。信号は差動信号 を使っています。TMDSは、シリコンイメージ社(Silicon Image Inc.)が開発したもので、デジタル映像分野で採用されてきました。これは、同社がフラットパネル・ディスプレイとビデオカードを接続する目的でPanelLinkという名前で1997年に開発したのに始まります。この技術がデジタル映像信号であるDVI に採用されて、HDMIにも採用されました。TMDSと同じ高速デジタル通信を行うものに、米国National Semiconductor社が開発したLVDSがあります。両者は、共通した部分(差動信号を採用)がいくつかありますが、TMDSは既存のCMOSデジタル素子を使った3.3V信号ルールなので、安価にできるメリットがあります。
この技術を使ったHDMIは、5Gbpsの通信速度を達成しているのでこの素子で1チャンネルあたり1.65G bpsの映像信号を送っていることになります。
【DVI(Digital Visual Interface)】 (2009.10.01記)(2009.10.07追記)
アナログ信号が主体であったコンピュータ画面表示を、デジタル信号に置き換えたのがDVIです。
映像信号は、何度も述べているように非常に広帯域の信号であり、コンピュータ表示画面といえども2000年ぐらいまではアナログ信号が中心で、D-sub15ピンを用いたVGA端子(アナログ信号)が圧倒的に使われていました。
これは、IBMがパソコンを発売した1981年から続いています。
2009年にあっても、液晶プロジェクタの入力端子はVGA端子が主流です。講演会やセミナーで使う液晶プロジェクターは1,280x1,024画素程度なので、アナログ映像端子でも十分なのかも知れません。
ちなみに、2009年の時点で市販されている1,920 x 1,020画素相当の液晶プロジェクタの入力端子にはDVI端子はなく、代わりにHDMI端子がつけられています。
液晶プロジェクタに使われている他の入力端子としては、旧来のVGA端子(コンピュータ接続用)とRCA端子(アナログビデオ端子)、それにS端子(アナログビデオ端子)が装備されています。ノートパソコンに装備されている外部接続用モニタ端子は、2009年にあってもハイエンドモデルでない限りほとんどVGA端子となっています。
ノートパソコンでDVI端子を標準装備しているのはアップル社の製品です。2002年に発売されたPowerBook G4でDVI端子が標準装備されたのが最初です。アップル社のマッキントッシュは、グラフィック関係のユーザが多く、マッキントッシュ専用のフラットディスプレー(Cinema Display、1999年より発売)の入力端子には、すでにDVI(もしくはDVIをアップル独自にアレンジしたADC = Apple Display Connector)が使われていたことから、ノートパソコンにもいち早くDVI端子を標準装備したものと思われます。
アップルは2002年以降、彼らが発売するノートパソコン(PowerBook、MacBook、MacBook Pro、MacBook Air)のすべてにDVI端子(サイズを小さくしたmicro DVIやmini DVI端子)を装備させています。
■ DVI規格
DVIは、液晶ディスプレーの登場とともにデジタル信号伝送が本格化した1994年に規格化され、1998年にTMDS技術を使ったDVI端子のモニタが市販化されました。DVI規格そのものは、DDWG(Digital Display Working Group)というコンソーシアムによって1999年4月にRev.1.0として制定されました。DDWGは、インテル(Intel)、シリコンイメージ(Silicon Image)、コンパック(Compaq、現HP)、富士通、HP(Hewlett-Packard)、IBM、NECが参加した団体です。DVIの根幹技術は、シリコンイメージ社が開発したTMDS(Panel Link)でした。この技術は、2002年12月に開発されたHDMIにも使われました。DVIでは、テレビ放送のような画素数と映像周波数の縛りがないので画素数と周波数の制限は規定の帯域内で自由に選ぶことができました。
DVIを採用した液晶モニタは、高画素で鮮明な画像を提供しました。
DVIでは映像送信に圧縮技術を使っていません。
1画素RGB各8ビット、計24ビットデータをそのまま伝送しています。この映像信号にコントロール信号(クロック)がついていて、この信号に従って1画素ずつ表示しています。
高画素表示を行う場合は、帯域が不足するのでもう1系統のRGBラインを足してデュアルモードで表示しています。
シングルモードでの画像は、1,280 x 1,024画素@85Hz、もしくは、1,920 x 1,080画素@60Hzまでの伝送が可能です。
それ以上の画像に関してはデュアルモードとなり、非圧縮データで最大3,840 x 2,400画素@33Hzまでのデジタル転送を行っています。
DVI規格では、同軸ケーブルを使っていないのでケーブル長を長くすることができず、最大5mと決められています。
■ DVI端子
DVI端子は、上右の下図に示すように24ピンのデジタル信号ラインとC1〜C5のアナログ信号出力で構成されています。デスクトップパソコンには画像ボードにこの端子が装備されています。
本体(マザーボード)は、従来のアナログVGA端子が装備されています。このVGA端子は表示能力が低く非常時に使うモニタ出力です。
液晶プロジェクタの場合、ほとんどがDVI端子を備えていないので、DVI端子にあるアナログ信号を使うため変換アダプタを使って接続します。
変換アダプタは、DVI端子に割り当てられているアナログ信号のC1〜C5ピンを使っています。これはアナログ信号ですから、当然画質も悪く高画素のものは送れません。
DVIのデジタル信号は、TMDS技術 が採用され、赤、緑、青の3信号成分とクロック信号で構成されています。
信号はツイストペアケーブルによる差動信号 が使われています。赤、緑、青の各信号はコネクタピンの左端の縦列2つを使っています。すなわち、赤が1と2ピン、緑が9と10ピン、青が17と18ピンに割り振られています。各信号ピンの隣のピン(3、11、19ピン)はそれぞれのシールドピンに割り当てられています。
シールドピンを挟んだ隣の2ピンはデュアルモードで使う際の赤(20、21)、緑(4、5)、青(12、13)が割り当てられています。
デュアルモードの信号線のためのシールドピンは、シングルモードで使われているシールドピン(3、11、19ピン)と共用になっています。
■ DisplayPort
DVI端子は、デスクトップ型PCの画像ボードには標準で装備されるようになったものの、ノートパソコンでは十分な普及を見るに至っていません。その理由としては、DVIコネクタが大きすぎること、コストが割高であること、HDMIによって存在価値が薄くなっていること、より高画素表示に対応する規格の必要性が出てきたこと、などがあげられます。
その要望に応えるために、DisplayPortが作られました。DisplayPortは、2006年5月にVESA(Video Electronics Standards Association)によって1.0が発表されました。DisplayPortの大きな特徴は、データ転送速度が10.8G bpsと高速になり、USB程度の大きさのコネクタで15mの伝送ができるようになったことです。また、この規格の使用にあたっては特別なライセンス料やロイヤリティが発生しません。
DisplayPortは、DVIやHDMIと互換性があり、変換アダプタの使用により映像信号を送受信することができます。しかし、DisplayPortにはアナログ信号出力がないので、従来のVGA端子を持ったディスプレーや液晶プロジェクタには接続できません。DisplayPortの信号線は20ピンで構成されていて、内訳は、レーンと呼ばれる4系統の信号線とグランド線 [ 4 x (2+1) = 12線 ] 、予備信号線が1系統とグランド線 [ 2+1= 3線 ] 、ホットプラグ線、DCパワー線、グランド線3線の20ピンとなっています。
この規格は、2009年の時点で、画面表示が水平1,400画素を超えるDellなどのノートパソコンの外部映像端子として装備されています。ソニーのVAIOにはこのポートの装備はなく(DVI端子もない)、HDMIの装備に特化しています。
【仕様】
・転送速度: 最大 10.8G bps(2.7G bps x 4レーン)
・レーン数: 4レーン(4ペアの差動信号ライン)
・各色階調度: 最大16ビット(RGB3色)
・コネクタピン数: 20ピン
・音声信号: 転送可能
・伝送方式: 8b/10b
・ケーブル長: 最大15m(1920 x 1080画素@24ビット/画素、60Hz時)、フル帯域では2m長。
・DVI、HDMI変換伝送: 可能
・ライセンス料: 無料
【HD-SDI(High Definition - Serial Digital Interface)】 (2008.06.19記)(2008.07.02追記)
HD-SDIは、1994年に開発されたデジタルハイビジョンの通信規格です。
放送局のハイビジョンカメラ、VTR、編集機器間を接続する時に使われています。 従って、我々一般のコンシューマー向けではありません。その証拠に一般のテレビ受像機、DVDレコーダにこの端子はありません。
この規格に使われているケーブルのコネクタには、BNCコネクタが採用されています。アナログ放送時代のケーブルの取り扱い勝手を踏襲したと思われます。このケーブルを使って、1080i(1080本のインターレース)のデジタルハイビジョン信号をおよそ100m程度まで伝送することができます。
HD-SDIでは、1.485Gbpsの通信を確保しています。ハイビジョンのデジタル信号をHD-SDIと言っているのに対して、通常の画像のデジタル信号(480i、480p)をSD-SDI(Standard Definition - Serial Digital Interface)と呼んでいます。
ハイビジョン放送を始めた当初の映像機器は、たくさんの信号ケーブルを使ってパラレル転送を行っていました。しかし、ハイビジョンカメラを普及させていく場合、ケーブル配線やケーブル自体のコスト高が懸念され、1992年4月にシンプルなケーブル配線によるデジタルハイビジョン信号規格が着手されました。
この時に指導的役割を果たしたのが放送技術開発協議会(BTA)で、2年後の1994年4月にHD-SDIの規格制定がなされました。この規格が米国の映画テレビ技術者協会(SMPTE = Society of Motion Picture and Television Engineers)で採用されて、SMPTE 292Mとして制定されました。
HD-SDIのケーブルを見ると、BNCプラグを用いたちょっとごつい(太い)ケーブルという印象を与えます。5m長程度のケールでは、見た目にBNCケーブルとほとんど変わりません。このケーブル1本でハイビジョンの信号を送ることができるのでとても重宝します。また、このケーブル1本で100mまでの伝送が可能です。しかし、撮影現場では長期間使用していると接触不良を起こしたり、ケーブルの曲げで特性が落ちて画質が悪くなることを心配し、カメラから機器への10m程度の伝送に使われ、それ以上の長さでは、光ファイバーに変換して中継車などに送っているようです。
HD-SDIのケーブルは、外径φ6mmほどの同軸ケーブルで高い映像周波数を送るために、従来の同軸ケーブルに比べて材質を見直しています。運用上で頻繁に折り曲げられるケーブルは、使用とともに伝送周波数が落ちてくることも考慮に入れ、通常のBNCケーブルよりも品質の厳しいものが要求されています。
【LVDS(Low Voltage Differential Signaling)】 (2006.07.13記)(2009.02.14追記)
LVDSは、高速データ通信を目的に1994年に作られた信号規格です。
LVDSは、それまで高速データ通信として一般的であった20MHz信号の送信ができるRS-422差動信号データ通信規格を拡張し、65MHzで30m長の転送ができるようにしました。
この規格では、RS-422が±2 〜 5Vの信号電圧であったのに対し、その信号電圧の1/10、±250 〜 450mVの極めて低い電圧でデータを転送しています。1V以下の電圧で、よくもまぁ信頼性の高い高速通信ができるものだと感心します。
低い電圧でデジタル信号を作った理由は、電圧の立ち上がり時間を短くできるために高速通信に適しているためでした。
しかし、低い電圧ではノイズマージンが低く、ちょっとしたノイズでも信号を犯してしまいそうです。
LDVSでは、低い信号電圧を採用した代わりにしっかり電流を流す(3.5mA)方式とし、尚かつ、2つの信号線を対としてこのペアの信号ラインに位相が180°ずれた、すなわち反転した信号を流す方式としました。
これを差動信号(differential signaling)と言い、ノイズに強い信号とすることができました。
多くの信号線は、1つのラインに信号を乗せて、もう一方はグランドに落として使うことが多かったのですが、LDVSでは2本の線がペアとなって一つの信号を送っています。
■ 応用
LDVSを採用している通信規格は以下の通りです。
・FPD - Link:フラットパネルディスプレー
・DSI:Display Serial Interface
・RS-644:
・SCSI :Ultra-2 SCSI以降
・FireWire :コンピュータ通信バス
・Hyper Transport: コンピュータ通信バス
・SCI(Scalable Coherent Interface)(IEEE1596 - 1992):高速コンピュータバス。Futurebsu(IEEE896)より発展。
・シリアルATA :ハードディスク、CD/DVD装置とのコンピュータ内部接続
・RapidoIO:チップ間、もしくはボード間の高速転送規格
・SpaceWire:欧州で規格化された航空機使用での通信規格
・CameraLink :カメラ画像データ転送
・DSI(Display Serial Interface): モバイル機器の画像表示用規格
・LDI(LVDS Display Interface): LDVSを使った画像表示規格。ケーブル長は10m。2048x1536@60Hz
▲ 差動信号(Differential Signaling)
差動信号(Differeintial Signaling)の考えは、電話器ができた時代からありました。電話信号(アナログ信号)では、音声信号を送るのに2本の電気信号線を用いて、一つには正常の音声信号を送り、もう一方には正常の音声信号と全く反対の、180°位相のずれた信号を乗せています。2本の線には、従って、GND(グランド、接地)成分がありません。電話器は、数km離れた交換台まで信号を送らなくてはならず、通常の方法、つまり、一方に信号を乗せてもう一方をグランドとする方法では、歪みやノイズが乗りやすいという欠点があります。電話線では、音声信号に対して600オームのインピーダンスを持つようにケーブルが作られています(600オーム平衡ケーブル)。こうすることにより、電話線をどれだけ長くしても、理論上、電線間の抵抗(インピーダンス)が600オームに保たれるので信号の減衰を低く抑えることができます。そうした平衡状態を作って、さらに、両方の信号線に互いに反転した信号を送ることにより、耐ノイズ性を高めることができました。この差動信号は音響の世界にも取り入れられていて、マイクからの信号をアンプに接続する回路にも差動信号を使った平衡回路が使われました。
コンピュータの世界でも、耐ノイズ性の高い差動信号はいろいろな所に使われています。例えば、マッキントッシュが使い始めたRS-422という信号や、USBケーブル、ツイストペア式のLANケーブル(10Base-T、100Base-T、1000Base-T)、SCSI、シリアルATA、PCI-Expressなどに応用されています。差動信号に対する信号として片側ラインだけ信号を送る方式をシングルエンド(single-end)信号と言っています。両者の言葉と平衡、不平衡は同じ対義語になります。
▲ ツイストペア(twisted pair)
差動信号を送るときに使うペアになった2本線は、互いに接触して撚った体裁になっています。イーサネットケーブルもLVDSケーブルで使われているペアの信号線は撚って配線されています(右写真)。なぜ、このように撚るのかと言うと、ノイズ成分を除去するためです(平衡ケーブルの項参照 )。電線に電流が流れると、電流の流れる進行方向に対して右ネジの法則に従って磁力線が発生します。二本の信号線を離して配置すると、磁力線の方向が相乗されて強まります。しかし、ツイストペアにして信号線の配置を互いに入れ違いにすると、互いに弱め合って電磁ノイズを出さなくなります。また、外から入る電磁ノイズに対しても、2本の信号線が平行で離れていると電流として流れるようになりノイズが乗るようになります。ツイストペアにして信号線の配置を互いに入れ違いにしておけば電流が相殺されます。このように、信号線を撚り線にすることは、電磁ノイズを外に出さないことに加え、外からのノイズもキャンセルしやすい構造(EMI = Electro-Magnetic Interference 対策)とすることができます。ツイストペアは、差動信号(平衡信号)だけでなく不平衡信号を送る際にもノイズ除去の観点から使われることがあります。
▲ LVDSの特徴
微小電圧による差動信号を使ったLVDSの高速データ通信の特徴は、以下の通りです。
・ 信号電圧が低い。信号電流が3.5mAで、終端抵抗が100Ωであるため、
信号電圧は最大350mVである。低い電圧ではあるが、電流をしっかり流すのでノイズには強い。
・ 実際のLVDSドライバでは、1. 07 V - 1. 41 V(電位差0.24V)のパルス信号を採用している。
・ ノイズマージンは、±100mVである。
・ 信号は差動電圧信号(differential signal)である。位相の反転した
信号をペアとして送受信するのでノイズに強い。
・ 低い電圧のため高速応答のパルスが作りやすく(電圧の昇降の時間が短い)、
消費電力が極端に少ない。
・ データ転送速度は、ツイストペア銅線で推奨655Mビット/秒。
このデータ通信(LVDS)は、1990年代後半から一般的になり、スーパーコンピュータを使用する長距離高速大容量データ送信に使われ始め、高精細カメラ(メガピクセル、数枚/秒転送)の大容量高速画像通信にも使われるようになりました。この規格は、信号だけの規格なので、LVDSを取り入れたRS-644規格が作られたり、他に SCSI やFireWireにも採用され始め、大型液晶(1400x1050画素)の画像データ通信用にも使われました。
LVDSは、計測カメラ用のデータ通信規格であるカメラリンク(CameraLink) にも採用されています。LVDSの特徴は、先にも述べたごとく、低い電圧での高速通信が行え、電力も低く、差動信号であるため信頼性が高いことです。但し、信号線は2本の線を撚り線にして、互いに反対方向になった信号(位相が180°ずれた差動信号)であるため、データ線の数だけのペア信号線が必要となり、グランド線が共通とならず、信号線が多くなるという欠点があります。下の図は、LVDSのサンプル回路です。ICメーカでは、LVDSドライバ/レシーバをICパッケージで供給しているので、そうした素子を購入して回路を作ることができます。図では、左のドライバ部に信号が入力されると、1.41Vで互いに位相の異なる信号作り出して送り出し、これをLVDSレシーバで受け取って、再び入力信号と同レベルの信号に変換出力しています。ドライバーとレシーバの間は、ツイストペアラインで30mまで延ばすことができ、65Mbpsの信号を送ることができます。ツイストペアラインはレシーバの手前で100Ωで終端させておく必要があります。これは、レシーバ部にはほとんど電流が流れないので(入力インピーダンスが高いため)、100Ωで終端させてしっかり電流を流す回路とし、信号波形が歪んだり遅れが出るのを防ぐ意味があります。LVDS素子は、CMOS技術によって作られています。
【カメラリンク(CameraLink)】 (2006.06.24記)(2010.07.07追記)
カメラリンクは、一般的な通信規格ではなく工業計測カメラ専用のデータ通信統合規格です。従って、パソコンに標準で装備されるものではないので、コンピュータに接続するにはカメラリンクPCIボードやPCカードをパソコンに装備してカメラリンク出力を持つ計測カメラと接続します。
工業計測カメラは、規格の統一が図りにくい製品で、メーカが独自に画像通信ケーブルやコネクタを採用して販売する傾向にあります。多種多様なケーブルやコネクタ、それに画像を取り込む画像通信手順が個別になっていたのではユーザが困るだろうということで、米国のカメラメーカであるPULNiX社(2003年4月よりJAI PULNiX社 → 現JAI社)の働きかけで、画像ボードメーカ、ケーブル・コネクタメーカ、ICメーカらが中心となって2000年10月にCameraLinkの規格化がなされました。
カメラリンクは、まったく新しい規格というわけではなく、従来、カメラメーカが個々に採用してきた最新技術をとりまとめて規格化し、メーカ(カメラメーカ、画像ボードメーカ、ケーブルメーカ)間での製品の互換性を良くしようというとしたのが規格化の動きでした。
■ LVDSとチャンネルリンク
カメラリンクでは、転送信号にLVDS を採用しています。LVDSでは、2本の信号線(1対)で1つのデータを送るために、つまり、グランドを共通にした信号線ではないために、パラレル(並列)でデータを送る場合には、信号線の数が多くなるのが欠点でした。この問題を解決するために、パラレル信号を高速シリアル信号に変換する技術(チャンネルリンク = Channel Link)を採用して、伝送ケーブルの本数を少なくしました.チャンネルリンクは、米国National Semiconductor社が開発した技術です。このチャンネルリンクとRS-644(LVDS)の技術をベースにして、信号形態のみならずコネクタ・ケーブルのハーネスにいたるまでを規格化し、互換性を持たせるようにしました。
■ 概略仕様
以下にカメラリンクの概略仕様を示します。
・伝送データは、28ビットのパラレル信号を8ビット単位で
一つにまとめた3対のシリアルデータ(A/B/Cポート)と、
4ビットステータスデータの1対に変換している。
データはこれらを合わせて4対となる。
・上で述べた4対のシリアルデータに、1対のクロックデータ
を加えた5対のデータ線で構成される。
・ケーブルは複数本の使用が可能となっており、データ数の
多い画像通信では2本、もしくは3本での使用が可能。
・クロックは、66MHz(最高85MHz)が基本。
パラレル伝送のためトータルデータレートは、
1.93GHz(2.35GHz max.)
= 1.93Gbps(2.35Gbps max.)
となる。この転送速度は、28ビットのパラレル信号を
基本としたBaseモードの速度であり、複数のケーブルを
使ったMediumモードやFullモードの場合には、より高速
な転送を可能にする。
・Base/Medium/Full モード
Baseモードでは、24bitデータと4bitのステータスデータ
の転送を行い、Mediumモードでは倍の48bitデータを送り、
Fullモードではさらに16bitデータを追加した64bitデータ
を転送する。
・コネクタは、3M社の26ピンコネクタ(MDR-26)を採用。
また、カメラの小型化に伴い、小さいコネクタ
(ミニCLに従ったSDR)が規格化された。
・ケーブル長さは、推奨で最長10m。
上図に、カメラリンクの構成を示します。ケーブルは1本での使用が基本で、2本まで使うことができます。1本のケーブル使用がBaseコンフィギュレーションと呼ばれるものです。データを高速で送るには2本同時に使います。この時は、Mediumコンフィギュレーションか、Fullコンフィギュレーションとなります。
Medium/Fullコンフィギュレーションで使用する場合は、ケーブルを2本同時に使用することももちろん、カメラ側とフレームグラバ側双方にそのモードが装備されていることが必要となります。ケーブルのコネクタは、両方とも3M社のMDR 26ピンオスコネクタになっていて、方向性がなくどちらを接続しても問題ありません。ただ、Fullコンフィギュレーション仕様のカメラをBaseコンフィギュレーションで使う場合は、正しくBaseのレセプタクルに挿入する必要があり、フレームグラバ側にもBaseのレセプタクルに結線する必要があります。
カメラやフレームグラバには、単に形状が同じレセプタクルが二つついているだけのものがあり、Baseであることの明記がなされていないので、ケーブルを間違って結線することがよくあります。上の図を見ると、Baseコンフィギュレーション部にカメラコントロールやシリアル通信機能がつけられていてMedium/Fullではデータ転送ポートだけなので、間違った結線をすると正しい通信ができなくなります。
カメラリンクでは、図を見ればわかるようにカメラへの電源は供給されておらずデータ通信だけです。カメラ電源は別途用意しなければなりません。
【PoCL(Power over CameraLink)規格】 (2006.09.02記)(2009.08.14追記)
PoCLは、上で述べたカメラリンクの派生規格でカメラリンク自体にカメラに供給する電源を組み込んだ規格です。これは、2004年8月に規格化の動きが始まり、2007年2月に規格化されました。カメラリンクは米国のFAカメラ(計測用カメラ)メーカが中心となって策定しましたが、PoCL規格は、日本のメーカが中心となって策定されました。
Factory Automation(FA)分野で使われているカメラは、日本の場合、NTSC(RS170)規格に準じたアナログ信号による機器が圧倒的なシェアを持ち、米国で主流になってきていたデジタルカメラへの移行は簡単には進んでいませんでした。これはとりもなおさず、アナログカメラが安価であったこと、30コマ/秒での撮影、ストロボなどを使った同期撮影、データ取得、画像処理体系が整ってしまったこと(デジタルで30コマ/秒は高価であったこと)が理由として挙げられます。しかし、2007年頃より、デジタルカメラのデータの転送速度や処理装置の性能が追いついてくると、デジタル化への動きが加速されて行きました。
デジタル化へ移行する場合、CameraLink規格は魅力あるものでした。しかし、アナログ信号でシステムを構築してきたユーザやメーカにとっては考慮しなければならない問題がありました。すなわち、カメラリンクでは、カメラへ供給する電源が別になっていて、小さくなったカメラにカメラリンクコネクタとは別の電源コネクタを配置しなければなりませんでした。その点、アナログカメラには、ソニーが採用したヒロセの12ピンコネクタがついていて、ここには電源、ビデオ信号(アナログ信号)、制御信号などが組み込まれていて、1本のケーブルをカメラに接続するだけで配線ができました。従って、もしカメラリンクにカメラ電源を入れ込むことができ、カメラ寸法も従来のアナログカメラと同じサイズであるならばデジタルカメラへの移行をスムーズに行うことができます。スペースに制約が多いFA検査装置では、カメラサイズが一定に保たれることは大きな魅力です。こうした素朴な要求がこの規格を生み出しました。
また、カメラから送られてくる映像データは、ユーザが開発した画像処理ソフトによって処理されるために、画像処理装置は現行のものを流用したい要求があります。つまり、カメラをデジタルに代えた時、そのデータを受ける画像ボードが旧来のものと互換がとれるようなPCIバスボードである必要がありました。さらに、デジタル化される画像は、旧来のアナログ画像以上の画質を持つことが求められました。
新しいカメラリンクの規格PoCLは、2004年、FAユーザが画像ボードメーカ(マイクロ・テクニカ社)へ寄せられた要望から始まったと言われています。規格化への道のりは、カメラメーカである(株)シーアイエスが中心となって、2005年6月に国内のボランティアワーキンググループ(Working Group Japan = WG-jpn)8社が賛同し活動を開始しました。WG-jpnには、画像ボードメーカ(マイクロ・テクニカ、アバールデータ、スタック)、カメラメーカ(シーアイエス、東芝テリー、日立国際電気)、ケーブルメーカ(住友スリーエム)、画像処理装置メーカ(ファースト)が参加しました。
この規格は、現時点(2009年)でもっとも新しい規格です。
【Light Peak(ライトピーク)】 (2010.07.18記)
Light Peakは、2009年にインテル社が開発した光ファイバーを使った通信方式です。
桁違いの高速通信(10 Gbps 〜)と長距離通信(100m)が可能で、旧来の通信方式(IEEE1394、USB、SATA、HDMI)を凌駕するポテンシャルをもっています。実際のところ、昨今のコンピュータ通信規格は多種多様なものが現れて、PCの側面や背面にはたくさんの通信ポートが取り付けられています。こうした多種のポートを減らす目的にLight Peak技術が使われる潜在能力を持ち合わせています。これは1990年代の終わりに登場したUSBがRS232Cやセントロニクス、SCSIの役目を終えさせて行ったのと良く似ています。
2010年7月にあっては、まだ製品すらでてきていません。ただその能力の高さ故に大いに注目されていることは間違いなく、ソニーがこの技術に早くから興味を示していると言われています。
■特徴
Light Peakの大きな特徴は、光ファイバーを使った10Gbps〜100Gbpsの超高速度の通信速度にあります。これは、 USB3.0に比べて2倍から20倍の性能を持っています。2009年の開発時点で10Gbpsの性能が出ていて、今後10年に渡って100Gbpsを目標に開発が続けられるそうです。ただ、100 Gbpsの速度は、PCI-Expressの規格を越える速度でありこの速度が達成されてもPCに接続する手だてがありません。また、10 Gbpsの通信速度を満足できるバスは、現在のところPCI-Express 16xしかないのうが実情で、このバスは主にモニタ用の画像ボードにあてがわれているので、2スロット分のPCI-Express 16xをもつPCが必要です。
光ファイバーは、コア径125um(外径0.5mm)という太いファイバーを使うために、小さいコア径を持つタイプのような位置合わせに神経を使う必要はなく、簡単な(安価な)ファイバーコネクタを使用できます。このファイバーで最大100mの通信が可能です。使用するレーザは特に説明がないけれども赤〜赤外を使用するようです。
通信は、送信と受信の2本の通信線を使っていて、チップにはそれが2系統(4本)装備されています。 コネクタはUSB、IEEE1394と似たような形状にして簡単な操作で着脱できるようです(この形状はまだ正式な発表はないようです)。
Light Peak は、IEEE1394のようにディジーチェインで機器間を接続するようです。
■ ファイバー
ファイバーは、プラチックファイバーを採用しています。プラスチックファイバーは安価なので、Light Peakの供給には大いなる追い風だと考えられています。
2010年3月には、旭硝子がLight Peak用に「FONTEX」という商品名で出荷を始めるとアナウンスしました。
このプラスチックファイバーは、従来のアクリル樹脂と違ってフッ素系プラスチック(CYTOP = サイトップ)であるため、λ = 650 〜 1300nm の透明度を確保しているそうです。アクリルは、C(炭素) - H(水素)結合成分があり、これがこの波長領域の透明度を不十分にしている原因と言われてきました。
FONTEXは、石英光ファイバーに比べ柔軟性が非常に高く50,000回の5mmの曲げに対応しているそうです。このファイバーは、クラッドがダブルクラッド式となっているので曲げを強くしても光の漏れが少なく良好な信号伝送が行えるそうです。
伝送距離100mで10Gビット/秒を越える高速信号伝送が可能だそうです。
↑にメニューバーが現れない場合、
← クリックして下さい。
■ 画像の保存 (2006.11.09記) (2010.01.14追記)
画像を記録することはとても大切なことの一つです。記録ができなければ再び見ることができません。
画像の保存は、多くの人が利用できるように規格化されなければなりません。
ここでは、画像の規格にはどのようなものがあるのかを考えてみたいと思います。
画像は1830年の銀塩による写真術から始まり、以来180年の歴史を持つに至っています。
画像は、以下の一覧表に示す如く大きく分けてアナログ画像とデジタル画像があります。
また、一枚の静止画写真(画像)と映画やテレビの動画像という分け方もできます。
映画は、写真ができた60年後の1890年代にカメラと映写機ができ、テレビ放送規格は1940年代にできました。
デジタル画像は、パソコンの普及とデジタルカメラの普及によって1980年代後半から出発したといえるでしょう。
画像を扱うに場合には、公共性を持たせる意味で画像の取り込みや保存に関する規格を作らなければなりません。
フィルム(銀塩)であるならば、フィルムの物理的サイズ(フィルム巾と長さ)やイメージサイズの取り決めが必要であり、テレビ放送であるならば映像信号の規格が重要となります。
こうした取り決めを徹底しないと、使用者は安心して使うことができなくなります。
デジタル画像においてもさまざまなファイルフォーマットが作られて淘汰され、現在に至っています。
ここでは、重要と思われるビデオ画像とデジタル画像の保存規格について説明します。
■ アナログ電子記録(動画像)
デジタル記録が行われる前までの動画像の記録は、アナログ記録が一般的でした。
アナログ記録のもっとも一般的なものは、映画フィルムです。
この他には、2011年まで運用されるアナログテレビ放送とVHSに代表されるアナログビデオテープ録画があります。
また、2000年代前半まで使われていたレーザディスク(LD) やVHD もアナログ電子記録でした。
2000年までの電子画像記録といえば、アナログビデオ信号による録画が一般的でした。
なぜアナログ記録が一般的であったのかは、テレビ放送の歴史を紐解いて見れば明白です。
デジタル画像やデジタル放送は、つい最近(2000年以降)のことなのです。
デジタル記録では、アナログ記録とは異なる高速デジタル処理が必要で、それを行う情報処理はアナログ記録よりも高速なものを使わなくてはなりませんでした。
つまり、デジタル記録は、高速処理のできるコンピュータが普及するまで足踏みをしていたのです。
そして、何よりも高速でデジタル録画できる安価な媒体がなかったのです。
【NTSC】
NTSC 信号は、これまでにも何度も述べてきたように、アナログ信号の代名詞にもなっているビデオ(テレビ)信号規格です。米国では、通信規格としても認定され、RS-170として登録されています。この信号を記録するには、市販のVTR(ビデオテープレコーダ)、VCR(ビデオカセットレコーダ)を使います。最近までのコンピュータには、このアナログ信号を入力して、希望するデジタルフォーマットに変換して保存できるものも増えています。放送用は、2011年7月で運用が終わりデジタル放送になります。
【ハイビジョン(High Definition Television / HDTV)】
NTSC信号による映像よりも高品位なテレビ放送として登場してきたのが、ハイビジョンアナログ信号です。高品位テレビとも呼ばれました。NHKが主導して大きな役割を果たしてきました。この規格ができたときに、これを家庭でどのように保存するかが問題になりました。当時(1994年)は、2200TV本相当x1125走査線@30フレーム/秒もの広帯域情報を記録する装置など市販品として出回っていなかったのです。それでも、業務用には高価ながらハイビジョン用ビデオテープレコーダが市販されていました。当時は、高品位のテレビジョン画像を限られた通信帯域内で送ることが困難であったので、送信時に圧縮して送るMUSE(Multiple Sub-Nyquist-Sampling Encoding system)という技術が開発されました。この技術は、しかし、高速で動くスポーツ報道では画像に残像が残るという問題を抱えました。
■ アナログハイビジョン規格
・ 走査線数: 1,125本(有効走査線数は1,035本。デジタルハイビジョンは1,080本)
・ 水平画素数: 2,200画素(有効画素数は、1,920画素。デジタルハイビジョンも1,920画素)
1画素の大きさは、正方格子ではない。(デジタルハイビジョンは正方格子)
・ アスペクト: 16:9 (従来のNTSC画面のアスペクトは4:3)
・ 撮像/再生速度: 60.00 フィールド/秒 (59.94フィールド/秒ではない。デジタルハイビジョンは59.94フィールド/秒)
・ 圧縮方式: MUSE(Multiple Sub-Nyquist-Sampling Encoding system)
衛星放送の信号帯域(27MHz)の中に乗せる映像信号は1/3の9MHzが限界であるため、
圧縮は1/4とされた。
ハイビジョン放送は、大きく分けてアナログとデジタルの2種類があり、NHKが開発したアナログハイビジョンは、1989年に実験放送が開始され、実用化放送を経て2007年9月で放送を中止しました。デジタルハイビジョンは、衛星放送と地上波デジタルの2方式があります。
■ アナログ電子記録(静止画像)
アナログの静止画像というと銀塩フィルムを思い浮かべますが、磁気記録を使ってアナログ静止画像を記録していた装置があります。ソニーが1981年に開発したマビカ(Mavica)です。このカメラは、現在のデジタルカメラの先駆けとなったもので、銀塩フィルムを使わないCCD固体撮像素子を使ったスティル(still)カメラでした。この画像の記録に2インチフロッピーディスクが使われ、FM変調によるアナログ録画を行っていました。再生は、通常のテレビにビデオ端子を接続してビデオ映像を送りました。画質は570x490画素であり、ひいき目に見ても良好ではありませんでした。アナログのビデオ静止画像は、フィルム画像に見慣れたものにとって評価の対象外でした。フィルムカメラマンや放送業界の人たちは、当時、冷ややかにこのカメラを見ていました。しかし、これが来るべきデジタルカメラ時代の黎明と呼ぶべき装置だったのです。
■ デジタル記録(静止画)
デジタル画像は、基本的には画像を画素という区割りを設けてそこに濃度(色)情報を記述するという方式を取っています。その記述方式がファイルフォーマットという形になって、さまざまのものが提案されて標準化されました。ここでは、代表的な画像ファイルフォーマットについて特徴を述べます。画像のデジタル化はいろいろな用途から喚起されてフォーマットの提案がなされてきました。それらは互いに競争しながら淘汰され、現在に至っています。
デジタル画像の前には、銀塩写真のアナログ画像があり、アナログ画像をお手本としながらデジタル画像が作られてきました。また、映画やテレビを中心とした動画像を扱う分野と、写真を扱う静止画の分野ではデジタル化への取り組みが異なっています。動画像では、NTSCのアナログ画像が根底にあり、それに加えてハイビジョン画像がありました。
したがって、動画像では、1秒間に30フレームで再生し1画面を640x480画素で構成することが標準となりました。これが、VGA(Video Graphics Array) です。
静止画像では、ライカサイズの画質(イメージサイズ:36mmx24mm、解像力:約50本/mm)が一つの指標となりました。
こうした旧来のアナログ画像をお手本として、その画像をデジタイズする試みがなされ、以下に示すようなデジタル画像フォーマットが形作られていきました。コンピュータから生み出された画像は、無線放送規格の制約がないので、画素数や濃度、表示速度の制限がなく自由に決めることができました。
【TIFF】(Tagged Image File Format)(てぃふ) (2010.01.21追記)
TIFFは、静止画像として一般的なファイルフォーマット形式を整えた最初のものだと記憶しています。TIFFができるまでの画像は、各自バラバラで生データフォーマットによる画像保存がなされていました。
TIFFは、Tagged Image File Format の略です。このフォーマットは、高密度ビットマップ画像(ラスター形式)で、解像度の設定、モードコントロールを可能にしていました。TIFF画像は、最初にモノ画像(白黒画像)ができて、フルカラー(約1670万色)への対応がはかられてきました。TIFFファイルが開発されたのは1986年で、スキャナーの取り込むデータフォーマットとして米国Aldus社(DTPソフト『PageMaker』を開発した会社、現在はAdobe社に吸収)が開発しました。これをMS-DOS が採用したことから一般的になりました。
Windows の世界で有名なBMPフォーマット (マイクロソフトがMS-DOSで標準でサポートした画像ファイルフォーマット)とTIFFを比べてみると、BMPがどこに何を格納するかというファイル全体のレイアウトが予め決められているのに対し、TIFFではデータの格納場所が始めから決まっているのはファイルの先頭におく8バイト分のデータだけとなっています。この部分には、TIFFファイルであることを確認するための情報と数値データの扱い方、それにファイルに格納されている情報の「一覧表」(IFD = Image File Directory)がおかれています。この一覧表を見て、TIFFファイルを展開するアプリケーションソフトはTIFFファイルの中から必要な情報を引き出します。
TIFF ファイルは拡張性が高かったので、1990年代は様々な「方言」ができあがりました。そこでTIFFでは、TIFFを扱うアプリケーションは最低限これだけの機能をサポートしなければならないという取り決め、つまり、「ベースライン」を設け、この他の機能は「エクステンション」としてまとめて互換性を高めようとしてきました。
「ベースライン」には、RGBモード、インデックスカラー、グレースケール、2値化白黒画像があります。
TIFFファイルのサンプル画像。(画像ブラウザソフトは、GraphicConverterを使用)
画像ブラウザソフトは、ほとんどのファイルフォーマットに対応していて多種類の画像を見ることができる。
画像ブラウザで画像を開いて「情報を見る」という項目をクリックすると、
画像の情報が表示され、ファイルフォーマットのタイプや画素数、
色情報、ファイルサイズ、圧縮の有無などを知ることができる。
TIFFファイルを保存する場合、オプションボタンを押すと
下に示すようなオプション設定ができる。
TIFFでは圧縮によるファイル設定も可能である。
TIFFに使われた画像圧縮としては、ランレングス圧縮 の一種である「Pack Bits」と、G3・G4ファクシミリで知られたハフマン圧縮 系の「MH = Modified Huffman 圧縮」が使われました。
このほか、エクステンション(予備)として、CMYKモード、YCbCrモード、「LZW圧縮」、「JPEG圧縮」、G3・G4ファクシミリの圧縮方式と互換のある「MH圧縮」、「MR圧縮」への対応が計られました。
また、一つのファイルに複数の画像を格納できるのもTIFFの大きな特徴です。これにより動画を見ることもできました。
TIFFは、計測分野では大事なファイルフォーマットです。
その理由の第一は、8ビット以上の階調が保存できること、
第二の理由が、計測データがヘッダに格納でき、保管に便利なためです。
現在(2009年)でも、16ビット濃度を持つ画像の保存にはTIFFファイルが使われています。
TIFFは、EPS形式 に比べてプレビュー画像の解像度が低いので再描画が速いという長所があります。
しかし、カラー TIFF は、DTP(Desk Top Publishing :コンピュータ印刷版下)には基本的には使えないので、「Photoshop」などでEPS(Encapsulated Post Script)フォーマットにコンバートする必要がありました。
■ ランレングス圧縮(RLE)
TIFFのエクステンションに定義された圧縮手法の一つに、ランレングス圧縮(Run Length Encoding = RLE)があります。この圧縮法は、Run Lengthという名前にも見られるように連続する同じデータを「個数 + データ」というかたちで表す可逆圧縮です。この圧縮は同じ色や階調が続くべた塗り画像にはとても効果的です。この圧縮はシンプルな構造の圧縮方式であるため、写真のような複雑な画像に対しては圧縮率が高くなく、FAX送信などの線画や白味の多い画像に有効でした。Pack BitsはRLEの一種で、情報が連続しないものでは圧縮率が逆に悪くなってしまうことを改善した可逆圧縮手法です。RLEはTIFFの他にもBMPファイルにも採用されました。
■ ハフマン圧縮(Huffman Coding)
TIFFのエクステンションに定義されている別の圧縮手法に、ハフマン圧縮(Huffman Coding)があります。これは、米国電気工学者ハフマン(David Albert Huffman:1925 - 1999)が開発した数値アルゴリズムです。ハフマンコードと呼ばれるこの手法は、彼がマサチューセッツ工科大学の電気工学科の博士課程だった1950年に編み出し、1952年に論文として提出したものです。この可逆圧縮手法は、ファイル全体に現れる情報を予め統計的に処理し、現れる数値の頻度の高いものから順番に若い番号を割り振り直して記述する方式です。例えば、1024x1024画素で8ビットの白黒写真で得られた画像があるとします。これは通常の記述では、1.049MBのファイル容量となります。この画像が、例えば白一色の画像だったとすると、1024x1024画素の濃度情報は1つしかとりえません。この白の情報を一番若い数値に当てて、現れないビットは記述しないことにすると、1ビットの情報で済んでしまいます。つまり8ビットの情報が1ビットに圧縮されたことになります。
ハフマンは、情報に隠されている冗長性を組み直して効率の良い情報変換を見いだしました。
ハフマンコードは、デジタル信号処理に大いなる実力を発揮し、画像圧縮のみならずFAX通信、ハイビジョンテレビ放送、コンピュータネットワークに応用されています。
【BMP / DIB】(bit Map File / Device Independent Bitmap)(びーえむぴー / でぃあいびー)
BMPは、非常に有名なファイルです。平易な画像フォーマットであるため、現在でも計測分野で使われています。
BMPは、 Bit Map Fileの略であり、Windowsの標準画像データ・フォーマットです。
これは、 1986年に作られました。
BMPは、MS-DOSの普及で一般的になり、ワープロや表計算、データベースといったさまざまなアプリケーションでサポートされてきたため、ビジネスやWindowsコンピュータを使う世界で一番普及した画像データ形式となりました。
BMPは、読んで字の如く画素に階調(色情報)を割り当てたビットマップ(ラスター)形式の画像ファイルです。
ファイルの拡張子は.BMPまたは.DIB、.RLEです。Windows3.0からは、デバイス独立ビットマップ(DIB:Device Independent Bitmap)という形式に拡張されました。したがって、正しくはDIBファイルと言った方が良いのですが、昔からの習わしでBMPファイルと呼ぶことが多いようです。
このフォーマットでは、RGBモードで1600万色のカラーモードを持ちます。これは、Windowsの表示・印刷のためのメタ言語(GDI)によって構成されるファイル形式です。4ビットBMPと8ビットBMPではランレングス圧縮(RLE) が行えます。
この圧縮を行ったBMPファイルの拡張子が.RLEとなります。
【PICT】(Quick Draw Picture Format)(ぴくと)
Macintosh が開発された当初、描画方法を規格化したQuick Draw(くいっくどろー、マッキントッシュのグラフィックエンジン)が作り出されました。このQuick Drawを使って開発されたグラフィックフォーマットがPICT(ぴくと)と呼ばれるものです。1984年に出来上がりました。PICTの名前は、Pictureに由来しています。非常に有名なフォーマットでした。QuickDrawで記述された画像は、ビットマップ(ラスターイメージ)だけでなく、ドロー系(ベクターデータ)画像も扱うことができます。クリップボード、DA(ディスクアクセサリ)のスクラップブックの画像データはこのフォーマットで行っていました。『Paint』フォーマットと違い、扱える画面像の大きさに制限がありません。 このフォーマットを厳密に述べると、
『PICT』 → モノクロフォーマット
『PICT2』 → カラーフォーマット
の二種類があり初期は4ビット(8色)でしたが、後に24ビット(約670万色)になっています。
PICTの表現は豊かな反面、出力に難があり、印刷関係でのトラブルもちょくちょく発生しました。
特にPost Script とQuick Drawの相性があったため、取り扱いに注意が必要でした。Windows の世界ではあまり使われませんでした。
PICTは、2009年にあっては、ドロー系のPDFファイルが主力となりPICTの機能を網羅できるようになったため、ほとんど使われない画像フォーマットとなりました。
ファイルフォーマットによる画質の違い
TIFF、BMP、PICTのビットマップ画像。圧縮されてないので容量は大きい。しかし、画質は良好。
圧縮率10%のJPEG画像。JPEG独特のノイズ(モスキートノイズ)が現れる。文字の隙間の背景色が白く褪せたようになっている。JPEGでは圧縮率を高めると、細かい情報がなくなる。
上の10%に圧縮したJPEG画像を拡大表示したもの。圧縮による画像の荒れが目立つ。モスキートノイズが出るのは、8画素x8画素で圧縮を行うため。
圧縮ファイルであるGIFの画像を拡大表示したもの。GIF画像は可逆圧縮であり、原画像の情報欠落はない。文字などは、GIFの方がJPEGよりもきれい。同じ圧縮方式にPNGがある。GIFは特許の問題があったが、PNGにはない。
EPSファイル。EPSは数式で画像を記述している。ビットマップと違って、スケーリングしても最適な画像を表示。従って画像を拡大しても滑らかに表現する。
【Bayer】(べいやー)【RAW】(ろう) (2007.07.09追記)(2009.08.15追記)
Bayerフォーマットは、単板式カラーフィルタ内蔵カメラで作られた画像フォーマットです。カラー画像は、本来、RGB3色の情報の組み合わせで作られるのが一般的で、カラーカメラはこの方式を採用して3色を取り込む撮像素子で画像を作っています。Bayerフォーマット は、一枚の撮像素子でカラー画像を作るものです。最近のデジタルカメラ、デジタル一眼レフカメラ、ムービーカメラにはほとんどBayerフォーマットの単板式撮像素子が使われています。この撮像素子からの画像情報をそのまま保存すればBayerフォーマットとなります。日本のカメラメーカはこれをBayerフォーマットと呼ばずに、RAWファイル(生データ)と呼んでいることが多いようです。
Bayerファイルは、カラー画像ファイルでありながらモノクロ濃淡像のファイルサイズしかありません。BMP/DIBやTIFFファイルの1/3の容量となります。Bayerファイルでは、各画素の色配列が予め決められているので、再生時にこの配列に従って各画素の色を演算して決めていきます。
1/3のファイルサイズが魅力で、この方式(もしくはRAWファイル)のままで画像を保存することがあります。しかしながら、JPEG画像は、1/10〜1/20程度で良好な画質が得られたり、PNGファイルであれば非可逆圧縮で1/5程度の圧縮が得られるので、これらの画像ファイルを使うことも多いようです。 ただ、JPEGやPNGは、8ビット(カラーでは24ビット)濃度情報なので、カメラが10ビットや12ビット濃度を持つときは、後処理が行いやすいようにRAWフォーマットで保存し、カメラ専用の再生・画像処理ソフトウェアで好みの画像に作り替えることを行っています。
【GIF】(Graphics Interchange Format)(じふ)
GIFファイルは、米国パソコン通信の大手企業Compuserve社が1987年に開発したグラフィック用の画像圧縮ファイルフォーマットです。「ジフ」と呼んでいます。BMP がMS-DOSで採用されてから1年とたたないうちに圧縮画像が世に出たのです。通信利用(インターネット)を考慮しているためファイルサイズが小さく、どんなマシンでも読み込めるのが特徴でした。
GIFは、本来は256色までの色数の少ない画像データを圧縮するために作られました。256色ですから写真画像は眼中になかったことになります。1987年当時は写真をインターネットで流すことは不可能だったのです。
GIFでは、基本的に画像データに含まれる色のパターンを見つけだして効率よく圧縮するため、写真のようにたくさんの色がランダムに現れる画像は苦手です。また、可逆圧縮(もとのデータを壊さないような圧縮、Lossless Data Compression)のためファイルサイズはJPEG より小さくなりません。ちなみにJPEG は写真用に作られた圧縮ファイルで、非可逆圧縮方式(Lossy Compression Method)のため、画質を落としてでも画像を圧縮します。したがって、GIFフォーマットで絵などを効率よく圧縮したければできるだけ色数を少なくします。
GIFは、1990年代前半、すなわちインターネットが画像を大々的に扱うようになって一斉を風靡するようになりました。しかし、開発元のCompuserve社が特許を主張してGIFを使うユーザに使用料を請求するようになると、GIFを使用するユーザが減り、代わって無料で使用できるPNG や JPEG ユーザが増えました。
GIFの特許は、2004年で切れました。そのため、GIFを再度使うユーザが戻っては来たものの、その間にPNGやAdobe FLASHなどがGIFの性能を凌駕してしまったので、かつての人気を呼ぶほどにはなっていません。
▲ GIFの多様な機能
GIFの一般的なファイル拡張子はgifです。GIFには多様な機能があり、インターレースGIF、透明GIF、アニメーションGIFなどがその例でホームページで代表的な画像フォーマットとなっていました。
ノーマルGIFフォーマットのWebでの表示は、他の画像ファイルと同様画像を構成している一番上の行の左から右へ上から下へと1画素ずつファイルに書き込まれます。そのためダウンロードできた画素から順番に表示されるインターネットブラウザでは、この順番に表示されます。
これに対しインターレースGIFフォーマットでは、上から下へ行を順番に1行ずつ書き込むのではなく、1行目、9行目、17行目といった具合に間引いて書き込みます。したがって早い時期に粗い画面を見ることができます。
GIFの初期バージョンは256色しか扱うことができませんでした。これを解決すべくGIF24と呼ばれるフォーマットができてこれによってフルカラーのGIF保存が可能となりました。
▲ GIFが採用している圧縮方式(LZW圧縮)
GIFフォーマットの圧縮は、「LZW圧縮」方式を採用しています。LZW圧縮は米国で開発された歴史ある可逆圧縮方式(Lossless Compression Method)で、辞書を用いた圧縮方式です。辞書を用いるとは、画像を保存する際に、画像データをスキャニングしていき、データ配列を逐次辞書に書き込み、同じ配列がデータ内にあるときは、書き込んだ辞書を参照するという記述にしています。この方法によってデータを圧縮しています。
この圧縮方式は、最初にこの論文を書いたイスラエルのコンピュータ科学者Abraham Lempel(1936 - )とJacob Ziv(1931 - )の頭文字を取った「LZ」と呼ばれるものがベースとなっていました。これは1977年に発表されました。これを世界初のコンピュータ「ENIAC」を開発したSperry社に1976年に入社したエンジニアTerry A. Welchがさらに改良して、1984年に現在の「LZW圧縮」を完成させました。この圧縮アルゴリズムは、TIFFの他にモデムの圧縮プロトコルであるV.42bisや画像フォーマットのGIF、ドキュメント用のファイルフォーマットPDFとAdobe社の開発した言語であるポストスクリプト・レベル2などで使用されています。Sperry社は、Burroughs社と合併してユニシス社(Unisys Corporation)となったため、「LZW圧縮」形式の特許は同社が保有することになりました。
【JPEG】(Joint Photographic Experts Group)(じぇいぺぐ) (2010.02.13追記)
JPEGファイルは、Joint Photographic Experts Groupの略です。「じぇいぺぐ」と発音します。 一般的な拡張子は、jpgあるいはjpegです。開発にあたった団体名を冠したファイル名です。
JPEGは、 1986年に組織が作られ、6年後の1992年に最初の規格が制定されました。以後いくつかの変更を経て、2010年の時点では、画像フォーマットの標準規格となるくらいに普及しました。
静止画像の8割近くは、このフォーマットを使っていると言っても過言ではありません。JPEGの登場は、画像品質を一定に保ちながらファイル容量を軽減するという相反する要求をクリアしました。
■ JFIF
JPEGは、JFIFとも呼ばれています。しかし、一般的にはJPEGという名前が使われています。
JFIFは、JPEG File Interchange Formatの略であり、米国のC-Cube Microsystems社が開発しました。JFIFを書き表した同社のEric Hamiltonは、JPEG団体の責任者でもありました。
IFIFは、現在のJPEGフォーマットそのものです。
C-Cube社は、1988年に設立された会社で、画像データを効率よく送るための圧縮技術や専用LSIチップを開発したパイオニアでした。彼らが開発した技術には、JPEGを初めとしてMPEG があり、それらのデータ処理回路を盛り込んだ専用LSIを製造していました。これらは、1990年代の非力であったパソコンの拡張ボードに採用されて画像データ圧縮の世界を切り開いて行きました。
JPEGは、GIFと異なり写真圧縮用に開発されたフルカラー画像圧縮フォーマットです。画像は、1600万色まで対応しています。
圧縮は、非可逆圧縮をとるため一度圧縮すると元には戻りません。圧縮率を上げるとファイルサイズが小さくなる反面、画像品質が劣化します。JPEGは、 GIFと異なり写真圧縮用に開発されたフルカラー画像圧縮フォーマットです。画像は、1600万色まで対応しています。圧縮は、非可逆圧縮をとるため一度圧縮すると元に戻りません。そのため、任意の圧縮率を選ぶことができます。圧縮率を上げるとファイルサイズを小さくできる反面、画像品質が劣化します。規格策定の経緯から見てもわかるように、写真などに適したフルカラー画像フォーマットで、Internet Explorerも対応したことで、2000年代初頭はGIFフォーマットに次ぐ画像フォーマットになり、2010年の時点で最も普及した画像フォーマットとなっています。
▲ 非可逆圧縮方式(Lossy Compression Method)
JPEGでは、ピクセルデータを8 x 8のブロックに分け、一つ一つのブロックについてDCT(Discrete Cosine Transform = 離散コサイン変換)という手法を用いてデータを符号化します。DCTは、フーリエ変換手法の仲間に入るもので、情報を周波数という三角関数の数式に置き換えるものです。DCTによって変換された周波数成分を分析して処理を行います。8 x 8ピクセルのデータの中で、非常に特徴ある情報(このブロックの画像情報を決定づける変化の少ない重要な要素、周波数の低いもの)だけを最優先で残し、どうでも良い要素(= 周波数の高いもの)をふるいにかけます。
つまり周波数の高い情報(細かい画像)はここで消されてしまいます。
JPEGでは、圧縮の度合いがユーザによって決められるので、圧縮率を高めれば細かい情報がどんどんなくなり、最後は8x8( = 64画素分)が一つの情報、すなわちモザイクになってしまいます。
DCTによって変換された画像は、可逆圧縮の「ハフマン法 」と「ランレングス法 」を用いて圧縮されます。周波数の高い情報は、DCTによって消されていますから非常に高い圧縮が可能になります。DCTは、音楽ファイルのMP3やソニーの開発したATRAC、デジタルフィルタリング装置など幅広い範囲で使用されています。
▲ 4:2:2圧縮
JPEGには、8x8画素の空間圧縮の他に色情報を圧縮する機能もあります。4:2:2圧縮は、テレビ映像信号の4:2:2コンポーネントデジタル信号(ITU-R BT.601) で規格化された色情報の間引き手法です。
本来は、YCbCr = 4:4:4の24ビットの色情報ですが、色差信号(Cb、Cr)成分を間引きして16ビットとしビット数をかせいでいます。
色の圧縮には、 この他に4:2:0、4:1:1圧縮の設定もできます。この場合の色情報は、それぞれ12ビット情報となります。
こうした手法により、情報の圧縮をさらに67%から50%(半分)とすることができます。
▲ 色情報
JPEG画像の色情報の基本は、YCbCr表示系でありRGB表示系ではありません。
YCbCr表示系の方が色の圧縮が行いやすいからです。
JPEGを開発した当初の色表示は、グレースケール、RGB、YCrCb、YMCKなどが採用されていました。
しかし、これらは厳密な取り決めがなく、この多様性が逆に互換性の点で問題になっていました。
JFIFでは、この問題を改めて色の表示にYCbCRを標準と決めて、保存する際の色成分の順序をY、Cb、Crと決めました。
さらに、この保存にも、それぞれの比率を4:4:4、4:2:2、4:2:0、4:1:1の4種類を設定することができるようにしました。
▲ ノーマルJPEGとプログレッシブJPEG
プログレッシブJPEGは、インタレースGIF同様通信利用を考慮して開発された画像のフォーマットです。国際電気通信連合とISOが共同で開発しました。インターレースGIFより画質が劣りますがファイルサイズをより小さくできます。
▲ JPEGの問題点
サイズの大きくなりがちなグラフィックスデータにあって、高圧縮を実現するJPEGは注目度が非常に高く、デジタルカメラの画像やパソコン通信、インターネットでは主流となりました。しかしながら、8x8ブロックによるふるいのかけ方からもわかるように、JPEGはあくまで写真のように自然画像に対して最適化するように作られていますから、イラストや文字ではシャープなエッジ部を殺して、鈍(なま)らせてしまいます。
また、我々のように画像から計測しようとするものにとっては、エッジをなまらせるJPEGは、誤差を拡散させる何ものでもなく、計測精度を劣化させるという不具合が生じます。計測用の画像ファイルは、TIFF、BMP、GIF、PNGが理想となります。
▲ JPEG 2000
JPEG2000は、JPEGの後継ファイルフォーマットです。2000年12月に勧告されました。
が、2010年の時点にあってもJPEGほどの普及を見ていません。
この画像フォーマットは、JPEGフォーマットに比べて高画質を維持したまま圧縮率を高める改良が施されていて、JPEGの欠点であったモスキートノイズやブロックノイズ低減に成功しています。
JPEGが固定の8x8画素で圧縮するアルゴリズムであるのに対し、JPEG2000では、処理画素を可変でき、最大256x256画素を対象として圧縮を行っています。処理対象画素が大きくなった分、圧縮率が上がり、しかもモスキートノイズが出にくくなりました。
また、JPEGが圧縮アルゴリズムに離散コサイン変換(DCT: Discrete Cosine Transform)を採用しているのに対し、JPEG 2000では、離散ウェーブレット変換 (DWT: Discrete Wavelet Transform) を採用しています。ウェーブレットとは、さざなみのことで、圧縮プロセスを一義的に行うのでなく、画像の細かい変化に対して柔軟に対応する方式です。このプロセスにより、ブロックノイズなどのアラがJPEGに比べて目立たなくなっています。
このように、JPEG2000はJPEGの欠点を補ったフォーマットなのですが 、WindowsのOSが標準でサポートしなかったのがつまづきの発端で、2010年の時点においても普及率はかなり低く、多くのユーザは引き続きJPEGを使っています。
従って、JPEG2000フォーマットの画像をWebに載せても、ユーザのコンピュータにあるブラウザソフトでは見ることができません。アップル社が販売しているマッキントッシュでは、MacOSでこのフォーマットを標準でサポートしているので、アップルが開発したブラウザソフト「Safari」では、この画像を見ることができます。また、アップルの開発によるiTunesや、iPodで普及を見ているQuickTimeでもこの画像フォーマットは標準で対応しています。WindowsでJPEG2000画像を見るには、プラグインをインストールする必要があります。また、JPEG2000フォーマットは処理が難しく、画像を作るのにJPEG画像処理の5倍から6倍の処理能力(処理時間)がかかると言われています。
【PNG】(Portable Network Graphics)(ぴーえぬじー、ぴんぐ)
PNGファイルは、 Portable Network Graphics ファイルの略です。「ぴーえぬじー」とか「ぴんぐ」と呼んでいます。
インターネットで一般的になった1987年開発のGIF画像フォーマット には、ユニシス社の「LZW圧縮技術」が使われていて、これには特許料が絡んでおり、1994年以降、同社がその特許料の徴収を始めました。
これに伴い、「LZW圧縮技術」を使わない新しいグラフィックスファイルフォーマットの研究が始まりました。
WWWの標準化を行っているグループであるW3C(World Wide Web Consortium)が、GIFに代わるWeb用の画像として1994年に開発したのがPNGです。
PNGは、GIFが無償で使えなくなったために作り出された画像ファイルフォーマットと解釈すれば良いと思います。
PNGが開発された経緯からもわかるように、GIFが実現していたほとんどの機能を踏襲しています。
ただ、アニメGIFは踏襲できませんでした。これは、後にAPNGというファイルフォーマットで実現しています。
GIFが 扱える色は、1ビットインデックスカラーから各色16ビットRGB(合計48ビット)までと幅広く、アルファチャンネル(8ビット)機能も追加されています。アルファチャンネルが追加されると、画像情報は最大32ビットもしくは64ビットとなります。
アルファチャンネルは、3原色とは独立した補助色情報であり、画像にマスクをかける場合や透明度を指定するときに使用します。
PNGはまた、インターレース表示や背景画像の透明化にも対応し、高い可逆圧縮を可能にしています。
■ デフレ圧縮(Deflate)
PNGフォーマットには、「デフレ圧縮」(Deflate)と呼ばれる特許の制約を受けない可逆的な圧縮アルゴリズムが使われています。「デフレ圧縮」はアーカイバソフト「PKZIP」(1986年)や、「Zip」の作者として知られる米国のコンピュータプログラマーPhil Katz(1962 - 2000)がデザインしたアルゴリズムです。
この圧縮技術は可逆圧縮であり、LZ77とハフマン圧縮を参考にしています。
LZ77は、GIFファイルにも採用されているLZW圧縮 技術の原型のもので、イスラエルコンピュータ科学者Abraham Lempel(1936 - )とJacob Ziv(1931 - )が1977年に書き表した圧縮手法です。
この圧縮手法と、ハフマンが開発した圧縮手法の良いところを取って書き上げられた圧縮手法がデフレ圧縮であり、この手法でzip圧縮ソフトウェアが作られました。
Zipは、現在のパソコンの標準となっている圧縮・解凍ソフトウェアです。
PNGの圧縮技術は、この手法を採用しています。数ある圧縮ソフトの中で、Zipは速度と圧縮率の高さが秀逸であり、実質ライセンスフリーでもあったことからMacOSやWindowsが採用して急速な普及を見ました。
これを開発したKatzは、天才プログラマーの名にふさわしい人物でしたが、不摂生な日常生活がたたり38才の若さで他界しました。
PNGの圧縮技術は、Katzの開発した圧縮手法を採用しているのです。
PNGは、非常によくできた画像ファイルフォーマットで、可逆圧縮である(圧縮しても画像の劣化が無い)ために利用価値の高いものです。しかし、Windows98では標準でサポートしていなかったため、この画像ファイルを使用したWebでは画像を見ることができませんでした。
WindowsXPでは標準でサポートしているため問題なく見ることができるようになりました。また、「Paint」と呼ばれるWindowsXPで標準でサポートしている画像レタッチアプリケーションで扱うことができます。
【Exif】(Exchangeable Image File)(いぐずぃふ)
Exifは、 Ex changeable I mage F ile の略です。CCD、CMOSなどの固体撮像素子を使った電子スティルカメラ(デジタルカメラ)の普及にともなって、デジタル画像の統一を図るため富士フィルムが発起人となり、日本電子工業振興協会(JEIDA = Japan Electronic Industry Development Association)が1995年10月に策定しました。これはいくつかの改訂を経て、2003年9月にver.2.21と改訂されました。この規格に参画している企業は日本のデジタルカメラを作っているメーカがほとんどです。
デジタルカメラに採用されている画像フォーマットは、1998年12月、ISOでDCF(Design rule for Camera File system)という仕様が作られて、全てのデジタルカメラメーカがこれを採用するようになっています。
DCFは、メディアに保存するときのファイルシステムまでを含んだ包括的な仕様ですが、画像ファイルフォーマット自体はExif 2.2に準拠し、それにいくつか変更を加えたものとなっています。
Exif画像の構造は、基本的には通常のJPEG画像形式そのものであり(規格ではTIFFやHD Photoも含まれる)、その中に160x120画素JPEG圧縮サムネィルや撮影情報等のデーターをJPEGの規約に準拠した形で埋め込んだものです。従ってJPEG形式をサポートしているインターネットブラウザー、画像ビュアー、フォトレタッチソフト等を使えば、Exif画像ファイルは通常のJPEG画像として見ることができます。Exif画像フィアルでは、画像データそのものの他に、メタデータ(metadata)と呼ばれる撮影に関する事細かなデータも収録されています。
主なデータ情報は、以下の通りです。
・ ExposureTime: 露出時間。逆数値で表示。
・ FNumber: 撮影時のレンズ絞り。
・ ExposureProgram: マニュアル撮影、自動、絞り優先などのモード。
・ ISOSpeedRatings: 撮像素子感度をフィルムで使われているISO感度に換算して表示。
・ ExifVersion: ファイルのバージョン表示、Exif2.1ならば0210と表示。
・ DateTimeOriginal: 撮影日時。カメラに時計が内蔵されていない場合はスペース。
・ ComponentsConfiguration: 画素データ配列表示。
・ CompressedBitsPerPixel: JPEG圧縮率の表示。
・ ShutterSpeedValue: 露出時間のAPEX換算値。
・ ApertureVallue: レンズ絞りのAPEX換算値。
・ BrightnessValue: 被写体明るさのAPEX換算値。
・ ExposureBiasValue: 露出補正値。
・ MaxApertureValue: レンズの最大口径比。
・ SubjectDistance: 撮影距離、メートル表示。
・ MeteringMode: 露出測光モード= 平均測光、中央重点測光、等の表示。
・ LightSource: 使用光源、デーライト。タングステンなどの表示。
・ Flash: ストロボ使用、Auto設定などの表示。
・ FocalLength: 使用カメラレンズ焦点距離。ミリ表示。
・ FlashpixVersion: 画像ファイルがFlashpixである場合はそのバージョン表示。
・ ColorSpace: カラースペース。
・ ExifImageWidth: 画像サイズ巾。
・ ExifImageHeight: 画像サイズ高。
・ RelatedSoundFile: 画像データに音声を録音した場合音声ファイル名を表示。
・ FocalPlaneXResolution: 撮影した画像画素。部分読み出し撮影などのケースがあり、撮像素子画素と必ずしも一致しない。
・ FocalPlaneYResolution: 撮影した画像画素。部分読み出し撮影などのケースがあり、撮像素子画素と必ずしも一致しない。
・ FocalPlaneResolutionUnit: 撮像素子の画素の単位。インチかセンチメートルの単位を表示。
・ ExposureIndex: ISOSpeedRatingsに同じ。Kodakのみがこのタグを使用。
・ SensingMethod: センサーチップ表示。ほとんどのカメラが"2"の単板カラーフィルタセンサー。
・ FileSource: 画像ソース。0x03はデジタルスティルカメラ。
・ SceneType: 0x01は、直接撮影。
上の画像は、デジカメで撮影したExif画像とその画像に入っているExifデータ。
データの詳細を右に示す。
このファイルから、撮影した年月日と時間、使用したカメラ、撮影条件、ファイル容量など事細かな情報を見ることができる。
この画像は、マッキントッシュの画像アーカイブソフトウェア「Graphic Converter ver.5.9.5」を使用して閲覧した画面のコピーである。
(2006.06)
【DICOM】(Digital Imaging and Communications in Medicine)(だいこむ)
DICOMは、 D igital I maging and CO mmunications in M edicine の略です。医用画像(医学で使用されているX線画像、CT画像、NMR画像)を広範囲に使用するために、通信で画像を扱うことを主目的とした統合規格です。フォーマットの拡張子は、.dcmです。
医学の世界では、X線診断の時代から(フィルム)画像が多く使われてきました。そうした画像の多くは、病院などで保管されることが多く院外に出ることはあまりありませんでした。しかし、CTやNMR画像、超音波画像、通常のビデオ画像、デジタルカメラによる撮影が普及しインターネットも普及するようになると、そうした画像データ及び診察所見データを共通のファイルとして保存閲覧できる要望が高まりました。インターネットで送受信したり、CDやDVDにコピーするという需要が高まってきたのです。
DICOMは、 米国放射線学会(ACR)と北米電子機器工業会(NEMA)が開発し、1993年に正式に承認されました。
日本では、1991年頃からJIRA(日本放射線機器工業会:医用画像機器業者の団体)が検討を開始し、1994年に採用を決定しました。日本のMIPS委員会ではDICOMに日本語が対応できるように規格を更新し、1995年にはlossless(画像圧縮によっても画像の劣化を伴わない)方式も制定されました。
欧州ではCEN(欧州標準化委員会、Comite Europeen de Normalisation)が中心となって規格化を推進しました。JIRAは、DICOM規格の実装技術の習得、相互接続試験の実施、および、利用者へのPRを目的として、JMCP95(名古屋、1995年4月)においてMIPS規格-94/DICOMデモを実施しました。JIRAの17社、および、日本医学放射線学会の数グループの参加により、日本でもDICOM規格が確立したことを示しました。
DICOMフォーマットの根本は、共通化した「入れ子」にあります。X線装置などの診断装置で得られた画像を、できるだけ画像を劣化しないように、かつコンパクトな容量で保存し、併せて患者の履歴(カルテ)も保存して共通で閲覧しようというものです。DICOMで保存されたファイルは専用のViewerで開けて見ることができ、必要に応じて一般の標準画像フォーマット(TIFF、PNG、JPEG、AVI、MPEGなど)に変換保存できるようになっています。
【EPS、ai】(Encapsulated Post Script)(いーぴーえす、えいあい) (2009.05.06追記)(2010.03.22追記)
EPSフォーマットは、 Encapsulated Post Script フォーマットの略です。舌を噛みそうな名前ですが、下に述べるポストスクリプト 言語で構築した( = カプセルに収めた)画像ファイルフォーマットと言う意味です。EPSFとも呼ばれています。「いーぴーえす」と発音します。
EPSは、 一般的な画像フォーマットではないので馴染みが薄いかも知れません。グラフィックソフト「Illustrator」(Adobe社、1985年〜)が扱うファイルフォーマットと言えばわかりが早いでしょうか。また、世界的に有名になっているPDF(Portable Document Format、1993年開発)ファイルも、下地にEPSフォーマット技術を使っています。
このフォーマットの拡張子は、.eps、.aiです。
一般的な画像フォーマットであるWMF(メタファイル)や、マッキントッシュで使われていたPICTがOS用言語で描かれたファイルであるのに対し、EPSはプリンタ言語(PostScript言語)で描かれていることを大きな特徴としています。ポストスクリプト言語は、米国アドビ(Adobe)社 が開発したプリンタ言語です。
同社は、過去にはマッキントッシュ用のレタッチ画像処理ソフト「Photoshop 」(1990年〜)を開発しています。EPSファイルは、画像や文字、イラストをレイアウト形式に貼り込んで使用することを前提にしたフォーマットで、汎用性が高いのが特徴です。このフォーマットは、精度の高い出力が可能であるため広告版下用に使われます。Aldus Freehand や Adobe Illustrator などのソフトウェアは、PostScript(アドビ社が開発した言語) データを直接操作するのでEPSファイルとして書き出すことができます。但し、EPS自体は、画像表示できないのでモニタにはPICTもしくはTIFFファイルにして表示させる必要があります。円を描く場合、Windowsの「Paint」などのペイント系ソフトではギザギザの円になりますが、Adobe IllustratorなどのPost Script系の円はなめらかになります。表示画面に合わせて最適な画像を構築するからです。このように、Post Scriptは、使用するプリンタやモニタに合わせて精度の高い出力が可能となります。
EPSファイルは、ASCII 形式のものと、バイナリ形式の2種類があり、バイナリ形式のものはファイルサイズが半分になります。
カラーデータを4色(CMYK)分解するには、今のところEPSフォーマットでないとこの4色分解ができません。
右図は、Adobe社の「illustrator」(イラストレータ)という描画ソフトウェアの画面です。図にある黄色地と緑線で示された曲線は、3点のアンカーポイント(曲線上の白丸ポイント)が指定されているだけで、それらの点は隣同士の点とどのような曲線で結ばれているかが定義されています。その定義は、方向線(アンカーポイントから飛び出ている青色線)で決めています。方向線の角度と長さの指定により、どのくらいの曲率でアンカーポイント同士を結べば良いかを決めています。方向線は、マウスのドラッグで簡単に変更することができ、ドラッグしながら出来具合をチェックすることができます。
指定された曲線は、ベジェ曲線として数式化され、EPSファイル( = aiファイル)として保存されます。
ベジェ曲線は、フランスの工学者ピエール・ベジェ(Pierre Bezier: 1910 - 1999)が考案した数式曲線です。彼は、機械工学を修めたのち自動車会社ルノーで働き、CAD、CAMの開発を手がける中でベジェ曲線を開発しました。ベジェ曲線は、任意の曲線が数式化できるという特徴があるため、滑らかなフォントの記述として使われています。ポストスクリプトは、こうした数式を使ってフォントを作ったり画像を定義しています。
ポストスクリプト(PS、Postscript) (2010.03.22)
ポストスクリプト(Postscript)は、PhotoshopやIllustratorと呼ばれる画像レタッチソフトで有名な米国Adobe社が開発したプリンタのためのページ記述言語です。同じようなものに、キャノンの「LIPS」、エプソンの「ESC/Page」、ヒューレットパッカードの「PCL」がありました。こうした言語と、ポストスクリプトの違いは以下の通りです。
・いち早く開発された。(マッキントッシュができた1880年代)。
・プリンタに依存せずに、テキストやグラフィックが印刷できた。
こうした理由 から、広告やイラストを扱う分野でポストスクリプトは広く普及していきました。1993年に登場したPDF(Portable Document Format)は、アドビ社のポストスクリプト言語をいかんなく発揮したファイルフォーマットであり、この言語技術によりパソコンによる文書統一という大改革に成功しました。
ポストスクリプト自体には、ベクターデータ( = ベジェ曲線に代表される数式によるデータ)とラスター( = ビットマップ)データの両形式、それにテキスト印刷に必要なすべてのデータ(フォントの定義、等)が標準化されていて、グレースケールやカラーも扱えるようになっています。
ポストスクリプトで興味深いのは、バイナリコードではなく、すべてテキストで記述されている点です。これは、プリンタ自体をコンピュータとして見なしていて、プリント内容をテキストで送ってデータを受けるプリンタ側で最適なプリント出力を行うという考によっています。
この記述は、単なるオペレーションコードではなく、ハードウェアの制御や「if」などのプログラムの制御命令まで用意された完全なプログラム言語でした。
イーサネット は、この通信のために真っ先に採用されました。1980年代、パソコンが非力な時代になんとも広大な構想を練っていたものだと感嘆せざるを得ません。
【アドビ(Adobe)社】 (2010.03.22)
今では、世界的なコンピュータグラフィクス会社となったアドビ社(創始者:ジョン・ワーノック、John Warnock、1940.10 〜)も、アップルの稀代の営業マン・スティーブ・ジョブズ(Steven Paul Jobs: 1955.02 〜)に会わなければ、これだけのやっかいなビジネスを成功させ得なかったと思わせます。
やっかいだ、と言ったのには理由があります。1980年当時、ジョン・ワーノックが取り組んでいた言語「ポストスクリプト」は、気ちがいじみたという表現が当てはまるほど、現実離れした複雑なソフトウェアでした。 ポストスクリプトは、1980年代後半のパーソナルコンピュータの性能では快適にそして高速に処理することはできませんでした。それくらい当時としてはきわめて先進的で、複雑なソフトウェアだったのです。1980年代中期の多くのパーソナルコンピュータ用ソフトウェアに比べて、ポストスクリプトはけた違いに複雑なものでした。
マイクロソフト社が売り出したMS-DOSの原型であるティム・パターソン(Tim Paterson、1956〜)の書いたQDOSは、開発に半年もかかりませんでしたし、ジョナサン・サクス(Jonathan Sachs、1947〜)は、 Lotus1-2-3(表計算ソフト)を一年で完成させました。ポール・アレン(Paul Allen、1953.01〜)とビル・ゲイツ(Bill Gates、1955.10 〜)は、マイクロソフトBASICを6週間で仕上げました。アンディ・ハーツフェルド(Andy Hertzfeld、1953.04 〜)でさえ、 Macintosh のシステムソフトウェアにかけた時間は二年足らずだったのです。しかし、ポストスクリプトは、完成までに20人・年もかかっているのです!
はるかに大きな処理能力を持つメインフレームの世界なら、ポストスクリプトが生まれても不思議はありません。投資も惜しまないでしょう。しかし、現実に成功したのは、当時まだまだ小さな会社であったアップル社とアドビ社が手がけていたパーソナルコンピュータの世界だったのです。これは驚くべきことでした。スティーブ・ジョブズ(アップル創始者)にとっては自分の信念が見事に花開いた歴史的な成果だったと言えるでしょう。
ポストスクリプト言語は、マッキントッシュとアップルが開発したLaserWriter(1985年)というプリンタを接続するインタフェース言語として普及しました。1985年当時、アップルが開発したLaserWriterは、7000ドル(170万円)もの高価なもので、コンピュータ以上の値段がしました。レーザライタは、12MHzのクロックで動作する最高級レベルのCPU"Motorola 68000"を搭載したコンピュータそのもので、当時の8MHzで動くMacintoshよりも高性能だったのです。そうでなければテキストで送られてくるポストスクリプト言語を解釈して、300dpiのビットマップ画像に展開してプリントアウトすることができなかったのです。ポストスクリプトによるプリンタは、従来のプリンタの表現力を一新したものでした。
(パソコンの文化 第16話 「パソコンを形作ったアプリケーションソフト(その1) - アドビ(Adobe) 参照)
■ aiファイル:
aiファイルは、Adobe社の描画ソフト「Illustrator」用のファイル形式です。これは、DTP(Desk Top Publishing、広告宣伝、印刷物作成)を目的としており、ドロー系のグラフィックファイルとなります。描画をビット単位で行わずベジェ曲線を使った関数による記述を使っているため、ファイルを開いて文字や図形を拡大してもジャギー(ギザギザ)は決して現れません。(貼り付けたJPEG画像やPNG画像はこの限りではありません。)
Illustrator自体は Macintosh 育ちのソフトウェアですが、バージョン7.0からはWindows版が発売されました。これにより Macintosh と完全互換ができるようになりました。
■ SVG(Scalable Vector Graphics) (2010.03.15)(2010.03.21追記)
SVGは、インターネットの普及とともに使われ出したベクターグラフィックス言語による画像フォーマットです。
拡張子はsvgです。
ベクターグラフィックスとは、数式によって表現された画像であり、ポストスクリプト言語 に属する記述です。ドロー系グラフィックスと同じ意味をもちます。
ベクターグラフィックスの反対にあるのはビットマップ(ラスターグラフィックス)です。
SVGは、インターネットで使うWeb作成のXML(Extended Mark up Language) をベースとして、その言語で使えるようにSVGワーキンググループによって1998年に開発されました。
最初のバージョンであるSVG1.0は、2001年にリリースされました。
ワーキンググループには、マクロメディア、マイクロソフト、アドビシステムズ、サン・マイクロシステムズが参加しました。
この画像ファイルは、インターネットでWebを表示する際に画像ファイル容量をできるだけ小さくして、かつ希望する解像力で表示できることを目的としていました。Webで使うアニメーションや透明化にも対応していました。
SVGは、ポストスクリプト言語と同じようにテキスト形式でファイルが構成されています。「イラストレータ」やPDFで発展したポストスクリプト言語とインターネットで発展した言語が融合して、Web開発に使いやすいようにこの画像フォーマットが作られたようです。従って、インターネット教材などにこのSVGモジュールを組み込んでおけば魅力あるテキストが出来上がります。
SVGは、「イラストレータ」で何の問題もなく作成することができ、SVGファイルの編集も「イラストレータ」でできます。
写真画像をSVGで保存するのは、あまり得策ではないでしょう。写真画像は数式では表しにくいものでJPEGやPNGの方がコンパクトです。SVGは、アニメや文字やイラストなどをWeb作成用に使うことで効果が上がるように思います。
■ Flash(フラッシュ) (2010.03.21)
Flash(フラッシュ)は、Webに組み込まれた閲覧者の意向に沿って動く画像です。
従来の画像が静止画もしくは通り一遍のアニメ画像であったのに対し、Flashはマウスの操作でインタラクティブにアニメ表現ができます。パソコンの主流OSで標準でサポートしており、インターネットブラウザにもモジュールが組み込まれているので、特別なインストールを必要とせずにフラッシュ画像を見ることができます。
Flashは、米国FutureWave Software社(1993 - 1996、San Diego)が1996年にアニメーションデータ作成ソフト「 F utureSp lash Animator」を開発したのに始まります。これを同国のマクロメディア社(Macromedia、1992 - 2005、San Fransisco)が会社ごと買収し、製品の頭文字を取ってFlashとしました。
マクロメディア社は、2005年4月にAdobe社 に買収されたので、以降はAdobe Flashとなりました。
Flashの拡張子は、SWFです。SWFは、Small Web Formatの略です。マクロメディア社が扱っていたときは、ShockWave Formatとしていました。
このフォーマットの特徴は、ファイルがコンパクトであることと、画像に動きがあり閲覧者の希望に応じて表示を変えることができることです。この特徴のため、インターネットのWebで多用されるようになりました。
Flashは、開発の経緯からカメラからの画像を保存する目的で作られたのではないため、我々計測屋からの利用価値はあまりありません。画像フォーマットがベクターフォーマットであるためカメラで撮影したビットマップ画像には不向きです。もちろんビットマップ画像をはめ込んでフラッシュ画像とすることはできます。
フラッシュの動画ファイルとして、flv(Flash Vide)があります。このファイルは動画ファイルをコンパクトに収納することができ、YouTubeや、Googleビデオ、Yahoo!Videoなどが標準ファイルフォーマットとしたことから急速に普及しました。
■ SVGとFLAH (2010.03.22)
SVGとFLASHは、双方ベクターグラフィックスであり似たような性質を持っています。現在のインターネットでは、FLASHの方がインタラクティブな画像を構築できるのでよく使われている感じを受けます。しかし、FLASHは、Adobe社が保有する技術であり、使用に関してはライセンスが発生します。FLASH画像を作るには、画像を作るソフトウェアを購入しなければなりません。FLASHの再生に関しては無料のViewerやプラグインが配布されており、OSに標準で装備されているので問題なく見ることができます。このやり方(ファイルを作成するツールが有料で、見る側のツールは無料という方法)は、PDFの利用と似ています。
SVGはオープンソースなので、誰でも自由に使用することができます。このために、携帯電話用のWebに使われたり、特に地図などには小容量ファイルで高画質のベクター画像が得られるSVGが使われているようです。また、図面や技術資料などのデータファイルにはSVGファイルが使われることが多くなっています。PDFが文書の保存に軸足をおいたファイルであるのに対し、SVGはよりコンパクトなWebに組み込んだ画像用ファイルとして使われる傾向にあります。
■ PSD(Photo Shop Document) (2010.02.14)(2010.04.02追記)
PSDは、画像ソフト「フォトショップ」(PhotoShop)に使われているビットマップ形式によるファイルフォーマットです。
「ぴぃ・えす・でぃ」フォーマットとか、フォトショップ形式と呼んでいます。
PSDの源流は、フォトショップが開発された1987年にさかのぼります。
フォトショップは、レイヤー(階層)という概念をもった画像レタッチソフトであり、画像を色分解して階層状に保存したり、マスクをかけるレイヤーを追加したり、複数の画像を階層化して配置することができます。
各階層にアルファチャンネルを設定すれば、すかし画像を作ることもできます。
PSDは、印刷業界では最も標準の画像フォーマットです。学術研究においても、医学分野で良く使われます。白黒カメラに各種フィルターを付け替えてマルチスペクトル画像を作成する際に、フォトショップの階層画像機能は便利だからです。
PSDは、フォトショップを使った画像処理のプロセスを記憶するような形(レイヤーという階層化構造)で保存できるので、画像処理を再度やり直しする場合に便利です。ただし、階層化によって画像情報が無尽蔵に膨らむので、膨大なファイル容量になります。したがって、画像処理を施した最終画像はJPEGやPNG、TIFFなどに変換して、画像処理途中のものをPSDファイルで保存することを多く行っています。
パソコンの性能がフォトショップの処理についていけずに、長い時間をかけながら処理を行っていた時代を思い出します。コンピュータの性能が向上する度に、真っ先にテストに使われたのがフォトショップによる画像処理でした。2010年にあっては、32ビットCPUを持つパソコンでは基本的に2GB以上のファイルが扱えないので、フォトショップ画像もこのファイルサイズが一つの目安となります。しかし64ビットCPUではファイルサイズの限界が解き放たれますので、高画質の画像処理をグイグイと行えるようになっています。PhotoShopは、イラストレータなどとともに2003年からCS(Creative Suite)として統合的なソフトウェアとなり、「イラストレータ」など互いで作るファイルを共有しながらシームレスな環境で作業ができるようになっています。
【フォトショップの開発経緯】
PSDフォーマットを扱う「フォトショップ = Photoshop」は、パソコンのキラーソフトとなったものです。キラーソフトとは、そのソフトウェアがあるためにパソコンを購入するという存在自体が絶大なソフトウェアのことを言います。
フォトショップは、1987年、米国ミシガン大学の博士課程の学生だったThomas Knollが書き上げたコードが母体となっています。彼は、自分の持っていたMacintosh Plusで白黒画像を表示させるためのコードを書き上げました。当時、コンピュータの画面表示は、文字の羅列が一般的であり、現在のように図や写真、動画などを表示する機能は標準で装備されていませんでした。
当時は、アップルだけが画像表示できるパソコン = マッキントッシュを発売していました。しかし、それでも当時のマッキントッシュが表示する画像は白と黒の二値化画像(線画)でありグレー表示はできませんでした。
Thomas Knollは、マッキントッシュのビットマップ表示ができるグラフィック描画に着目し、そしてその画像にグレー表示を与えるべく、画像表示ソフトを完成させたのです。そのソフトは、「Display」と名づけられました。
「Photoshop」ができた背景には、Knoll家の人々の人となりがあります。ThomasとJohnの父親であるGlenn Knoll(1935〜、米国ミシガン生)は、ミシガン大学の原子力工学の教授であり、趣味が写真でした。彼の自宅の地下室には写真現像を行う暗室が設備されていました。Glennは専攻が原子力工学で放射物質の検出測定法の権威ですから、趣味の写真でも学術的に取り組んでいたことは容易に想像できます。息子のThomasもJohnも父親の血を受け継いでいて、写真が大好きで地下室にこもっては現像処理やマスク焼きに熱中したそうです。そして、彼ら3人に共通したもう一つの知的好奇心がパーソナルコンピュータでした。最初にKnoll家にコンピュータがやってきたのは、1978年で、Johnが高校生の16才の時でした。父親が買ってきたApple II Plus(64k RAM)に親子は夢中になったようです。この環境の中で写真技術とパソコンが融合し、デジタル写真処理の原型ができたと言えましょう。Knoll家にアップルがやってきた9年後の1987年にThomasはアップルMacintosh Plus購入し、このパソコンを使って父親の協力を得ながらデジタル画像処理のソフトウェアを作り上げていきました。 このソフトを見た弟のJohn Knoll(1962〜)は、Thomasが作ったソフトウェアの潜在能力を見抜きました。彼は、当時、生まれ故郷とは反対の西海岸カルフォルニアにあるILM社 = Industrial Light and Magic社に勤務していました。ILM社は、映画「Star Wars」で有名になったジョージ・ルーカスが設立したデジタル効果処理を行う会社で、1990年代の一連のスター・ウォーズ作品を手がける会社でした。Johnは、デジタル画像処理に精通していたのでマーケットもよく知っていました。Johnは、このソフトを携えて西海岸のコンピュータ関連会社に売り込みました。その中にアップル社とアドビ社がありました。アドビ社は、このソフトウェアを大いに気に入り1988年に販売契約をKnoll兄弟と結びました。フォトショップの成功とポストスクリプトの成功が現在のAdobe社の礎となったのです。
【プラグイン(Plug in)】
弟のJohn Knollは、兄の開発した画像レタッチソフトウェアを母体としていろいろなファイルを扱ったり画像処理ができるサブソフトウェアを追加する工夫を施しました。さらに、それら追加機能を母体と関連づけてつり下げるという手法を考え出しました。これが「Plug-In」(プラグイン)と呼ばれるソフトモジュールです。プラグインは、TIFFやPICT、BMPなどの画像ファイルが扱える機能であったり、各種フィルター処理などのソフトウェアモジュール、プリンタなどを接続するドライバーソフトウェアなどでした。
【Photo CD】(ふぉとしーでぃ) (2010.03.06)(2010.04.29追記)
Photo CDは、1990年代初めに作られたプロフェッショナルフォト分野のデジタル画像フォーマットです。2010年にあってはほとんど使われることはなくなりましたが、写真画像の正統的なフォーマットとして写真家や広告、印刷業界で採用されて来ました。
なぜ、現在ではPhotoCDが使われなくなっているかと言うと、
・ 圧縮フォーマットではあったものの、可逆圧縮
であり高解像度であったため、画像容量がJPEG
に比べて大きかったこと、
・ 使用料(特許)の問題があったことと、CDに
特化したこと( = CDに焼き付けるフォーマッ
トであったこと)、
・ スキャナーが安価になって個人で写真をデジタ
ルに落とせるようになり、有料で外部に依頼し
なくてもよくなったこと、
・ 記録メディアがCDに特化していたため、DVDや
HDD、そのとフラッシュメモリの発展に後塵を拝
し てしまったこと、
・ デジタルカメラが急速に普及してフィルム画像の
需要が衰えたこと
などが上げられます。
PhotoCDが開発された1990年代初めは、JPEG画像も産声をあげた時期でもありました。JPEGは無料で使用でき、しかもネットワークで簡単に送受信できたことからJPEGが写真画像の主流となり、特許料とCDへの保存に縛られたPhoto CDは時代に取り残されました。
Photo CDは、後年Picture CDという規格になります。PictureCDではJPEGを採用しました。
Photo CDは、1992年に世界最大のフィルムメーカーであるEastman Kodak社とオランダのフィリップス社との共同で開発されたもので、アナログ写真画像をデジタル変換してCDに保存するというものでした。
この画像ファイル規格は、 1990年代まで幅広く使われてきたフィルム画像をCDにデジタル記録することを骨子としていました。(オランダのフィリップス社は、日本のソニー社とともにCD規格 を立ち上げた会社です。)
従って、フィルムのネガかポジ(=リバーサル)をDPE店(フィルムの現像とプリントを行う店)に持っていくと、以下に説明する「Base」というフォーマットサイズでデジタル化しCDに焼き付けてくれました。
当時、この変換作業料金が結構高く、CD一枚分で10,000円〜20,000円だったように記憶しています。当時は、CDのブランクディスクも高く、1枚1,000円近くしていたように記憶しています。
1992年と言えば、Windows98が出る6年前であり、マイクロソフトがまだMS-DOSを販売していた時代です。CDはまだパーソナルコンピュータに標準装備されておらず、メガピクセルクラスのデジタルカメラなども広く世に出ていませんでした。天文研究関係で100万画素クラスの冷却型のフルフレームトランスファー型CCDが使われていたり、Kodak社がニコンカメラを改造して100万画素の一眼レフデジタルカメラ(DCS)の販売を開始した時代です(光と光の記録 - レンズ編、Kodak DCS参照 )。これらのカメラは100万円以上と高価でした。フィルムスキャナーもとても高価でした。これらに使われていた画像ファイルはTIFFでした。
■ PhotoCDの画像フォーマット
Photo CDの拡張子は pcdで、Image pac(イメージパック)という圧縮フォーマットを採用しています。
画像フォーマットサイズは、「Base」を基本として6種類のものがあり、容量別に1/16、1/4、1/1、4、16、64となるBase/16、Base/4、Base、4Base、16Base、64Baseがありました。高画質の64Baseは、後年規格化されたもののため、これを特にPro PhotoCDと呼んでいました。
「Base」は、512画素 x 768画素(アスペクト比 1:1.5)のフルカラー画像で、ファイル容量は1.13MBとなります。(単純計算では、1.180MBとなりますが、文献では1.13MBと表記されています。)フィルムの画像サイズ(ライカサイズ)が24mm x 36mm = 1:1.5 であるために、PhotoCDの画像サイズもこのアスペクトになりました。
このBaseが基本となって、4Baseではファイルサイズが4倍となり、画素数は縦横それぞれ2倍となります。16Baseでは16倍(画素数は4倍ずつ)になり、64Baseでは64倍(画素数は8倍)となります。
ライカサイズのフィルム画像は、2,048画素 x 3,072画素あれば情報が十分に吸い上げられるという計算でした。
今でこそ、画像ファイルはユーザが任意に縮小したり別のファイルフォーマットで自由に変換できるようになりましたが、1990年代前半において100万画素にも及ぶ画像を得るには、フィルムからスキャニングで作ることが手っ取り早い方法だったのです。コダックはここにビジネスチャンスを見いだそうとしたのだと思います。
名 称
解像力
サイズ
用 途
縦x横(解像力)
画素数
MB
Base/16
128 x192
24.8 k画素
0.07
プレビュー、サムネイル
Base/4
256 x 384
98.3 k画素
0.28
インターネットWeb用
Base
512 x 768
393.2 k画素
1.13
コンピュータスクリーン
インターネットWeb用
4Base
1,024 x 1,536
1.57 M画素
4.50
高解像力TVスクリーン
16Base
2,048 x 3,072
6.29 M画素
18.0
印刷用
64Base
4,096 x 6,144
25.2 M画素
72.0
プロ印刷
PhotoCDの規格
この規格ができた1990年代後半、DPEショップにフィルムネガを持ち込むと、Base/16から 16Base までの5つの画像を1セットとしてCDに焼いてくれた記憶があります。PhotoCDでは、CD1枚に100画像を記録できる規格になっていました。Pro PhotoCDでは4倍の大きさになるので1枚のCDに25枚の画像を保存できました。 PhotoCDの5つの画像のファイル容量を合計すると23.987MBとなります。CD1枚に100画像分を記録すると2.4GBとなります。これではCDに収まりません。650MBのCDに100枚のPhotoCDを記録するとなると、1つの画像は6.5MB以下に抑えなければなりません。16Baseの画像でも18MB相当あるのです。従って、PhotoCDは可逆圧縮手法が使われています。これは、Image Pac と呼ばれる形式でした。
■ イメージパック形式(Image pac)
PhotoCDは、16Base( = 2,048 x 3,072画素)の解像力を最大として5つの解像力で表現できる画像ファイル形式を持っています。
(Pro PhotoCDは、64Baseを含めた6種類の画像ファイル持っていました。) イメージパックは階層化構造を持ったもので、基本画像(Base)画像から付加情報によって5種類の解像力を持つ画像を任意に呼び出すことができるものです。この階層化技術(hierarchical storage format)は、米国のHP社(Hewlett-Packard)が提供したと言われています。 先に述べましたように、PhotoCDは5つの解像力を持つ画像形式で、最大のものは、16Baseの2,048 x 3,072画素フルカラーです。しかし、この画像はファイル容量を単純計算すると18MBとなります。PhotoCDでは、Baseが画像の基本となっていて、高解像度の画像を作るときには、Base画像を基本として画素間を補完して4倍の情報を持つ4Baseを作ります。さらに高解像度を要求する場合は4Baseの画像を元に画像情報を補完して4倍の情報を持つ16Baseを作ります。また、Base/4とBase/16の小さい画像は、容量が少ないので直接画像ファイルを作って保存しています。
PhotoCDの基本画像は、Baseという512 x 768画素でありこれから高画素を構築していく方式をとっています。一番高い解像力の画像ファイルから間引きして画素数を減らしていくのは理解しやすいものですが、Baseという比較的小さな画素で高解像度の画像を構築していくというのは魔法じみていて、ホントに高画質の画像が得られるのかと疑問に感じてしまいます。
これは、Baseを最終的に作り上げるとき、最初に16Baseの画像でデジタイジング(デジタル化)して、ここから1/16のBaseまで縮小していき、縮小する過程の履歴を残していくからこそできる方法だったのです。縮小の履歴は、16Base相当に現状復帰できる情報であり、この情報をさらに圧縮(Huffman圧縮 )して保存するというものでした。
1990年代当時は、この方法が画像をコンパクトにまとめて画像をストレスなく表示をし、なおかつ高解像度まで対応しているベストな方式であったと言えるかも知れません。
イメージパックが採用している画像圧縮は可逆圧縮であり、JPEGのような画像の劣化がありません。(正確には、細かい所の色情報を割愛し輝度情報だけを残すので完全な可逆圧縮ではありませんが、ほとんど問題になりません。)
イメージパックの可逆圧縮方式の基本は以下の通りです。
1. 最初の画像(フィルム画像)を16Base、すなわち、2,048画素 x 3,072画素のフルカラー(24ビット)で取り込む。 2. この画像を、RGB(3原色)ではなく、YCC(輝度と色差、YUVとも言う) に変換する。
YCCの方が色の圧縮が行いやすい。基本的にY(輝度)は重要なのでこの情報は残す。
色差情報は、細かい部位に関しては人の目は対応しないので間引く。
(これはテレビのカラー技術と同じ。)
3. 原画像を1/4に変換して4Baseの画像を作る。
この時に、変換手順を画像ファイルに残しておき、16Baseの画像を作るときの処方箋とする。
4. さらに、4Baseを1/4に変換して「Base」画像を作る。併せてこの変換手順を画像ファイルに残す。 「Base」画像を基本画像として保存する。これをもとに4Baseと16Baseを作り上げる。 5. Base/4とBase/16は、画像が小さいので予め作って画像ファイルとして保存する。
6. 64Baseは、Pro PhotoCDと呼ばれるもので、これは、最初に4,096画素 x 6,144画素を作り、
上と同様の手法で合計6種類の画像を構築する。
1990年代、4Baseの画像(4.5MB)をパソコンで開けるのは至難の業でした。画像を開けるだけで30秒程度の時間がかかっていたと記憶しています。
画素数だけを見ますと、Base画像は2000年当時に見られたデジタルカメラ(640画素x480画素相当)とほとんど同程度となりますが、しっかりしたフィルム画像から高性能スキャナー(PhotoCDに使われたスキャナーは千数百万円)でデジタル化した画像は一粒一粒揃っていて (1画素のノイズが少ない)、ヌケの良いデジタル画像が得られていました。また、単板CCD素子で得られたデジタル画像よりもカラー情報がしっかりしていました。しかし、2010年にあっては、3000画素x2000画素相当のデジタルカメラが安価に出回るようになると、画素数に絶対的なパワーがあるので縮小して使えばフィルム画像以上の画像が得られるようになりました。これにより取扱のよいデジタルカメラがフィルムカメラを駆逐していくことになりました。
■ Flashpix(フラッシュピクス) (2010.03.15)(2010.04.29追記)
画像の階層化技術をより高めたものがFlashpixです。
この画像フォーマットは、イーストマンコダック社の主導でヒューレットパッカード社、ライブピクチャ社、マイクロソフト社の協力を得て1996年に策定されました。
Flashpixフォーマットは、ライブピクチャ社が開発したIVUEというタイル機能/マルチリゾルーション機能を踏襲しています。Flashpixは、Exifフォーマットにも対応していて、デジタルカメラで得られたExifフォーマット画像をFlashpixに変換保存して閲覧することができます。
Flashpixは、迅速に高画質画像ファイルを閲覧したいという要求から生まれました。元画像とは別に、96x96画素のサムネイル画像がこのフォーマットに組み込まれていて、画像の概要を事前に見られるようになっています。それに加え、元画像を細分化して(タイル機能)、どのエリアを抜き出すかを自由に選ぶことができます。また広い範囲を見たい場合、細かい画像を送る必要はないので間引きした画像を送って通信と表示の負荷を軽減させています(マルチリゾルーション機能)。
Flashpixでは、最小単位が64x64画素で管理されていて、この画素ブロック(ユニット)をタイル貼りの構造のようにして元画像が作られています。広い範囲を見るときは、64x64画素の中の代表的な情報が繰り上げられて1画素として画像を構築するようになります。通常の画像フォーマットは、画像をパソコンにいったん取り込んでパソコン内で拡大やスクロールを行うのが普通ですが、この方法だと大きな画像をすべて取り込まなければならないので時間がかかったり通信網やコンピュータに負荷がかかります。この不具合を考慮して画像を細分化して格納し、自由にかつ高速に読み出すことができるのがFlashpixです。
【マルチリゾルーション機能】
Flashpixは、それ自体が物理的なファイルフォーマットを定義しているわけではなく、格納するデータや方法などのルールを定めたアーキテクチャであり、基本的にはさまざまな物理フォーマットに応用できるようになっています。要するにJPEG画像でもTIFF画像でもFlashpixにできるということです。
Flashpixの大きな特徴は、画像を 64x64ピクセルの1つのブロックとして管理し、このブロック単位で表示や印刷などのアクセスが行われていることです。
従って、高解像力の画像を表示したり印刷する場合に、能力のないコンピュータやプリンタでは必要以上にかかる処理時間を短縮させることができます。 Flashpix では、画像の表示を最小1/64にすることができます。
こうしたやり方は、PhotoCDと似ています。しかし、PhotoCDが画素数やアスペクト比がBASEというきまりで固定されているのに対し、Flashpixは自由に選ぶことができます。
さらにこの自由な画像サイズをもとにして、各辺をそれぞれ1/2、1/4、1/8と4段階に下げた解像度を持たせて迅速に画像表示や出力ができるようになっています。
低いCPU 能力を持つコンピュータで画像処理を行うときは、画像を間引いて処理を行い、プリントするときに時間をかけて高い解像力でプリント出力することもできます。
これを「マルチリゾルーション = MultiResolution」機能と呼んでいます。
【タイリング機能】
Flashpixのもう一つの大きな特徴は、「タイリング = Tiling」機能です。先ほど、Flashpixは64x64ピクセル四方のブロック単位で画像を管理処理していると言いましたが、このきまりを利用して、全体の画像から必要な部分だけを取り出す(これが全体を取り出さないので高速に取り出せる)機能があります。これをタイリングといいます。
従って、画像データは最初に全体をロードしておく必要はありません。最小限のストレスでその都度保管されているメディアからロードしながら、大きな画像データを処理することができるのです。
このタイリングとマルチリゾルーションの組み合わせはズーミングでも有効に機能します。
こうした Flashpix の特徴は、絵画や書物などの貴重な過去の資産やフィルム画像を高精細画像として保管し、必要に応じて希望する大きさで再生表示する目的に有効です。例えば図書館に所蔵している絵巻物や古文書を Flashpix 画像で保存して、利用したい閲覧者にネットワークを通じてViewerで見てもらうという方法です。原画像は、1GB(ギガバイト)にも達することがあります。
Flashpixでは、間引きして全体を小さい表示画像として送ったり、見たい部分だけの拡大画像を送ることができるので、必要最低限のデータ量で画像送信ができ表示スピードがアップします。
Flashpix を使用するにはライセンスが必要であり、Flashpix画像を見るにも専用のビュアが必要なため、 Flashpix という名前が世の中に広く使われているということはないようです。
■ 圧縮ファイル - 画像によるファイル容量の違い
現在使われている画像ファイルは、圧縮が一般的になっています。圧縮を行う一番の目的は、画像ファイル容量を小さくすることです。メモリが高価であった時代やパソコンの性能が上がらなかった時代、それにインターネットの通信速度が上がらなかった時代にはとてもありがたい機能でした。しかし、圧縮をむやみにかけると期待に添えない結果となります。例えば、圧縮率の高い設定で保存されたJPEG画像は、見苦しい画像となります。画像を計測手段として扱う場合には、圧縮ファイルの特徴とファイル容量の特性を十分に理解しておくことが必要だと考えます。
下に示す左右の写真は、左がBMP(ビットマップ)ファイルで、右がJPEGの10%まで圧縮した画像ファイルです。画質は一目瞭然で、JPEG画像は粗さが目立ちます。BMPファイルは、非圧縮ですから画素数がそのままファイル容量となります。
512x417画素@8ビット濃度では、以下のファイル容量となります。
512 画素 x 417 画素 = 213.5k バイト/画面 ・・・(Rec-38)
【写真画像の圧縮】
下に示したJPEG画像では、10%に圧縮してますのでファイル容量は1/37の5.7kバイトです。両者を比べると、ファイル容量がかなり小さくなった分画質が悪くなっているのが理解できます。
同じ画像でPNGファイルを作ると、155.7kバイトとなります。これは、BMPファイルの73%程度しか圧縮できません。このことからPNG(可逆圧縮ファイル)では写真のような細かい画像に対してはあまり得意ではないことがわかります。
【グラフィック画像】
その下に示したサンプル画像は、白と黒がはっきりした単純なパターン画像です。この画像でファイル容量を見ますと、BMPファイルは、通常の写真画像と同じ215.0kBとなり、JPEG10%圧縮ファイルは7.4kBで1/29の圧縮になっています。
注目すべきは、PNGファイルで、2.7kBと驚異的な可逆圧縮になります。PNGは、アニメや文字などのパターンが明確なものに対して非圧縮画像と変わらない品質で高い圧縮ができることがわかります。JPEGは、文字やグラフィック画像の圧縮では画が汚くなります(モスキートノイズが出る)。
【真っ白な画像】
最後に真っ白な画像について考察します。真っ白な画像でもBMPファイルは画素数分だけのファイル容量(215.0kB)となります。JPEGは、8x8画素で画像のパターンを見ていきますので、1/(8x8) = 1/64以下にはなりません。しかし、PNGでは1.9kBとなり1/119の圧縮になります。パターンが単純化したものほどPNGファイルの威力が発揮できると言えるでしょう。
保存フォーマット
通常の画像
白黒のパターン画像
真っ白な画像
512x417画素
8ビット(256階調)
白黒
BMP
215kB
215kB
215kB
TIFF
215kB
215kB
215kB
PNG
155.7kB
2.7kB
1.9kB
JPEG 90%
51.9kB
16kB
3.6kB
JPEG 10%
5.7kB
7.4kB
3.6kB
JPEG 1%
4.0kB
5.8kB
3.6kB
画像パターンの違いによるファイル容量の違いのまとめ(表)
上の表から、JPEGは写真画像に威力を発揮し、 パターンのはっきりした画像ではPNGが効果のあることが理解できます。
■ デジタル記録(動画像) (2007.4.15追記)(2010.05.19追記)
この項では、動画像について触れます。
アニメ動画の原理がそうであるように、静止画を時間軸に並べて再生すると動画像が得られます。パソコンの動画像はこの発想で作られました。動画像そのものは、パソコンが発達する前からありました。テレビ放送と映画です。これら三者は、独自の進展をしながらしかも互いに影響し合って今日に至っています(「動画像の歴史的な流れ」 参照)。映画やテレビがアナログ動画であったのに対し、パソコンの動画はデジタル画像からスタートしました。しかし、この動画像は放送信号(NTSC、PAL規格)から少なからぬ影響を受けています。パソコンを開発したIBM社がMSDOSコンピュータに与えた標準画面は、NTSC映像信号を規範とした640x480画素をもつVGA(Video Graphics Array)規格でした。
コンピュータの動画像は、静止画を連続して再生することから出発しました。もちろん、これに音声を入れてテレビ放送のような仕組みとしました。コンピュータの動画像は、テレビ放送よりも柔軟性を持たせることができたので、いろいろな動画像ファイルフォーマットができました。しかし、初期のパソコンは性能がよくなかったので、テレビ放送レベルの画質と音を自由自在に操ることができませんでした。
デジタル画像・音声技術が進歩してNTSC画像に匹敵するようになると、デジタル画像がテレビ放送を引っ張るような形となりました。両者は互いの文化を守りながら、パソコンで育った動画像ファイルと、テレビで培われたテレビ映像、それに映画で採用してきた映画フォーマットが入り組むようにして、デジタル動画像フォーマットが形作られて行きました。
【AVI】(Audio Video Interleaved Format)(えいぶいあい) (2009.05.19追記)
我々計測分野で最も良く使われている動画ファイルフォーマットがAVIです。最も古い規格であるこのフォーマットが20年近くも一線で使われているのは驚きです。しかも10年以上も開発元がサポートを中止してしまったにもかかわらずです。
AVIファイルは、 Audio Video Interleaved Formatの略です。マイクロソフト社が1992年にPC用に開発したムービーフォーマットです。AVIは、Windows標準のDIB(Device Independent Bitmap = BMP)画像の連続したファイルシーケンス間に、WAVEデータ(音声データ)(WAVフォーマット)を挟み込んだフォーマットとして出発しました。
■ 2GBの制約
Windws95で開発されたMicrosoft Internet Explorerには、AVIファイルフォーマットがインラインムービーとして利用されていました(右図)。
AVIファイルは、WAVE音声データと合体させている関係上RIFF(Resource Interchange File Format)という入れ物を利用しています。このRIFFの入れ物が、32ビットの文字の制約を受けるため、ファイルのサイズも32ビット(4,294,967,296 = 4Gバイト)までとなります。また、データ量にも制限が加えられ、16ビットのAVIで1Gバイトのファイル、32ビットのAVIで2Gバイトの制限となります。ファイルを圧縮して2GB以下にしても、AVIでは再生時に非圧縮と同等のメモリ領域を確保するようで、このときに2GB容量を超えるとエラーとなり再生ができなくなってしまいます。多くのマルチメディアデータにおいて、1GBや2GBのデータは十分な容量ですが、ことムービーに関しては、この限りではありません。ビデオ並のクォリティで扱おうとすると、あっという間にメモリの壁に突き当たってしまいます。
最近の(2000年以降の)高速度カメラでは、カメラに2GBから4GBのメモリ(時には16GB〜32GB)を搭載していて、撮影した画像をパソコンに転送してそのまま画像ファイルとして保存しようという傾向にあります。AVIファイルは、とても古い規格で継ぎ足し継ぎ足しで存続している規格ですから、4GBのような膨大なデータでAVIファイルを作ろうとするといろいろな障害がおきます。
それに、開発元のマイクロソフト社は、1997年(13年以上も前)にサポートを中止してしまいました。
AVIでは、どうにも拡張性がないということのようです。マイクロソフトは、1996年にAVIに変わるフォーマットとしてASF(Advanced Streaming Format)を登場させて普及をはかりますが、芳しい結果になりませんでした。
そこで、マイクロソフトは、WMV (Windows Media Video File)ファイルを2000年に登場させ、WindowsOSの標準動画ビュアであるMediaPlayerの標準フォーマットにしました。WMVをサポートする現在のMediaPlayerでは、もちろん旧来のAVIファイルを読み込むことはできます。しかしながら、OSやAVIそのものの規格から外れた2GB以上の容量を持つAVIファイルに対しては、ユーザーの責任において処理しなければならない問題として残っています。
そうは言っても、計測分野での動画処理では2010年時点でもAVIは圧倒的に主流です。
多くの計測用動画処理ソフトが、現在もなおAVIファイルを主ファイルフォーマットとし、MPEGやWMVファイルには対応していないのが実情です。DVDなどの映画がMPEG2の規格で動画像を保存しだしているため、AVIを扱うのは計測を目的とした分野に限られるようになってきました。
なぜ、AVIが今も使われているのかと言うと、AVIは一枚一枚の画像を分離して保存できるからです。しかし、AVIのコーデックには、MPEGや、H.264などの時間圧縮方式も出てきたので(この方が、圧縮率が高くて画質が良い)、こうしたコーデックを持ったAVIを計測に使う場合には、従来の常識である「AVIは一枚一枚が独立した画像」という考えができなくなり、画像処理上では問題になることがあります。
【AVIファイルの圧縮 - 圧縮コーデック】
コーデックというのは、Codecと書き、Compression & Decompression の略です。圧縮と復調という意味です。
AVIでは、データの圧縮メカニズムがシステム(OS)そのものと関係なく独立しているので、圧縮コーデックドライバがインストールされていれば、いろいろなタイプの圧縮が可能です。逆に、適切なドライバがインストールされていないと圧縮されたデータが読み出せず映像部が再現されません。使用している圧縮コーデックに関する情報は、ビデオストリームのヘッダに4文字のIDのかたちで記録され、再生時に指定されたドライバを読み出して映像を再現するようになっています。
コーデックで有名なものでは、インテルが開発したIndeo(1992年〜)、SuperMac社が開発したCinepak(1992年〜)、マイクロソフト社が開発したMicrosoft Video1(1992年〜)、MotionJPEG圧縮、MPEG圧縮、H.264圧縮などがあります。
右の表に、各種のコーデックで保存したAVIファイルとその容量の比較を示しました。表の一番左はTIFFの連番ファイルで21枚の合計です。非圧縮AVIはTIFFファイルを寄せ集めただけのものですからファイル容量は同じです。一番右のQuickTime はAVIファイルではありませんが、2010年時点で一番圧縮がよくて画質がよいので参考までに比較に入れました。
AVIは今や古いタイプのフォーマットで、コンテナという異名を持つほど、つまり、単なる箱というほどになってしまいました。その箱にいろいろなコーデック(Codec)を仕掛けてAVIファイルとしています。ですから、ひとくちにAVIと言ってもどのコーデックで格納したかをしっかりと把握しておく必要があります。
【2GB以上のファイルを扱えるAVI2.0】
マイクロソフト社がサポートを中止したAVIフォーマットの箱だけを活かして、現在でも使えるようにした規格がAVI2.0です。この規格には、マイクロソフト社自体は関与していません。これは、1996年に画像ボードメーカのMatrox社が中心になって、OpenDML(Open Digital Media Language)という技術を作り、この技術を元にしてOpenDML AVI(AVI2.0)を作りました。このAVIでは、2GB以上のファイルが扱えるようになり、また、MotionJPEG動画をAVIフォーマットで再生できるようにしました。SonyのVAIOは、システムに「DVgate」と呼ばれる動画編集ソフトが同梱されていて、これで2GBを越えるAVIファイルを作ることができます。また、動画像キャプチャーボードを扱っているカノープス社もAVI2.0に保存できる動画像保存ソフトウェアを作っています。Adobe社の動画編集ソフトウェア「Premier」では、ver.6.0からOpenDML AVIに対応しています。これらの環境のあるパソコンでは2GB以上のAVIファイルを再生することができますが、多くのパソコンにはそのような環境を持ち得ない場合が多いので、それらの大容量AVIファイルを配布するときには、もらった相手が再生できることを確認する必要があります。
また、2GBを越えるAVIファイル作成については、参照型AVI(Reference AVI)というものも存在し、複数のAVIフィアルを切り替えながら再生を続けて、見かけ上2GB以上の壁を越える方法を取っているものもあります。この方法を取るAVIも、配布先にこの種の動画ファイルが再生できることを確認して配る必要があります。
2GB以上のファイルを持つ動画像の場合には、JPEGなどの1枚単位の静止画を連番で一つのフォルダーに保存する方法が確実と考えます。AVIで一つのファイルにまとめるのは、データが飛散してしまわずに便利な側面がありますが、計測という観点からは、一つ一つの静止画で画像処理をするというのが基本なので、静止画の連番ファイルを薦めます。パワーポイントに動画像を貼り付ける場合は、このファイルから、必要な範囲を抜き取り、必要十分な画素サイズに変換してMPEG2などの圧縮ファイルで保存する方法がスマートだと考えます。
【WMV】(Windows Media Video、だぶりゅえむぶい)
マイクロソフト社が、AVIファイル及びASFファイルに代わる規格として2000年に発表したデジタルビデオの新しいプラットフォームです。AVIファイルの後継ファイルとして登場し、高い圧縮率と大容量化が図られています。このファイルは、時間圧縮をしているのでAVIオリジナルの1枚1枚を保存する形式とはなっていません。MPEG圧縮技術を採用しています。MPEG圧縮といってもマイクロソフト社が独自に手を加えたMS-MPEG4なので互換性が問題になったこともありました。いずれにせよ計測分野には使いづらいフォーマットでした。WMVファイルは、インターネット上で徐々に浸透してきました。Windows Media Player で標準の動画ファイルとして大々的に採用している関係上影響力も大きなものでした。
AVIファイルが1997年にサポート中止をされた後、幾多の変遷を経てWindowsの動画はこのフォーマットに落ち着きました。しかし、我々計測分野では依然としてAVIファイルの利用が多いのが実情です。WMVファイルは、計測用の動画処理ソフトウェアでは認識しないようです。計測分野になぜWMVが浸透しないのかというと、WMVの採用している圧縮方式(MS-MPEG4←MPEG4と若干違う)が計測分野にそぐわないからだと考えます。計測分野では動画は1枚1枚独立していたほうが計測をする関係上都合が良いのです。その意味でAVIは、古い規格ながらその願いにかなったフォーマットなのです。
【QuickTime】(くいっくたいむ) (2010.03.27追記)
QuickTime(くいっくたいむ)は、コンピュータ動画ファイルの老舗的なものでアップル社が1991年に仕様を決めたマルチメディアフォーマットです。20年の歴史を持ちます。マイクロソフト社の開発したAVIは、QuickTimeを過剰に意識して1年遅れでリリースされたものでした。QuickTimeの初期のものは、圧縮アルゴリズムとしてSuperMac Technologyが開発したCinePakを搭載していました。パーソナルコンピュータで最初に動画を扱ったフォーマットとして歴史に残るものです。このフォーマットは、2010年にあっても最強の動画フォーマットとして使われ続けています。
QuickTimeの 一般的なファイル拡張子は、movあるいはqtです。QuickTimeは、ムービー、サウンド等が取り扱え、また比較的簡単にムービーを作ることができるため、インターネットでの代表的なフォーマットとなりました。
QuickTimeはまた、ビデオデッキ等の制御、ビデオキャプチャ、データ圧縮、メディアの同期再生などの機能とそれを利用するためのツールボックス(システム)を提供しています。このデータのファイルを「QuickTimeムービーファイル」といいます。QuickTimeの名前は動画用ファイルフォーマットとしてあまりにも有名になってしまいましたが、実際には、静止画、テキスト、サウンド、MIDIといったさまざまなメディアを扱うことができ、これらのメディアを時間軸を追って制御することができます。
クイックタイムは、開発当初、AVIとよく比較されました。しかし、マルチメディア環境を時間軸に従って同時刻性を持たせる点ではAVIとは比べものになりませんでした。1993年には、Windows上で再生するための再生エンジンQuickTime for Windowsが発表され、Windows上でも再生可能となりました。さらに1998年には、Java版の「QuickTime for Java」も発表されました。
QuickTimeムービーファイルでは、RIFF(Resource Interchange File Fomat)のチャンクに相当するものをアトム(atom)といいます。サイズ情報は、32ビットを符号付き整数として扱うので、管理できるのは最大2Gバイトまでです。これはAVIでも同じです。最近のファイルは、2GB以上のファイル容量をカバーするためにシームレスにファイルを読み出す機能を追加しています。
QuickTimeは、非常に良くできたインターネット通信の動画ファイルで、映画用予告編(Trailer)でその能力をいかんなく発揮しています(下図参照)。ハイビジョン対応のQuickTimeの画質は、非常にキレイで音声もクリアです。またインターネット上で動画像を再生する際に、データ通信(ストリーミング)をしながら再生もできます。この機能は、QuickTimeとRealPlayerの二つが秀でています。
アップル社は、2001年に発売を開始したiPodの成功により、iTuneの動画ファイルにQuickTimeを標準装備させたり、デジタル動画編集ソフト「Final Cut Pro」でQuickTimeを標準形式としています。
クイックタイムプレーヤによる映画の動画サンプルの縮小画像。
オリジナルは、1280x532画素のもので、H.264デコーダを使用。
映画用のトレーラでは、フルハイビジョン(1080p)でのサンプル配布を行っている。
現在の QuickTime(QuickTime7、2005年)は、MPEG4に加えH.264/AVCを標準フォーマットにしているため、互換性の高いものになっています。
2009年には、MacOSが新しくなったことにより(Mac OS ver.10.6 Snow Leopard)、H.264圧縮を高速処理するQuickTimeXを発売しました。これは、iPhoneで投入された動画処理技術を用いたもので、高画質のハイビジョン画像をストレスなく変換表示したり保存できる機能をもっています。従来のQuickTime7とは互換性がなく、MPEG-4/H.264に特化したもので古い動画ファイルは読み出すことができません。QuickTime7とQuickTimeXは共存できるので両者をパソコンにインストールして使用することができます。
歴史的に見ますと、QuickTimeは以下のような進化を遂げています。
1991 QuickTime1 コンピュータで動く最初のビデオファイル。
CD-ROM動画像の再生。Cinepak圧縮技術搭載。
1994 QuickTime2 フルスクリーンビデオ。Windows対応。MPEG-1対応。
1998 QuickTime3 リアルタイム表示(インターネット対応)、Java対応。H.261、H.263対応
1999 QuickTime4 ストリーミング技術拡張。QuickTime TV。Macromedia Flash対応。
2001 QuickTime5 Sorenton Video3、拡張DV、Macromedia Flash4対応
2002 QuickTime6 MPEG-4対応、3GPP、3GPP2対応、MPEG-2再生対応、JPEG2000対応、
iTunesに標準装備。Apple Lossless codec採用。
2005 QuickTime7 H.264対応。フルスクリーン制御。
2009 QuickTimeX iPhone OSより開発。H.264ファイルを高速処理。
Mac OS ver.10.6(Snow Leopard)にバンドル。
インテル64bitCPUに対応。従来のQuickTimeとは別ラインのもの。
古いMacintoshやWindowsには対応していない。
【Motion-JPEG】(もーしょんじぇいぺぐ) (2010.06.29追記)
静止画像フォーマットであるJPEGを高速で伸張処理して、連続再生することで動画に見せかける方式です。M-JPEG(えむ・じぇいぺぐ)とも呼ばれています。MPEG-2がパソコンでストレスなく使えるようになるまでよく使われていた手法です。リリースされた時期は明確ではありませんが、JPEGが規格化されてから4年後の1996年頃に規格化への会合が活発になり、以後、ビデオ編集部門や画像計測部門でよく使われるようになりました。
MPEG が圧縮処理に時間がかかったり、処理に高性能のCPUを必要としていたため、それらの環境が整うまでの間、Motion JPEGは重宝されました。1996年当時は、このファイルを作るのに米国Zoran社とC-Cubed社の2社が供給するMotion JPEGのチップセットを使うのが最もスマートだったので、画像ボードにこれらのチップを搭載してM-JPEG画像を作っていました。
1996年当時は、動画をパソコンで見るという環境が整っていませんでした。コンピュータの能力(CPUやRAM、HDDの容量)がとても非力であったため、こうした動画作成には画像ボードを使って処理することが多く行われていました。MPEGをパソコンで作ることなど及びもしない時代でした。こうした時代に培われたMotion JPEGは、ビデオ編集分野で重宝され2010年時点でも編集用動画ファイルとして使われています。Motion JPEGは、MPEGと異なり、一枚一枚独立した画像として保存しているのでフレーム単位で編集するのに都合が良いのです。
その後、コンピュータ内部のソフトウェアだけでM-JPEG画像が作られるようになり、 AVIやQuickTimeではMotion JPEGのコーディックが開発されました。デジタルカメラの動画ファイルには現在も使われていますが、昨今のデジタルカメラは画素数が多くなりすぎ、これをMotion-JPEGで保存すると記録メモリに負担がかかるので、圧縮効率が良くて高画質のH.264 を採用するカメラが増えています。
Motion JPEGはまた、 専用のハードウェアを使ってデータ圧縮を行いながらリアルタイムで動画の取り込みが行えるため、パーソナル向けのビデオキャプチャ・カードなどにこのフォーマットが採用され動画処理に威力を発揮しました。また、Motion-JPEGはMPEG データなどと異なり1コマが静止画像として存在するため、任意の箇所での編集が容易に行えます。圧縮率は1/5から1/20程度であり、圧縮をかけすぎると粗い画像となります。開発当時、この圧縮画像を使って画像計測を行おうとしたところ、圧縮されたデータが誤動作を起こして正確な位置情報が得られませんでした。
Motion JPEGとMPEGは、名前が似ていますが、フォーマットが違います。画像計測用にMotion-JPEGはしばしば使われますが、MPEGは不向きです。MPEGフォーマットでは画像を静止させたりコマ送りしたり逆転再生することが不得意です。(そうした要求でフォーマットを作っていないので)。JPEG画像でも圧縮の度合いによっては計測は苦しくて、読み取り値が正確ではなくなるという指摘も多くあります。画像計測にはあまりおすすめできないフォーマットです。
そうは言っても2010年にあってはMPEG画像が大量に出回り、好むと好まざるにかかわらず、撮影されたMPEG画像から画像計測をしなければならない状況が多くなってきました。計測精度はどうあれそういう時代になりました。(2010.05.25記)
【MPEG】(Motion Picture Expert Group)(えむぺぐ) (2009.05.04追記)(2010.06.27追記)
MPEGは、 Motion Picture Expert Group の略です。このフォーマットは、1988年に設立された同じ名前を持つグループが動画の符号化技術研究をする中から生まれました。一般的な拡張子は、mpg、あるいはmpegです。WMVやQuick Timeと異なり、ISO標準化機構が仕様を決めています。DVDやデジタル放送の圧縮フォーマットに採用されたため、2010年時点ではもっとも一般的な動画圧縮ファイルフォーマットとなっています。この動画フォーマットは歴史もあり、今なお発展が続いている動画フォーマットではありますが、扱う範囲が広くなってしまって、例えば、MPEG-4でもいろいろなカテゴリー( = プロファイル)ができてしまい、MPEGと一口に言っても再生できないケースがでてきています。
■ キーフレーム
MPEGは、上の概念図が示しているように、すべてのフレーム( = 画面)にわたって独立した画像があるわけではありません。MPEGでは、キーフレームと呼ばれる全体の画像を構成するフレームがあり、それ以外は、キーフレーム間で動いている部位だけを保存する方式が取られています。この方法を使えば、1フレームすべてを保存するよりも明らかにデータ量が少なくて済みますし、単位時間あたりに送るデータ量も少なくてすみます。つまり、この方式は通信帯域が狭くても、帯域以上の情報を持つ映像を送ることができるのです。
右の図は、MPEG-2画像の説明図です。拡大をするとMPEG-2画像の特徴を理解することができます。この画像は円形の回転円板に四半円形と白丸、黒丸のターゲットマークを貼り付けて回転させている画像の一枚です。この画像の拡大図を見ると、ターゲット周りの部位だけトリミングされて細かい画素に区分けされ、動いてないバックグランドは大ざっぱに処理されていることがわかります。
MPEGの開発は、従って、データ通信の負荷を軽減するために行われました。動画は大量のデータが連綿と続くので、動画像をインターネット回線などを通じて送ると送信帯域の不足という問題がおきてしまいます。その不具合を解消する手だてとして、データを圧縮して送るという方法が採用されたのです。
データ圧縮は、JPEGのように一枚の画面の無駄な情報を省く空間圧縮と、複数画像に渡って変化していない画像情報は送らないとする時間圧縮の二種類があります。空間圧縮と時間圧縮の2方式を使うことにより、圧縮を行わない非圧縮AVIファイルよりも1/100〜1/200程度の圧縮が可能となりました。
MPEGは、1990年代後半から2000年代にかけて、DVDによる映画やインターネット配信、それとデジタルテレビ放送に採用されるようになり、現在の動画ファイルの主力になっています。
■ 時間の遅れ
このファイルフォーマットで注意しなければならないことは、一つには、リアルタイムでの送受信が難しいことです。ファイルの構造上、キーフレーム間の1組の画像(GOP = Group Of Pictures)を単位として、動きのあるところだけを抽出して圧縮処理を行います(下図参照)。GOPがMPEGファイル画像の基本かたまりとなります。MPEG処理には相当優秀なエンコーダが必要です。我々が使っているPCのソフトウェアを使ってMPEGファイルをエンコードするには相当な時間がかかります。テレビ放送ではパソコンのような悠長なことはできないので、専用のエンコーダ装置を使ってMPEG-2処理を高速で行い放送しています。そうした高性能処理装置を使っても画像間での圧縮処理を行う必要上、画像を溜め込む作業を含めてその処理に時間的な遅れがでます。それらを合計すると、およそ1〜2秒程度の遅れとなり、実際の現象より遅れて送信経路に入ることになります。
また、受け取る側でもネットワークの通信回線状況や帯域で通信速度が変わります。その上、受け取るコンピュータでもMPEGを解読して再生画像を作る処理が入りますので、ここでもキーフレームと差分画像から動画像を構築するための処理時間(遅れ時間)を覚悟しなければなりません。
昨今のテレビ放送は、デジタル放送になりましたけれども、MPEGを採用している関係上アナログ放送の同じ番組と見比べると2秒程度遅れています。(事前に録画したものはデジタル遅れを補正して早めに送っている局もあるそうです。)NHKの正午の時報などは、昔のアナログ放送やラジオ放送であれば時間の遅れなんどほとんど気にせず送信できたのに、デジタル放送のMPEG-2ではデジタル遅れが出てしまうためにサービスを止めてしまいました。デジタルなどという高性能の代名詞のような響がある方式に、時間的な遅れがかなりあるというのは驚きです。メモリバッファに画像情報を溜め込んで再構築するデジタル手法では避けて通れない特徴となります。
■ Iフレーム、Pフレーム、Bフレーム
MPEGでは、3種類のフレームが使われています。
・ Iフレーム
・ Pフレーム
・ Bフレーム
この3つがGOPの中に格納されています(上図参照)。
キーフレームは、「I」フレーム(Intra coded Frame)と呼ばれています。差分情報だけの小さい容量情報フレームを「P」フレーム(Predicted Frame、予測フレーム、デルタフレーム)、および「B」フレーム(Bi-Predicted Frame、双方向予測フレーム)と呼んでいます。 「I」フレームは、自己完結型のフレームで画像全体の情報を持っています。これは、キーフレームとして使われます。JPEGなども空間圧縮をほどこしてはいるもののそれ自体にすべての画像情報を持ち合わせているので「I」フレームに入ります。 「P」フレームはデルタフレーム、もしくは予測フレームとも呼ばれ、直前のフレーム(IフレームもしくはPフレーム)を参照して変化だけを情報として記録しています。「P」フレームは処理が簡単ですから変換作業が行いやすい反面、圧縮にも限界があり、圧縮率を劇的に上げることはできません。 「B」フレームは、双方向フレームと呼ばれるもので、直前と直後のフレーム(IフレームとPフレーム)を参照して差分を記録するものです。つまり、後ろのフレームと前のフレーム双方の差分を保存するため、「P」フレームよりもさらに余分な情報をそぎおとすことができ圧縮を高めることができます。
「B」フレームは、当然処理が複雑になりますから、圧縮、解凍には処理装置の負荷がかかります。
■ 画像計測としてのMPEG
MPEGでもう一つ注意しなければならないことは、 計測目的のためにMPEGを使うのは不適当であることです。このフォーマットは、本来、限られた通信帯域で動画像を送るという目的で作られたものであり、テレビや映画などを通信回線で送ることを目的としていました。またMPEG-2では4.7GBの容量のDVDに映画を保存再生することを大事な使命としていました。DVDによる映画鑑賞は、連続再生が念頭にあります。計測用の動画像は、静止させたりスロー再生を行ったり逆転再生を行います。そのうえ、画像一枚一枚から物体の変位を求めたり、濃度を精度よく計測します。こうした目的にはMPEGは不向きです。
MPEGでは上で述べたようにキーフレームをつかった連続画像を構築することに重点を置いています。一コマ送りやスキップ再生、逆転再生を行う場合、その都度キーフレームを探して(GOP毎に)希望する範囲での連続画像を構築し、一連の動画像を構築します。そうした工程を経るランダム再生画像は自然ぎこちないものとなります。
放送業界も編集作業にはブロック単位(GOP単位)での編集がしずらいためにMPEGを用いておらず、最終成果品としてのみ使用しています。
こうした観点から、 MPEGはその性質を十分に理解して使用する必要があると言えましょう。
(放送局で採用されているMPEG-4 Studio Profileという規格は、編集機能を十分に考慮した規格のようです。)
下図に、MPEG-2ファイルを使って回転体に貼付したターゲットマークの変位をプロットした図を示します。プロット図は、横軸にフレーム、縦軸に回転するターゲットのY方向(垂直方向)の変位成分を示しています。対象物は回転運動ですからY軸成分は単振動(サインカーブ)になるはずです。図を見てみますとおもしろいことに気づきます。15フレーム毎にコブのような成分が現れています。MPEG-2ファイルのオリジナルファイルはAVIです。AVIからMPEG-2ファイルを作りました。オリジナルファイルのAVIファイルで同様の解析をしますと(下図、下段)そうしたコブは見あたりません。
MPEG-2画像でどうしてこのようなコブの成分が検出されるのかを調べてみて、次のようなことがわかりました。
MPEG-2画像は、GOP(Group Of Pictures)で動画付けが行われていることはすでに述べました。今回使用したMPEG-2画像は、15フレーム分がGOPの1ブロックに相当しています。15フレームで1つの動きを完結させています。ここでの問題は、GOPのブロック間のつなぎ目処理がうまくいっていないことに起因しています。15コマ間の動画付けはうまく行えるものの、GOPをまたいで次の最初のフレームが数ピクセル分補間できていない感じを受けました。この問題の解決があるのかどうかは今のところわかりません。MPEG-2のオーソライズされたフォーマットを使うと、こうした問題が起きてしまうことは事実のようです。
この問題を 解決するために、MPEG-2ファイルを開ける際にすべての画像分を読み込んで中間ファイルを作って、それを処理するという方法があります。上図の解析で使ったMPEG-2ファイルをTIFFの連番ファイルに変換保存して、同様の解析を行ったところコブの不具合はなく、きれいな単振動波形が得られました。
こうしたことから、MPEG-2画像は本質的に解析に不向きであることが理解できます。計測目的にはできるだけMPEG-2は使わず、TIFF、JPEGの連番画像を用いるか、AVIファイルを用いることがストレスない方法だと考えます。やむを得ずMPEG-2でしか画像ファイルが入手できない場合は、このファイルを一旦AVIファイルかTIFFファイルに置き換えて解析処理に回すことが無難だと考えます。
MPEG-2ファイルの大きな特徴である2時間(220,000枚@720x480画素)にもわたる長時間録画ファイルを解析したい場合、これを一気に解析する有効な手だては今のところありません。この場合には、長時間録画されたファイルの中で解析に必要な範囲だけを都度AVIやTIFFにファイル変換して、そのファイルで処理を行うのが簡単で安価な方法だと思います。計測カメラによっては、長時間録画をPCのハードディスクに直接書き込んでいくものがあり、そうしたものは静止画形式で保存するものが多いので、計測はスムーズに行うことができます。
・ MPEG-1 :
MPEG-1は、MPEGフォーマットの最初の規格であり、1993年に規格が制定されました。当初MPEG-1は、転送速度が1.5Mビット/秒で、画像サイズは352 x 240 画素であり、30フレーム/秒の録画ができました。今から見ると随分小さい画像です。この画像サイズはテレビ画像の1/4であり、テレビを凌ぐという性能ではありませんでした。
MPEG-1が作られた(1993年)当時の データ通信やパソコンの処理能力を考えたら、この規格が精一杯だったのかも知れません。MPEG-1のデータ速度は、それでも当時のインターネットに乗せることはまったく不可能でした。1990年代前半の通信回線はアナログ電話機の回線がほとんどで、これで1.5Mビット/秒のデジタル通信を行うことは不可能だったのです。当時のダイアルアップ回線の通信速度は28.8kビット/秒が最高性能であり、MPEG-1が要求する1/52の性能しかありませんでした。従って、MPEG-1は、CD-ROMに動画像を記録する手段として開発され、Video-CDなどに使われました。CDの焼き込み速度がこのレートでした。
MPEG-1は、2010年にあってはその役割を終え、MPEG-4が使われるようになりました。MPEG-1のオーディオファイルである「MPEG-1 Audio layer-3」だけは、MP3として2010年でも多く使われています。
・ MPEG-2 :
MPEG-2は、 1995年に制定されました。
これは、 HDTV(ハイビジョンテレビ)までカバーするデジタルビデオ用の規格でした。
この規格では、 MPEG-1に課したビットレートの制限を外し、転送速度を4Mbps〜24Mbpsとしました。
取り扱える画像は、720 x 480 〜 1920 x 1080となり、テレビ画像の品質を意識してハイビジョンにも対応できるものとしました。ブロードバンドのインターネットにも対応できるようにしたため、MPEG-2はネット配信できる動画像の確固たる地位を確立しました。
また、 DVDに採用されたため、最も有名な規格となりました。
・ MPEG-3 :
MPEG-3は、存在しません。
このプロジェクトは、1080本インターレース方式で20 Mbps - 40 MbpsによるHDTV映像送信用として規格化が始まりましたが、MPEG-2がそれらの性能を十分に持っているとして、つまり、その方式がMPEG-2と同じであるため開発の意義がなくなり、規格制定中半ばの1992年にMPEG-2に吸収されました。
ちなみに、音楽ファイルで有名な、MP3は、MPEG-3ではなく、MPEG-1のオーディオ規格として出発したもので、「MPEG-1 Audio layer-3」の略称です。
・ MPEG-4 :
1998年に制定された移動体通信用規格です。
規格化された当初の 画像フォーマットは、176 x 120 〜 352 x 240 と小さく、通信速度も64kbps 〜 512kbpsと遅いものでした。 この規格は、QuickTime、ASFなどのパソコン上で動くマルチメディアが採用しました。
その後、MPEG-4は取り扱う範疇が広くなり、パートという形で多くの派生規格が生まれ、通信速度も高速になり高画素高品位の規格になっていきました。2010年にあっては、「MPEG」というとこのカテゴリーを指すことが多くなっていますが、扱う範囲があまりに広いので理解が難しいのも事実です。
MPEG-4が使われている応用には 、1セグやQuickTime7、iPod、iPad、AppleTV、HD DVD、Blu-rayなどがあり、これらに採用されている動画フォーマットは、MPEG-4 AVC/H.264 という規格です。
・ MPEG-7 :
MPEG-7は、従来のMPEGの規格と趣が異なります。
この規格は、マルチメディア・コンテンツに関するさまざまな情報の記述方法を標準化して、検索を行ったりファイリングを可能にする規格となりました。
MPEG-7は、 1996年にスタートし、2000年を目標に規格化作業が進められました。
しかし、10年を経た2010年にあってもMPEG-7の名前はあまり聞きません。
規格の趣旨は、インターネットの進展に伴い、インターネットメディア(文書フォーマット)を統一させて検索や閲覧を容易にさせようという狙いがあったようです。しかし、結果はそれほど芳しいものではなかったようです。
動画像に関する限りMPEG-7での役割はそれほど大きくなく、2010年にあってもMPEG-4が主流です。
・ MPEG-4 AVC/H.264 :
AVCは、Advanced Video Codingの略です。MPEG-4のパート10の呼び名としてAVCが付けられました。
正式には、 「MPEG-4 Part 10 Advanced Video Coding」と呼ぶのが正しいのですが、長いので単にAVCと呼ぶこともあります。
また、開発した機関を尊重して H.264を付けています。
AVCは、 MPEG-4のカテゴリーの中にH.264規格を入れて(Part10)ラインアップしたという位置づけです。
AVCは、 2003年に制定されてから徐々に使われるようになり、2010年にあってはもっとも優れた動画像圧縮フォーマットとなりました。
取り扱う画像の大きさは、320 x 240画素から1920 x 1080画素と広範囲で、通信レートは320kbps〜10Mbpsと地上デジタル放送規格に当てはまるようになっています。
この規格では、 動き補償のためのブロックサイズを16x16画素から4x4画素まで選ぶことができ細かい画像まで補正処理ができるため、ブロックノイズやモスキートノイズの発生を抑えることができます。
▲ H.264規格
H.264は、動画圧縮ファイルの規格です。MPEGがISOとIECの組織の下で規格化されたのに対し、H.264は、ITU(国際電気通信連合、International Telecommunication Union、前身がCCITT)の下部組織であるITU-TのVideo Coding Experts Group (VCEG)によって、2003年5月に策定されました。
最初の規格であるH.261は、1990年にできています。
制作年月から言えば古い規格と言えます。
それが進化を続けてH.264になりました。
この規格がMPEGにも採用されることになり、MPEG-4のパート10として仲間入りし て、MPEG-4 AVC/H.264となりました。
MPEGとH.264は、本来開発している機関が違っていたのですが、圧縮アルゴリズムは同じでした。H.264は、非常に優秀なアルゴリズムであり、圧縮率が高い割に画質の劣化がなかったためにMPEGがそれを採用しました。ISO/IECでは、「MPEG-4 Part 10 Advanced Video Coding」として規定し、名前の中にH.264は入っていません。しかし、内容はH.264そのものであるため開発機関に敬意を表してつぎに示すように併記するようになりました。
「H.264/AVC」
「H.264/MPEG-4 AVC」
「MPEG-4 AVC/H.264」
▲ VC-1(Video Codec 1)
H.264のライバルは、マイクロソフト社のVC-1(Video Codec 1)です。両者は、圧縮率も画質もほぼ同等といわれています。VC-1は、マイクロソフト社が独自に開発したMS-MPEG用の圧縮コーデックであり、Windows Media Video 9 (WMV9)としてWindows Media Playerに実装されました。これが2003年に米国映画テレビジョン技術協会(SMPTE = the Society of Motion Picture and Television Engineers)に申請され、2006年に規格化されました。VC-1の正式名称は、SMPTE 421M video codec standardですが、こちらは名前が長く覚えずらいので、気軽さも手伝ってVC-1の呼称が広く使われています。
DVDフォーラムでは、このマイクロソフト社の開発したVC-1とH.264であるMPEG-4 AVCの両者を必須アイテムとして承認したため、以後、この二つが動画圧縮ファイルのスタンダードとして使われるようになりました。
VC-1は、HD DVD、Blu-rayディスク、Windows Media Video 9、マイクロソフトSilverlightに採用されています。
【DV-AVI】(でぃぶいえいぶいあい)
DV-AVIは、Digital Video AVI の略です。デジタルビデオ規格のデータをそのままAVIという入れ物に入れたフォーマットです。先に述べたAVI がまさに箱になってしまったという典型的な例です。
DV-AVIは、 AVIという箱に入れればいろいろな動画ソフトで再生できるので便利であるという観点から作られ、デジタルビデオカメラからの動画ファイルを作るのに普及しました。デジタルビデオカメラ録画したDVテープをパソコンに保存するときにDV-AVIが使われます。MPEGに変換するよりは編集が楽という理由からです。しかし、当然ながらファイル容量の2GBの壁があります。
DV-AVIファイルの根本は、以下に述べるDV規格 です。そのDV規格はMotion JPEGを基本としていますが、計測用の動画像処理ソフトではこのフォーマットに対応していないものが多くあります。
【DV】(でぃう゛ぃ) (2010.07.10追記)
DV(デジタル・ビデオ、ディヴィ)は、Digital Videoの略です。これは1995年に決められた民生初のデジタルビデオ規格で、従来のアナログビデオテープ方式カメラに替えて、デジタル映像データとして磁気テープに記録するために規格化されました。デジタル録画ですから、従来のアナログ式のVHSビデオテープレコーダと違って編集や複製に伴う画質の劣化がありません(「デジタルビデオ信号(DV) 」参照)。
この規格ができる伏線には、テレビ放送のデジタル化とパソコンの普及があげられます。1980年代、VTRの普及によりアナログビデオ信号によるビデオ機器が家庭内に広く行き渡るようになりました。(アナログビデオ信号については、 NTSC(Q23.NTSCって何?) を参考にしてください。)このアナログのテレビ(ビデオ)信号をデジタル化したものがDVフォーマットです。従って、DVにはNTSC信号の映像情報を最大漏らさずデジタルに置き換える意図がありました。ビデオ信号をデジタル化したことにより、コピーによる画像の劣化がなくなりました。それまで普及していた8mmビデオテープレコーダも、これを機会にデジタルビデオテープに替わっていくようになりました。
しかし、そのDVも、2000年後半から登場した80mm径のDVDや1インチ(25.4mm)HDD、半導体メモリ(SDカード)を記録媒体とするビデオカメラの開発により、市場をそれらのカメラに譲るようになりました(AVCHD参照 )。こうしたビデオカメラでは、DVではなくMPEG-4が使われました。MPEGの方が圧縮が高いからです。しかし、何度も述べていますが、編集を目的とする業務用の分野ではMotion-JPEGをベースとしたDVは非常に魅力的であるため、そうした分野では2010年においてもDV規格のデジタルビデオテープを利用したビデオカメラが使われています。
■ DV - Motion JPEG保存
DV規格での 画面サイズは、720×480ピクセルで、フレームレートは30fps、圧縮率は約1/5となっています。画面サイズは、NTSC信号をデジタルにするために必要かつ十分な画素としています。30コマ/秒という録画・再生速度もビデオ信号の規格をそのまま踏襲しました。画像は、Motion-JPEGによるフレーム内圧縮を採用していて、MPEGとは違い一枚一枚の静止画を保存しています。MPEGは、画像間圧縮を行うためにエンコード処理がとても複雑となり、1995年当時はそれを可能にする安価なMPEGエンコーダチップがなかったため、アマチュア向けの製品には搭載できませんでした。Motion JPEGは、反面、映像編集が楽にできました。
音声は、サンプリング周波数48kHz、量子化ビット数16bitのリニアPCM2chか、32kHz、12bitのノンリニアPCM4chとなっています。録画時間は標準カセットで270分、ミニカセット(Mini DV)で60分か80分のいずれかの録画が可能です。
DVには上に述べた一般用のもの(SD)と、ハイビジョン用(HD)用のフォーマットHDV規格があります。(デジタルビデオ信号 参照。)
■ DVとMPEG-2
デジタルビデオテープで保存するDVと、DVDに採用されているMPEG-2を比べると、 DVのビットレートは約25MbpsでありDVDの8Mbpsに比べて3倍強のデータ量になります。DVは時間圧縮をしないMotion JPEGが使われているので、データ量が多くなります。反面、時間圧縮処理を行わないので処理時間が速く、再生も素直に行うことができます。
2010年時点で民生用デジタルカメラの市場を見てみますと、DVテープを使ったデジタルビデオカメラの生産はほとんど行われておらず、HDDやフラッシュメモリ、DVDを用いたMPEG-2録画のビデオカメラが主流となっています。この流れは、MPEG-2圧縮/解凍がストレスなく行えるまで装置の高速化が進んだことと、使用する記録メディアに汎用性がありコンピュータ、DVD装置との相性がよいこと、記録時間も飛躍的に長くとれるようになったことが主な理由と考えます。
【HDV(High-definition Video)】
HDVは、2003年にDV規格の派生として作られたハイビジョン録画のできる規格です。HDVについては、ハイビジョンデジタルビデオ(HDV)信号 の所でも詳しく触れています。DVが規格化されるときに、ハイビジョン映像を民生ビデオ機器に組み込むことが考慮されていて、DV規格で開発された素子やテープなどを最大限に利用することが盛り込まれていました。従って、使用するDVテープも同じものを使うことが前提でした。この前提に従ってハイビジョン対応が図られました。そのための大きな規格として、録画フォーマットにMPEG-2が採用されました。DVがMotion-JPEGを採用していたのに対し、HDVではMPEG-2を採用しました。ハイビジョンにはMotion JPEGフォーマットでは荷が重すぎました。
2010年にあってHDV規格のビデオコーダは、セミプロ使用や業務用の高価な機器だけに限られ、安価なモデルは以下に示すAVCHD規格のビデオコーダが主流となっています。
【AVCHD(Advanced Video Codec High Definition)】 (2010.07.10記)
AVCHDは、HDVが採用しているDVテープの記録手法にこだわることなく、さまざまな記録メディアに対応した高圧縮、高画質のハイビジョン規格です。2006年にパナソニックとソニーの共同で基本仕様が策定されました。
AVCHDの基本骨子は、動画像フォーマットにH.264/MPEG-4 AVCを採用し、画像データをパソコンのファイル管理のようなツリー構造としていることです。テープ録画方式のシリーズ録画とは異なった保存方式です。このため記録した画像をPCで再生、編集するのに都合良くできいます。MPEG-4 AVCは、2010年においては最も効率のよい記録フォーマットです。記録メディアは、基本的には80mm径のDVDであり、このほかにSDカードやHDDなどに対応できるようになっています。
2010年現在、民生用ビデオカムコーダのほとんどはこの規格のものとなっています。
▲ なぜ、720x480画素がNTSC規格の4:3の画面アスペクト比になるのか? (2007.04.15記)(2010.07.10追記)
720 : 480 = 4 : 3 になるか? という疑問です。
これはなりません。
720 : 480 は、3 : 2 であり、4:3になりません。
それなのに、4:3の画面アスペクト比をもつDV規格ではなぜ720画素x480画素になっているのでしょうか。
この素朴な質問に答えるサイトはなかなかありません。この不思議な疑問は、NTSCの放送規格がデジタルに移行されていく過程での微妙なズレから来ています。
まず、NTSCは、画面アスペクト比が 4 : 3 と厳格に決められています。そして走査線が525本であることも決められていて、これが縦の解像力を決定しています。縦の525本の解像力から換算して、アスペクト比から横の解像力を求めると700本となります。CCDカメラが放送局用に作られたとき、CCDメーカは、この規格に併せた撮像素子を作ろうとしたはずです。しかし、最初からこのような高画素のCCDを作ることができませんでした。縦方向の画素は525本の走査線を考えれば525個の画素は必要だとしても、横方向はそれに相当する画素を配置するだけの技術がありませんでした。ソニーが1980年に最初に作ったCCDは、381画素x525画素(20万画素)だったのです。この配列でNTSCのアスペクト比を満足させるには、381個しかない横方向の画素を縦の画素サイズに比べて1.38倍ほど長くしなければなりませんでした。そうした経緯を経て、技術力が高まっていくと画素数をどんどん増やせるようになり、横方向の画素の多いCCDが作られるようになりました。縦の画素は525個と決められているので、これは増やすことはできません。従って、横の画素を増やして水平解像力を高め高画素化を果たして行ったのです。これは、詰まるところ、1つの画素のアスペクトレシオが水平解像力の増大(画素数が増えていくこと)によって変化していったことを物語っています。
画素が、最初は横長だったのに高画素化になるに従い縦長になって行ったのです。
CCDカメラが計測用に使われるようになって、画素が1:1のものができてくるようになりました。正方格子型撮像素子というものです。コンピュータの発達とともに、コンピュータ上で画像を扱えるようになると、コンピュータに合わせた画素数やCCDのサイズが求められるようになり、VGA規格 に合わせた640x480画素の正方格子(1画素のアスペクト比が1:1)が作られるようになりました。VGAでの画面のアスペクト比は4 : 3 でした。コンピュータの世界は(VGAは)、アスペクト比とおよその画素数はNTSCを見習いましたが、1画素の大きさは正方格子としました。「1画素 = 正方格子」、これがコンピュータ画像の始まりであり、放送の画面の成り立ちとは大きく異なる点でした。
放送品質を睨んだDV規格は、計測用(コンピュータ用)とは別の道を歩んでいました。つまり、画質を優先し1画素のアスペクト比を1:1とせず、画素数を優先して720x480画素としました。それにもかかわらず、画面のアスペクト比は4:3に保ちました。とすると、1画素の寸法の縦横比が1:0.889となります。
この規格を計測用としてパソコンに取り込む場合、どのようなことがおきるのでしょう。DV規格での1画素を正方形とみなしてしまうとアスペクト比が変わり、横の寸法が実際よりも12.5%も長く表現されてしまいます。これでは、この画像から寸法や変位、速度、角度などを求めることができなくなります。これは、一般の映像機器を計測用に使うときに注意しなければならない重要なポイントです。
計測用には計測用のCCDがあり、放送用やアマチュア用テレビカメラには計測用とは違う要求による(すなわち見かけの画質を優先した)CCDがあったということです。
【DVD-video】(でぃぶいでぃびでお) (2010.7.10追記)
DVD-videoは、DVDに採用されている動画ファイルフォーマットです。規格化の背景には、上で述べたDV(デジタルビデオ)をDVDに記録するという目的がありました。 2010年時点で、映画、テレビコンテンツのDVD録画メディアとして最もよく使われている方式です。
DVDは、CDと同じ直径と厚さで、CDの約7倍の情報を記録できるディスクです。片面1層で4.7Gバイトの映像(8MbpsのMPEG-2ファイルの場合は、約1時間分、4MbpsのMPEG-2ファイルの場合は約 2時間分)を記録できます。片面2層では倍の記録となります。これらの記録時間はひとつの目安で、映像の質と圧縮の度合いにより変わります。DVD-videoは、読み出し専用のDVD-ROMやDVDプレーヤーでの再生が可能で、一度だけ書き込めるDVD-R、何度も書き換えのできるDVD-RWなどがあります。
DVDのアプリケーション規格では、 以下の3種類があります。
1)DVD-Video
2)DVD-VR(Video Recording)
3)DVD-Audio
DVD-Video は、映像に MPEG-2 を採用した映像再生専用規格です。映画用DVDとして最も一般的なものです。
DVD-VR(Video Recording)は、DVD-RW や DVD-RAM を使用して映画などの映像を記録するビデオレコードの規格です。 DVD-VRFとも呼ばれています。小間切れの録画が可能で、解像度も複数(480x480、544x480など)が許容され、DVD-Videoよりも緩い規格です。DVD-VRは、日本の企業が作った独自の規格であり、正式な規格ではありません。
DVD-Audioは、オーディオCDのDVD版ですが、一般的ではありません。
DVDビデオ(DVD-Video)は、動画圧縮にMPEG-2を使い、133分の映像と音声が収録されたビデオディスクです。画素数720ピクセル×480ピクセル、水平解像度約500本程度が主な規格です。音声は、ドルビーデジタル(AC-3)サラウンドとリニアPCMのどちらかで収録されます。
そのほかにオプションフォーマットとして、MPEGオーディオも認められています。
■ DVD-Videoのファイル構成
DVDビデオ(DVD-Video)ファイルは、PC(コンピュータ)で見ることができます(右写真参照)。DVDドライブにDVDビデオの収まったDVDディスクを入れ、エクスプローラで開くと、
[AUDIO_TS]と
[VIDEO_TS]
というフォルダが確認できます。
[VIDEO_TS]フォルダには、
「IFO」
「BUP」
「VOB」
の3種のファイルが入っています。
「IFO」はメニュー情報やマルチアングルなどの制御情報ファイルです。
「BUP」は「IFO」内のファイルが破損した場合のバックアップで、「IFO」と同じファイルが入っています。
「VOB」には映像や音声、字幕などの実データが入っています。
通常は、PCにDVDが挿入されると自動的に認識して再生を行います。
【デジタル放送規格】
この規格は、テレビ放送分野で規格化されてきたテレビ映像のデジタル規格です。デジタル放送規格は、各国様々な思惑が絡みデジタル規格に乗り出したので1950年代のテレビ放送と同様世界統一規格とはなりませんでした。(セグメント放送(Segment Broadcasting) 参照。)
日本のデジタル放送規格は、ISDB(Integrated Services Ditital Broadcasiting、総合デジタル放送サービス)というもので、画像の大きさが4つの画像(と1つのおまけ)で選べるようになっています。4つの画像とは、以下のものです。
1. 480i: NTSCの映像サイズをもとにする720x480画素インターレース方式
2. 480p: 720x480画素プログレッシブ方式
3. 720p: ハイビジョン映像である1280x720画素プログレッシブ方式
4. 1080i: ハイビジョン映像である1920x1080画素インターレース方式
(ただし、地上デジタル放送では、帯域の関係上1440x1080iで送り、
受像側で1920x1080iに引き延ばしている。)
おまけ5. 1セグ: 320x240画素分の映像
この規格は、デジタル放送と液晶/プラズマテレビの台頭によって脚光を浴び一般的になりました。
なお、ISDBには、地上より送るデジタル放送(ISDB-T)(地上デジタル放送)と衛星から送られるデジタル放送(ISDB-S)(デジタル衛星放送)があります。
また、地上波による移動体通信向けのデジタル放送(ISDB-T SB)やケーブルテレビ向けのデジタル放送規格(ISDB-C)もあります。
デジタル放送規格は、コンピュータ文化が育んできたAVIやQuickTimeなどの動画ファイルとは少し趣が異なっています。テレビ放送では、通信帯域と30フレーム/秒の再生速度が最も重要な仕様であり、これは1945年に決められたアナログのNTSC映像信号から息づいているものです。 放送画像は、30フレーム/秒の撮影・再生速度を維持していかに巧みに画質の良い録画と再生を行うかが技術の粋を集める所であり、そのためにいろいろな圧縮技術が開発されました。
方やコンピュータ動画では、静止画を動画付けする所から出発しています。画素数も再生速度もなんら束縛するものはありませんでした。また、テレビ放送が2時間録画を視野に入れながら動画記録方式を決めているのに対し、コンピュータ動画はせいぜい10分程度を視野に入れていました。なぜ短いのかと言えば、コンピュータの再生能力、保存能力、転送能力が追いつかなかったからです。
■ テレビ放送からの画像計測
テレビ放送は、ビデオ録画装置(ビデオレコーダ、DVDレコーダ、BDレコーダ)に蓄えることが可能で、これをDVDやBlue-rayディスクにMPEG-2フォーマットとして保存することができます。これを計測用として使えるかという素朴な疑問がわきます。MPEG-2の画像計測への限界はすでに述べました(■ 画像計測としてのMPEG )。テレビ放送には、画像のインタレースの問題や、アスペクトレシオの問題、コピーの問題などが横たわっていて、これらの諸問題を十分に考慮した扱いが必要であると考えます。
↑にメニューバーが現れない場合、
←クリックして下さい。
■ 画像(電子画像)の記録媒体 (2007.09.11)(2010.08.08追記)
電子画像(ビデオ画像)を記録する媒体にはどのようなものがあったのでしょうか。
この項目では、電子画像に使われてきた記録媒体について述べたいと思います。
電子画像を記録する媒体の代表的なものは、鉄の磁性体、プラスチック盤を使った光記録、半導体メモリの3つがあります。これらの3つの記録媒体が発達する前にはフィルム(銀塩感光剤)が使われていました。
▲ フィルムの時代
テレビカメラが開発された当初(1940年代)、テレビ画像を録画する手だてはありませんでした。
テレビ放送と言えば、撮影と同時に遠隔地へ映像信号を送るライブ映像がほとんどだったのです。
当時(1960年頃まで)、映像を記録して放送をする手だてと言えば、唯一の録画媒体であったフィルム(銀塩)しかなかったので、ライブにできない映像は映画カメラで一旦撮影して記録し、これをテレシネ装置という機械(特殊テレビカメラ=フライング・スポット・スキャナー) でテレビ信号に直して放送していました。
この方式による放送は、つい最近の2005年あたりまで行われていました。コマーシャルフィルムは35mm映画カメラで撮影して、これをテレシネという装置にかけて放送していました。
また、スタジオなどでテレビカメラを使って放送したものを記録保存したい場合にはどうしていたかと言うと、映画フィルムを使っていました。この装置は、フィルムに相性の良い特殊蛍光面を持った歪みの少ないテレビモニタ(ブラウン管)にテレビ映像を映し出し、これを特殊なフィルムカメラ(キネレコ装置 = Kinescope Recording)でフィルムに撮影していました。
キネレコ装置というのは、現在でもさかんに使われています。
最近の映画はCGによる電子画像が多く、これをフィルムに焼き付ける際にデジタル信号からレーザを使ってフィルムに直接焼き込んでいます。
記録の仕方は、フィルム上を細いレーザビーム光が走り(スキャンし)、テレビ画像の表示と似たような方式で面記録しています。
現在の映画の原本はデジタルで保存されていて、旧来のようにオリジナルネガフィルムを保存するというのではないようです。
→ フィルムによる記録へ行く 。
▲ 磁性体による記録
テレビ映像記録(電子記録)を初めて行ったのは、酸化鉄による磁気テープの記録装置、すなわちビデオテープレコーダ(VTR = Video Tape Recorder)が開発された1956年です。
磁性粉体が電気信号の記録に使えるという発見(1898年)があってVTRの登場まで、58年の年月が経っています。
映像を磁気記録するというのは、とてつもない技術開発だったのに違いありません。
この項目では、磁性体を使った記録媒体(磁気テープ、フロッピーディスク、ハードディスクなど)を、順を追って紹介したいと思います。
→ 「磁性体による記録」へ行く 。
▲ 光による記録
1980年代からは「光」による記録、それもレーザを使った記録が発展します。レーザの発明なくして現在の映像記録の歴史はあり得ませんでした。レーザの発明とコンピュータの発達(デジタル技術)が光の記録を高度に成長させました。この項目では、レーザを使った映像装置(レーザディスク)からCD、MO、DVD、Blu-rayの特徴を紹介したいと思います。
→ 「光による記録」へ行く 。
▲ 半導体による記録
半導体製造技術が急速な発展を遂げる中、トランジスタを記録媒体とする手法が考え出され、半導体メモリとして注目を集めるようになります。
半導体メモリが一躍脚光を浴びたのは、フラッシュメモリの登場からでしょう。それまでは、半導体素子を使った記録のアイデアはあるものの映像を記録するメディアとして使用するには、大きさも価格も使い勝手も実用的ではありませんでした。
フラッシュメモリが開発される前の半導体メモリは、コンピュータに使われているDRAMに見られるように、電源を切るとメモリ内容が消えてしまうものでした。
フラッシュメモリは、電源が無くてもデータを保持し続けるという大きな特徴を持っていました。
→ 「半導体による記録」 へ行く。
磁性体による記録
映像記録という途方もなく高速で大容量のデータを電子的に保存する手法は、酸化鉄による磁性体の磁気記録により光明を見ます。
それまでは、(映画)フィルム(銀塩写真感光剤)でなければできないことでした。
映像を記録する磁性体は、ビデオテープの発明から始まります。これは、音声テープができて後の24年経った1956年のことです。
ビデオテープレコーダ開発も幾多の苦労がありました。
【磁気テープ】 (2008.08.17追記) (2008.12.07追記)
■ 磁気テープの開発
ビデオテープは、家庭用ビデオテープレコーダのVHSテープなどで広く知られているように、磁性体(記録媒体)を安定のよいポリエステルフィルム(支持体)に塗布したものです。
ビデオテープは、音声用(オーディオ)テープから派生しました。
オーディオテープの開発は、1930年代よりドイツBASF社で始められ、ビデオテープは、1950年代後半に米国3M社が確立しました。
1970年代からは、日本のメーカが磁気テープ開発と製造の主役になりました。
2000年以降の磁気テープは、デジタルテープとしての位置づけが大きくなっています。
■ 磁気テープの歴史
磁気テープの開発を歴史的に見てみますと、磁性体を電気信号の記録媒体として使う手法が1898年、デンマークのValdemar Poulsen(ポールセン:1869 - 1942)によって開発されます。
彼は、磁性を持つ鋼線や鋼帯を記録媒体に使った磁気ワイアレコーダを発明しました。テープではありません。
当時は、薄いプラスチックフィルムを作る技術がなかったのです。
この媒体は、しかしながら、記録密度が低くて雑音も多く、1970年代のオーディオテープに比べて1000倍近く劣っていたと言われています。
ポールセンは、アメリカのエジソンが発明した蓄音機(Phonograph、1877年)とベルが発明した電話機(Telephone、1876年)に着想を得て、電話機の録音用としてこの装置を開発して特許を取りました。
彼の録音機は、従って「Telegraphone」(テレグラフォン)と呼ばれました。
この録音機は、電気増幅器がなくて信号が弱く(増幅に必要な三極真空管の発明は、30年後の1906年でした)、それにワイアが絡まったりして録音の信頼性は低いものでした。
この装置は、特許が切れる1918年までそれほどの普及を見ず、1924年に製造を中止します。
アメリカでは、1950年代中頃まで軍を中心として磁気ワイア方式の録音機が使われていたようです。
■ ドイツのテープレコーダ開発
【磁気テープの開発】
録音機の研究開発は、「Telegraphone」の特許が切れる1918年以降再び始まり、1932年にドイツ人のエンジニア Fritz Pfleumer(フリッツ・フロイマー:1881.03〜 1945.08)がテープ方式による録音機を発明します。
この装置は、当初、紙テープを使っていて、これに酸化鉄の磁性体粉をラッカーに溶かして塗布したものでした。
プラスチックテープは、当時の技術では薄くて強度のあるものが作れなかったのです。
彼は、紙巻きタバコの薄紙を扱う技術を持っていたようで、この技術を応用したようです。
彼は、自ら取得した特許をドイツのAEG社(Allgemeine Elektrizitats-Gesellschaft、当時、ドイツの最も大きな電機会社)に売ります。
AEG社は、これを「Magnetophon(マグネトフォン)」という商品名にして、テープレコーダを世に出しました。
このテープレコーダは改良が重ねられ、BASF社(Farben社傘下)の協力により磁気テープも改良されて、オーケストラの演奏する交響楽の録音に使われるまでになりました。
BASF社は大きな化学工業会社で、この会社にはテープの支持体であるアセテートフィルムの製造技術と純度の高い磁性体粉末(カーボニル鉄、Fe(CO)5 、Carbonyl Iron)を作る技術を持っていました。
磁気テープの製造には、良質で安定したフィルムベースが必要だったのです。
磁気テープの標準支持体であるポリエステルフィルムは、寸法安定性が極めてよく、しかも強靱なので、厚さを薄くしたフィルム状テープを作ることができます。
しかし、当時はまだこの材料はありませんでした。
ポリエステルフィルムの登場は、1960年以降で、その材料ができるまではアセテートフィルムが主流となっていました。
AEG社のマグネトフォンの成功には、BASF社の磁気テープ開発の功績が大きかったと言われています。
磁性体は、カーボニル鉄からマグネタイト(Fe3 O4 )に代えられて、改良の足跡を残します。
■ ACバイアス記録(AC bias method)
また、磁気媒体への録音技術にも改良が加えられて、音質が向上しました。
その改良と言うのは、音声信号を磁気媒体に記録する方式の改良です。
磁気記録は、直流バイアス(DC bias)と呼ばれる手法を経て、交流バイアス(AC bias)法が開発されます。
これにより、音質が飛躍的に向上しました。
マイクロホンから拾った音声信号をそのまま磁性体に記録する方法は、磁気記録方式ができた当初から試されていましたが、芳しい結果を残せませんでした。
磁性体には、ヒステリシスという特性があり、入力の信号に対して正しく比例した記録ができず、微小な入力信号成分は鈍って(なまって)しまいます(右図「通常の磁気録音」参照)。
微弱な信号では、磁性体に十分な磁力を与えることができないのです。
磁性体に十分に磁化できるだけの磁束エネルギーを与える方法として、電気信号に予め一定の電圧を与えて下駄を履かせる方法(バイアスをかける方法)が考え出されました(「DCバイアス法による磁気録音」参照)。
この方法を採用すると、微弱な信号から大きな信号にいたる広い範囲を磁性体の持つリニア(直線)成分に収めることができます。
この方法は、録音時、入力信号に一定の電圧を加えたので直流バイアス(DC bias)法と呼ばれました。
■ バイアス法
DCバイアス法は、1907年、デンマークのValdemar Poulsen(ポールセン)が開発します。デンマークの電話技師であった彼は、自分の発明した録音機でビジネスを成功させようとアメリカに渡りますが、失敗に終わります。
そうした最中にDCバイアス法を考案して、磁性体を使った録音手法にある程度の目処をたてました。
DCバイアスによる記録法は、ドイツのテープレコーダ Magnetophon(英語名:Magnetophone)にも採用されました。
その当時の装置の周波数特性は、50Hz 〜 5kHzで、ダイナミックレンジが40dB、歪率は5%だったそうです。
ダイナミックレンジが40dBというのは1:100であり、この音圧を記録できたことになります。
1:1000(= 60dB)程度になると、なんとかものになる値ですから、当時の録音機はまだまだ音質が悪かったと言えましょう。
現に、マグネトフォンが開発された当時、AEG社はこれを放送向けに使って欲しいという希望を持っていましたが、当時の78回転のレコード(SP盤 = Standard Player Disk)に比べてはるかに音質が悪かったため、採用されませんでした。
また、DCバイアス法には、決定的な欠点がありました。
この手法はバイアス電圧をいつも一定にかけているので、音が無いときでも磁気テープには一定の電圧が加わって録音されることになり、無音であるはずの所でもジーとかシー、サーというヒステリシスノイズが乗ってしまうのです。
■ 交流バイアス法
その録音品質を変えたのが、交流バイアス法(AC bias method)です。
ACバイアスは、1935年にBASF社で発見されています。
開発された当初は製品化にはほど遠い性能で、BASF社はこの研究を中断します。AEG社もBASF社とは別の観点から同じ発見をしますが、これもものになりませんでした。1940年に、ドイツ放送会社のRRG社(Reichs- Rundfunkgesellschaft)がこの方法を再度試みて完成させ、マグネトフォンに移植して製品化にこぎ着けます。
マグネトフォンに採用されたACバイアス法は、磁気テープ録音性能を飛躍的に向上させました。
ACバイアスによるテープレコーダの周波数特性は、50Hz 〜 10kHzまで伸び、ダイナミックレンジは 65dB( = 1:1780)になり、歪率は3%に改善されました。65dBの性能はりっぱな数値です。
ACバイアス法と言うのは、100kHz程度の人間の耳には聞こえない高周波を音声入力信号に重ね合わせて(重畳させて)磁気媒体に録音させるものです。
この方法によると、100kHzの高周波成分のエンベロープ部(包絡線、側波帯)に2つの音声信号が形成され、ヒステリシス曲線の正極側と負極側にまたいで記録されます(右図「ACバイアス法による磁気録音」参照)。
2つの記録信号は、再生時に適切な処理が施されると、力強い信号となり、ノイズ成分を除去できるようになります。
また、無音の場合、2つの音声信号成分の処理によって無電圧信号が得られるので、DCバイアスで問題になったヒステリシスノイズを除去できるメリットも出てきます。
ACバイアス法は、バイアス信号に100kHzという当時の磁気テープには記録できない高い周波数を使っています。
これは、当然のことながら正しくは記録できません。
上の図(上左)にも示したように、磁気テープの記録周波数(M Hz )は、最終的には磁気媒体の記録密度に影響されるものの、それ以前の基本的な約束として、磁気ヘッドのギャップ(d mm )とテープ走行スピード(V m/s )で基本的な録音周波数が決まります。
M = V / (2 x d) ・・・(Rec -39)
M: 記録周波数 Hz
V: テープ速度 mm/s
d: 磁気ヘッドギャップ mm
一般的な(当時のオーディオ用)磁気ヘッドの空隙(ギャップ)は、10um〜40umであり、テープの走行速度は 45mm/s〜190mm/sです。
この条件から導き出される記録周波数は、560 Hz〜9.5 kHzとなり、ACバイアス法で用いられる100kHzの周波数はとても記録できない値となります。
従って、ACバイアス法では、エンベロープ(包絡線)が磁気テープの記録範囲いっぱいに記録されることをねらったものと考えなければなりません。
この目的のために、記録周波数に影響を与えないはるかに高い(記録周波数の5倍以上)交流を作って音声信号と重ね合わせて、記録信号幅を広くしたものと考えられます。
交流バイアス法(AC bias method)は、ドイツ、アメリカ、日本で同じ時期に別々に発見されたようです。
以上をまとめると、ACバイアス法はDCバイアス法に比べ、以下の有効な改善がみとめられます。
【ACバイアス法の特徴】
・ 高出力
・ S/N比の向上
・ ヒステリシスノイズの低減
日本におけるACバイアス法の開発は、1938年に東北大学の永井健三氏と同大学を卒業した安立電気の五十嵐悌二氏らによって行われ、日本での特許が取られています。
この特許は、戦後、ソニー(当時、東京通信工業株式会社)が取得して、これを使ったテープレコーダが開発されました。
この特許のおかげ(とトランジスタ技術の開発)で、ソニーは音響録音機器メーカの覇者になって行きました。
■ 米国の躍進
Magnetophon(マグネトフォン)は、第二次世界大戦中、ドイツ軍ナチスの重要な戦略機器となり、ナチスの管轄するラジオ放送で多用されるようになりました。
当時、ナチの情勢を監視していた連合軍でしたが、なぜかテープレコーダの存在を知らず、ラジオ放送は全て生放送かレコード盤(SP盤)の短時間録音放送と信じていたようです。従って、SP盤以上の性能を持った録音などありえないと信じ、交響曲(長い演奏時間)などは生演奏だと信じていたようです。
米国陸軍通信隊(U.S. Army Signal Corps)のJack Mullin(ジャック・マリン、1913 - 1999)が、終戦間際の1945年にスーツケースに収められた携帯用のAEG社のMagnetophonを2台と、BASF社製の磁気テープ50巻を入手しました。
Mullinは、この録音機をアメリカに持って帰って徹底的に調べ、改良を施して新たな録音機を作りました。
この録音機開発に関わったのが、米国AMPEX社です。
磁気テープに関しては、同国の3M社(Minnesota Mining and Manufacturing Company)が BASF社に劣らないものを開発して、Scotchのブランドで販売を始めました。AMPEX社は、VTR(ビデオテープレコーダ)の開発で有名になった会社ですが、アメリカで最初に高品質のオーディオテープレコーダを作った会社でもあります。
この会社は、オーディオテープレコーダ開発製造の下地があったので、VTR開発にも着手できました(1952年)。
しかし、AMPEX社がオーディオテープレコーダを開発したときの人数は、たった6名でした。
AMPEX社は、1944年に設立された会社で、設立当初は、小型モータと発電機を作っていました。
AMPEX社は、当時、米国陸軍通信隊の仕事をしていたのでMullinとも面識があり、技術力の高さを買われて彼が持ち帰ったマグネトフォンの製品調査と国産レコーダの開発を任されたのでした。
出典: Wikipedia Commons
第二次世界大戦中にドイツで開発されたオーディオテープレコーダ(Magnetophon)(1939年)。ラジオ放送局で使用されていた。
装置のテープ走行系メカニズムやスイッチの配置などを見ると、完成された域に達していることが見て取れる。電子回路は当然真空管を使っていた。
■ なぜ米国は、ドイツのテープレコーダの存在を知らなかったのか
ここで、素朴な疑問がわき上がります。
1943年までの間、アメリカ、そしてフランス、イギリスなどの連合軍は、なぜ高性能なドイツの磁気テープレコーダの存在を知らなかったのでしょうか。
また、ドイツと比較的親しかった日本においても、1930年代後半から1940年代前半にかけてドイツのMagnetophonを積極的に輸入したという事実は見あたりません。
当時、音の記録(録音)と言えば、レコード盤(SP盤 = Standard Playing Disk、78回転/分)が主流であり、終戦当時(1945年)、昭和天皇が国民に向かってラジオ放送で訴えた玉音放送にもSP盤に録音したものを使っていました。
天皇の御言葉は、ラジオの生放送でも磁気テープレコーダによる録音放送でもありませんでした。
映画の世界でも、無声映画からトーキー(Talkie、1927年)なった時に採用された録音装置は、光学式録音(映画フィルムの片端に音声に応じた濃淡像を焼き付け、エクサイターランプで光の強度情報を電気信号に換える同期再生方式)でした。
この事実の裏側には、磁気テープレコーダの品質が1930年代後半になるまでかなり悪かったことを伺わせています。
1930年代後半から1940年代前半にかけて、録音装置の性能をドイツが急速に良くして行った時代を、米国ハリウッドに目を移してみると、ハリウッドは、レコードと光学録音に関心を寄せていました。
ドイツでテープレコーダが発達するこの時期は、政治的にはナチスが台頭しヒットラーを中心として軍備を拡大して第二次世界大戦に突入して行った時代でした。
技術的な側面から考えると、この時期、アメリカもヨーロッパも、もちろん日本も録音機に磁性体を使うという方法に難色を示していて、もっぱら光学録音(映画フィルム = サウンドトラック録音)か、もしくは、レコード盤を使った録音に目が向けられていたようです。
たしかに、当時の磁気録音は音質が悪かったので、長時間録音とか簡単な録音再生、そして携帯に便利という利点以外には、レコード(SP盤)の方が優れていたようです。
ハリウッドでテープレコーダが注目されるのは、戦後AMPEX社がドイツのMagnetophonを複製してからのことです。
戦時中の米国軍は、Marvin Camras(1916 - 1995、イリノイ工科大学教授、Armour Research Institute研究員)が開発した磁気ワイアによる録音機を多く採用していました。
アメリカでは、デンマークのValdemar Poulsen(ポールセン:1869 - 1942)が開発した「Telegraphone」が持ち込まれていたので、その流れができていたようです。磁気ワイアレコーダーは、戦時中でも軍需を中心に1,000台以上生産され、戦後の1956年頃まで生産を続けていたそうです。
ドイツでは、磁気テープによる録音機が急速な発展を見たのに対し、アメリカの録音機は磁気ワイアのままでした。
アメリカには、当時、薄いプラスチックフィルムを使って磁気テープを作る技術がありませんでした。
イギリスは、1935年にMarconi(マルコーニ、電信会社で有名な会社)とその子会社であるBBC(英国放送会社)が中心になって、薄い鉄テープ(フィルムではなく鉄!)を使った録音機を開発したそうです。
この鉄テープは、3mm幅で50umの厚さがあり、1.5m/s走行で30分間の録音ができたそうです。
30分の録音ができる鉄テープは、60cmの直径となり9kgの重さだったそうです。1.5m/sというスピードはかなり速い速度です。
9kgの重さのテープリープを回すのにかなり大きな駆動モータが必要だったでしょう。それに、鉄製のテープでは、走行ノイズ、回転ノイズがすごかったと想像されます。
この製品は、一般に売り出されることはなく、放送局内で1950年代まで使われていたと言われています。
こうした事実を見てみると、磁気録音においては、1930年から1940年にかけてドイツが突出した開発力を持っていたと言えましょう。
しかし、各国はなぜか関心を示しませんでした。
おかしなことに、AEG社とBASF社が、ACバイアス法録音方式とアセテートフィルムテープを使った録音機「Magnetophon」を開発した1941年当時、ナチスはこの製品を秘密にしませんでした。
にもかかわらず、この製品をアメリカ側は無視していました。
この製品は、1941年のベルリンの新聞にも掲載されました。
第二次大戦が勃発した時期でも、アメリカは6ヶ月間は参戦せず、外交官をベルリンにおいていました。
外交官が興味を示せば簡単に手に入れることができ、本国に送ることもできたのです。
にもかかわらず、彼らは、その新製品に対しては、なぜか無関心でした。
世界が無関心でいる中、ドイツは極めて高性能なテープレコーダを開発して行きました。
磁気テープによる高品質録音が可能になったのは、以下の3点に集約されます。
【高品質磁気録音の理由】
1. 秀逸な磁気テープの開発。
2. ACバイアス法による高品質な録音方式。
3. 性能の良いモータと三極真空管をはじめとした電気部品の発達。
■ ドイツのテープレコーダ特許はどうなったか
第二次世界大戦後のどさくさに紛れて、という言い方が適切かどうかわかりませんが、アメリカはドイツで熟成されたテープレコーダを本国に移植し、同じものを作ってしまいます。
ドイツでは、テープレコーダの開発にあたって特許を取得して製造をしていたはずでした。
米国は、戦後、ドイツAEG社やBASF社に対してテープレコーダ開発のための特許料を払ったのでしょうか。
ドイツは、世界大戦の首謀者、敗戦国という理由により、連合国側から世界大戦前後に得た製品の特許無効を言い渡されていました。
従って、テープレコーダを開発したAEG、BASF、Agfa各社は、戦後、彼らが開発した特許からの利益を得ることはできませんでした。
そうした中で、アメリカは、いち早くドイツの技術をコピーして、AMPEXや3Mが高性能のテープレコーダと磁気テープを開発しました。
そのテープレコーダの開発も、アメリカの大企業が大きな資本を使って進めたというよりも、Jack Mullin と彼を取り巻く小さな会社がMagnetophone(ドイツ名:Magnetophon)を模倣して作り上げた、という見方の方が正しいようです。
アメリカで作り直されたテープレコーダは、アメリカのゲージ(すなわち117VACの電源、インチサイズの部品)で作り直されました。
まず、駆動を受け持つモータをドイツの220VAC駆動から米国の商用電源である117VACに変更し、ドイツの50Hzの電源周波数で動くキャプスタン(テープを一定速度で送るローラ)もアメリカの60Hzで正しく回転するように変更されました。
磁気テープは、ドイツが採用した6.5mm幅をインチに直して1/4インチ(6.35mm)としました。
テープスピードもドイツの77cm/sに近づけて30インチ/秒(76.2cm/s)としました。
この規格(1/4インチテープ巾、テープ走行30インチ/秒)が音声テープの標準規格となって、戦後、本家のドイツもこの規格に従うことになりました。
■ テープ支持体
テープレコーダがドイツで大成功を収めたのは、プラスチックの薄いフィルムができたからです。
磁気記録は、1898年にポールセンが提案して以後、磁気ワイア、磁気鋼薄板、紙テープ、プラスチックフィルムなどの変遷を経て、信頼性と使い勝手を向上させました。
1934年、BASF社は、30um厚のアセテートベースに20um厚のカーボニル鉄(Fe(CO)5 、Carbonyl Iron、純度の高い鉄粉、1925年にBASF社で発明)をコーティングしたテープを開発しました。このテープは、6.5mm幅で1m/sのテープ速度、25分間の録音ができました。従ってテープの長さは、1,500mとなり、テープリールは直径30cmとなりました。
また、1938年には、塩化ビニール(poly vinyl chloride)を用いたテープも開発され、より安定した磁気テープが供給できるようになりました。
1950年代半ばに、米国のDu Pont社と英国ICI社(Imperial Chemical Industries)がポリエステル(Polyester、Mylar)を開発すると、このフィルムが磁気テープフィルムとして使われるようになりました。
PETボトルでよく知られるPET(Polyethlene Telephthalate、ポリエチレンテレフタレート)はポリエステルの一種です。
1989年、VHS全盛の頃に使われていた一般的なビデオテープは、フィルムベース厚14.7um、マルチコート磁性体層厚4.3umの計19um厚のものでした。テープ支持体フィルムは、時代とともに薄くなって行き、DVCAMのテープは6.3umのベース厚(全厚7.0um)となりました。磁性層は何と0.3umです。
薄いテープの素材としては、先に述べたPETと、PEN(ポリエチレンナフタレート、Polyethylene Naphthalate)が使われています。PENはPETよりも2倍近くのヤング率があり、強靱な特性を持っています。
■ 磁性体 (2010.09.23追記)
磁気テープの一般的なものであるフェライト磁性体は、酸化鉄を主成分としたセラミックスであり1927年〜1930年代にかけて開発されました。
磁気テープが開発された当時の磁性体は、カーボニル鉄(Fe(CO)5 、Carbonyl Iron)であり、これは1925年にドイツのBASF社で開発されました。カーボニル鉄は、純鉄の一種の粉状のものであり、テープに塗布するのに非常に有効でした。この磁性体は後に、Fe3 O4 (マグネタイト、magnetite、天然の磁鉄鉱の主成分)に変わりました。1950年には、米国イリノイ工科大学のMarvin Camras(1916 - 1995)が針状粒子のガンマ-ヘマタイト(γ-Fe2 O3、 mag hematite)を用いた磁気テープを発表しました。これは、黒色のサビの一種の酸化鉄であるため、使用中に錆びることなく安定しているのが特徴でした。製造コストも安価なため、磁気テープのスタンダードとなったものです。
磁性体は、その後多くの研究が行われ、クロム(二酸化クロム、1961年、Du Pont開発)を用いたものや、純鉄、コバルト(Avilyn、1973年、TDK開発)などを使ったものが開発されました。
高密度記録ができる磁性体としては、1960年に、Fe-Ni-Co(ニッケルコバルト磁性体)の合金粒子が開発され、1968年には、CrO2 (クローム合金磁性体)合金粉末が開発されました。これらは、γ-ヘマタイトよりも3倍の記録密度を持っていました。
しかし、これらは磁気保持力も強かったので、バイアスのかけ方や消磁の方法が従来とは異なるものとなりました。
また、磁性体自体が硬いのでヘッドの摩耗が激しく、これらの磁性体を使う場合は、磁気ヘッドを適切に選ぶ必要がありました。
磁性体は、1980年代からメタルテープの時代になります。メタルテープは純鉄を使っていました。従来の酸化鉄を用いた磁性体に比べ、純鉄の方が保持力は高く安価にできます。純鉄を用いる問題は純鉄の酸化であり、使用と共に酸化が進んで初期性能を満足させることができなくなることでした。このために、純鉄の酸化を防止するバインダーの技術や多層化の技術が進みました。また、純鉄の他にも強磁性金属としてコバルトと腐食防止用のニッケルを用いて1um以下の微粒子にして、これを塗布するという技術が確立されました。
1980年代の終わりには、メタル磁性体を蒸着技術によって生成する技術が進み、メタル蒸着テープとして8mmデジタルビデオやDVCAMに利用されるようになりました。メタルテープは、従来の技術を高めた塗布型のMP(Metal Particulate)テープと蒸着技術で作るME(Metal Evaporated)テープの2種類があります。この二種類は、現在(2010年)のデジタルビデオテープの主流になっているものです。
両者を比較した場合、MEテープの方が新しく、多くの技術的な特徴を持って登場しました。MEテープは、バインダーを使わずにCo-Ni合金の磁性体をテープに直接蒸着させるので、極めて薄くて高い記録密度を持つ磁気テープとなります。
MPテープは、MEテープよりも先に開発されたものですが、富士フイルムが独自の技術を使ってナノメータレベルの多層膜塗布方式テープを開発してからは、その優秀さが注目されて現在もメタルテープの代表として使用されています。MPテープは、MEテープに比べて生産効率が高いため製造コストが安く、使用時の耐久性も高いため現在も高い評価を受けています。
■ バインダー
磁気テープでは、磁性体材料も大切ながら、磁性体を支持フィルムに安定して固定させるつなぎ(バインダー)が大変重要な意味を持っていました。磁性体だけでは、支持フィルムにうまく定着できず安定した記録ができないのです。
初期の磁気テープは、磁性体とバインダーの比率が3:7で、バインダーの方がたくさん含まれていました。
バインダーの技術が進み、酸化防コーティング技術も進むと、クロームとかコバルトのような高価な材料を使わなくても、バインダーを減らして純鉄をたくさん含有させれば特性が出るようになったので、高価で取り扱いの難しいクロームテープは市場から姿を消していきました。
磁性体を支持フィルムに塗布する時代から蒸着する時代に変わると、バインダーの意味はなくなってきます。
ビデオテープは、音声テープよりも遙かに高い周波数で、なおかつS/Nよく記録しなければならないので、DV規格のカムコーダに使われる磁気テープは、バインダーを排除した蒸着テープ(MEテープ)が受け入れられました。
ただ、2010年にあってもバインダーを使ったメタル塗布型テープ(MPテープ)が使用されています。MEテープは生産効率が悪く、大量生産ができずコスト高だったからです。MEテープが開発されてもMPテープはバインダーの改良が進み、MEテープにひけを取らない高性能なものができてきたため、MPテープとMEテープの双方が存在しています。MPテープに使われるバインダーは、メタル磁性粉を均一に分散させて吸着させる働きの他に、帯電防止、潤滑、塗布補強の働きを持っています。
MEテープは、バインダを使わずにテープにメタル磁性粉を蒸着させています。そのためにベースフィルムとの蒸着性をよくする必要上、予め下塗り層処理を施しておいてから蒸着を行っています(上図参照)。MEテープは、蒸着層がテープから剥がれたり磁気ヘッドとの接触性や摩耗の不具合があったため、磁気ヘッドと接触する面に炭化水素のアモルファス構造の硬膜処理を施した保護層をもうけています。これをDLC(Diamond Like Carbon)と呼んでいます。この処理はダイアモンドのように硬い構造を持っているためMEテープの問題であった蒸着層の剥がれや静止モードでのテープの摩耗を抑えることに成功しました。
▲ 磁気テープ - アナログからデジタルへ
磁気テープはドイツで発明され、録音機器の発展に呼応してドイツ、米国、日本で進化しました。
日本でのオーディオ・ビデオテープの発展は目を見張るものがありました。
ソニーを始め、松下(現パナソニック)、TDK、日立マクセル、富士フィルム、バインダー技術の花王、ベースフィルムの東レなど、優良なメーカが品質の良い磁気テープを開発し、全世界に供給しました。
日本のメーカによる磁気テープの品質が良いのは、磁性体材料開発に優秀な技術者が集まっていたことと、製造品質においても類い希な技術を有していたことによります。
そうした磁気テープも、1990年代後半あたりから転換点を迎えます。時代の趨勢により、従来のオーディオ用途の磁気テープが、CDやHDD、フラッシュメモリーに奪われ、VHSを中心としたビデオ録画の分野においてもDVDなどのポリカーボネート記録媒体が普及したため需要が減少してしまったのです。
現在(2008年)の磁気テープは、デジタルカムコーダのデジタル磁気テープ(DV)や、放送局用録画テープ、そして、コンピュータ分野のストレージデータテープに需要を伸ばしているに過ぎず、需要の絶対量は減ってきています。
そして、磁気テープもデジタルの時代を迎えることになりました。
▲ ビデオテープレコーダの開発 - 米国AMPEX社 (2010.08.20追記)
電気信号による画像の保存は、ビデオテープレコーダの発明で光明をみます。この技術は、磁気録音装置の延長線にあるもので、1956年以降のことです。オーディオ記録とビデオ記録では要求される技術が桁違いに異なりました。ビデオテープレコーダの開発には多くの技術的問題があり、それを解決するため多額の開発費と時間がかかりました。
その困難を乗り越えて世界で初めてビデオテープレコーダを開発したのは、米国AMPEX社でした。
■ 回転ドラムヘッド
酸化鉄磁性体を使ったテープを使って、映像が電子的に記録できるようになったのは1956年のことです。
米国のAMPEX社(1944年設立、米国カルフォルニア州サンカルロス)が、テレビカメラでとらえた電子画像をテープに録画する装置の開発に成功したのです。映像は情報が多いため、オーディオテープのような記録方式ではとても満足いく画像を記録することはできません。
AMPEX社は、録画ヘッドを14,400rpm(240Hz、ビデオ信号のフィールド画像60フィールド/秒の4倍)で回転させて、そのヘッドをテープの走行方向に対して垂直にスキャンするという方式を考え出しました。
通常、オーディオに使われている録音・再生ヘッドは、移動したり回転したりはしません。固定です。固定ヘッドの上を磁気テープが走行して音声信号を記録し再生するのが一般的な方法でした。しかし、ビデオ信号は情報が多いので(記録周波数が高いので)、この方法に頼っていたのではとても周波数帯域を確保することができませんでした。
磁気ヘッドを回転させる発想は、奇抜なものだったと言えます。
記録周波数を上げる方法としては、ヘッドを複数配置してテープ速度を上げてマルチチャンネル記録すると言うのが常套手段です(現在のコンピュータの磁気テープ装置はそのようにしています。MT参照 )。しかし、そうは言ってもテープ走行を10m/sで走らせて、その上、そのスピードを一定にさせるという技術が当時できなかったのでしょう。10m/sというのはかなりの速度です。このスピードで10分程度の画像を録画したとしたらどのくらいの容量になるでしょう。6,000mもの長さになります。VHSテープが240mですからVHSテープよりもさらに25倍もの長さが必要となり、その長さでも10分しか録画できないのです。そうした方法よりも、回転ドラムにヘッドを取り付けて、テープと磁気ヘッドの相対速度を上げて周波数帯域をかせぐ方がより現実的だとAMPEX社の技術者は考えました。
磁気ヘッドが回転して磁気テープに情報を記録する方式は、記録をとぎれとぎれに行うことになります。しかしテレビの映像信号は走査線で画面を構成していたので、走査線1本分をヘッドがテープをスキャンする時間にあてがえば問題となりませんでした。
この考え方をもとにして、家庭用VTRで一般的になるVHSもベータもU-maticもすべて回転ドラム方式を採用するようになりました。
ベータ方式やVHS方式では、さらに周波数帯域を上げるために斜めにテープをスキャンするヘリカルスキャン方式を採用しました。VHSは、この方法によってテープとヘッドの相対速度を5.8m/sとしています。
ちなみに、オーディオテープは、1/4インチ(6.35mm幅)のテープを使った30インチ/秒(76cm/s)での走行が最高でした。
テープだけの走行では、1m/sの速度が耐久性を含めた運用上の限界だったのかもしれません。
回転ドラムによる磁気記録を最初に開発したAMPEX社は、テープ走行に対してドラムが垂直に横切るバーティカルスキャン(vertical scanning, transverse scanning)方式を採用しました。これは、回転ドラムの周囲90°毎に4つの磁気ヘッドを配置して、ドラムが90度回転するごとにテープがヘッドの厚さぶんだけ走行移動するようにし、4つのヘッドのいずれかが常時磁気テープにコンタクトするように考案されていました。使用した磁気テープは、2インチ(50.8mm)幅のある太いものでした。このビデオテープレコーダは、2 inch Quadruplex Videotape Recorderと呼ばれました。テープ走行とドラムヘッドの回転(14,400rpm)によって作られるヘッドとテープの相対速度は40m/sとなりました。固定ヘッドではこの速度はとても達成できない値です。この記録速度によって、約13MHzの信号を記録・再生できるようになりました。
2インチ(50.8mm)巾のテープは両端にオーディオトラックとコントロールトラック信号、それにブランク領域を確保する関係上、1 - 4/5 インチ(48.26 mm)巾が映像記録ができる1ライン( = トラック)となります。実際は、4つのヘッドが順番にトラックに入って来るので1ヘッドが1トラックに記録する長さは、1 5/8 インチ(41.275 mm)となります。回転ドラムは1秒間に240回まわりますので、ヘッドは1秒間に960回トラックをなぞって行きます。テレビ映像は1秒間に30コマの映像を作っているので1コマのテレビ映像は、32トラックで構成されることになります。
【AMPEX社開発のVTR概略仕様】
・ 使用テープ: 2インチ巾(50.8mm)磁気テープ、4800ft(1500m)、1時間録画
・ 磁気ヘッド: 回転ドラム式
・ 回転ドラム径: φ52.55mm(ヘッド・テープスピードより算出)
・ ヘッド数: 4
・ スキャン方式: 垂直スキャン(vertical scan)方式
・ ドラム回転数: 240 Hz(14,400 rpm)
・ ヘッド - テープ相対速度: 1,560インチ/秒(39.6 m/s)
・ テープ走行速度: 15インチ/秒(0.381 m/s)
・ 信号記録帯域: 13MHz (ヘッドギャップを1.5umとして換算)
・ 記録方式; FM(周波数変調)方式
・ トラック巾: 10 mil(254 um)
・ トラックピッチ: 15 mil (381 um)
【ビデオテープレコーダの開発背景】
ビデオテープレコーダが開発された直接の動機は、米国のテレビ放送の時間差にありました。アメリカは国土が広いため、ニューヨークのある東海岸とロスアンゼルスのある西海岸では4時間の時差があります。プライムタイム(ゴールデンアワー)でニュース番組を流したり、しゃれたトーク番組を放送しても4時間の時差のある反対側では真夜中になってしまったり、まだ人々が働いている時間帯だったりするわけです。こうした時間差を克服するために、映像を蓄えてタイムリーに流すことができたら便利だと彼らは考えました。
こうした要求に応えるためAMPEX社が開発に乗り出し、1956年11月30日、CBSの「the Douglas Edwards with the News」(ダグラス・エドワーズのニュース)においてビデオテープレコーダを使った放送を初めて行いました。もちろん白黒画像でした。
初期の頃のビデオテープレコーダは非常に高価でした。それ以上に、消耗品である2インチテープがとても高価であったと言われています。1時間の録画ができるオープンリール式2インチビデオテープが当時、日本で100万円相当したそうです。当時の大卒者の初任給が1〜2万円だったことを考えると、現在(2009年)の価格にして1500万円相当になります。1時間の録画に1500万円をかけるというのはとんでもない話だったに違いありません。そのために、当時はビデオテープを使い回しをして、録画しては消して、上書きの録画を行っていました。その結果、1960年代のテレビ映像の多くは、録画はされたけれども次々と消されてしまい、記録として残せなかったという残念なことになりました。
また、AMPEXのVTR装置は非常に大きくて重く、巾が1m50cm、高さが1m60cmあったそうです。大きな本棚のようなキャビネットの装置で、そこに重さ5.5kgもあるビデオテープが鎮座していました。ビデオテープを取り替えるときは、両手でテープを胸の高さまで持ち上げて足下にあるペダルでバキュームロックを外して取り替えていたそうです。
そしてまた、回転するビデオヘッドのアライメント調整がとてもシビアで、使用する部屋は一定の温度と湿度を保たないと正常に動作しなかったと言われています。回転ヘッドは消耗品で、テープとの摩耗でヘッドが目詰まりしたりアライメントが狂ったりします。そうした場合の調整はとても難しくて現場ではできないので、テレビ局はヘッドアセンブリを常時保管していて、交換が必要な時にアセンブリ毎交換していたと言います。
そうした中で、ソニーがトランジスタを使った放送用2インチテープビデオテープレコーダを開発し(1961年)、3/4インチテープをカセットに入れたU-maticを開発し(1970年)、1/2インチ幅のベータ方式のベータカムを開発(1975年)して行きました。装置もコンパクトになり信頼性を増し、使用するテープもどんどん安価になっていきました。1980年代後半には、磁気テープを使ったデジタル録画 ができるようになりました。
▲ ドルビー(Ray Dolby)氏のこと
AMPEX社でVTRを開発したエンジニアの一人にRay Dolby氏がいます。
映像分野では、ドルビー(Ray Dolby:1933.01〜)氏の業績はそれほど高くはなく、音響分野でノイズリダクションシステムを開発した人として、ドルビーシステムの名前でなじみが深いと思います。そのドルビー氏は、上記のAMPEX社に高校時代アルバイト生として、そして夏休みには長期のアルバイトという形でオーディオテープレコーダの開発を手伝っていました。彼は、オレゴン州ポートランドで生まれてサンフランシスコで育ちました。また、彼がスタンフォード大学(1951-52、1953 - 1957)に入った時もAMPEX社と関わり続け、アルバイトの形でAMPEX社のビデオテープレコーダの開発に関わりました。彼はスタンフォード大学の電気工学科を卒業し、英国に渡ってケンブリッジ大学に通い物理学で博士号を取得します。ケンブリッジ大学を出た後は、インド政府の招きで技術アドバイザーをしていましたが、1965年に英国に戻りドルビー研究所(Dolby Laboratories)を設立します。設立した年に、音響のノイズリダクション方式であるドルビーサウンドシステムを発表しました。この方式は映画の音響システムに採用されて大きな反響を呼び、彼の音響工学に対する技術を揺るぎないものにしました。
私がここで話題にしたいのは、ドルビーシステムのことではなく、映像の磁気記録装置に関わった若き日のドルビー氏のことです。
AMPEX社のビデオテープレコーダの開発は1952年に始まります。
完成の年1956年から遡って4年前にプロジェクトがスタートしました。4年の開発年月が長いと見るべきなのか妥当と見るべきなのかはよくわかりませんが、AMPEX社の社内事情やプロジェクトの中断などがあって4年という歳月が費やされました。若きエンジニアのドルビーが加わっていなければ、AMPEXのVTR完成はさらに遅れていただろうと言われています。
AMPEX社は1944年に創設され、小型モータと発電機を作る会社としてスタートしました。6人の会社でした。同社は、米国陸軍通信部隊と取引があった関係で、米軍が第二次大戦中にドイツから持ち帰ったテープレコーダの国産化を託され、1947年から開発を始め、1年後の1948年に完成してABC(米国の放送会社)に採用されました。少人数の技術集団でしたが技術力は高かったようです。
こうしてAMPEX社はテープレコーダ製造会社として発展を続け、放送局用のテープレコーダのみならず、米軍の計測用テープレコーダや、ハリウッドの映画音声システムを手がけるようになりました。
ドルビー氏は、AMPEX社がオーディオテープレコーダの開発を始めた当初からアルバイトとして同社に出入りし音響工学の知識を深めて行ったようです。AMPEX社がビデオテープレコーダの開発を始めた1952年は、ドルビー氏がスタンフォード大学の2年生でした。19才の学生ですからまだまともなエンジニアリングの経験と実績は乏しかったと思いますが、技術的アプローチと発想の才に秀でていたようで、瞬く間にプロジェクトの中核となって行きます。
彼は、その仕事にのめり込みすぎて大学を中退してしまいます。
おかげで大学生の特典である兵役の免除が切れてしまい、1953年の3月に徴兵されてしまいました。彼が徴兵に出ている間、AMPEX社のプロジェクトは、一進一退を繰り返し、またAMPEX社そのものの経営方針の都合で、そのプロジェクトが一時棚上げされて中断もしました。
1954年1月にプロジェクトが再開され、1955年の春にドルビー氏が兵役から帰って来ました。
その1年後にビデオテープレコーダは完成します。
ドルビー氏は、今度は大学に通いながらアルバイトという形でプロジェクトに参加し、FM変調回路(周波数変調方式、ラジオ放送のFM放送方式に似た方式)を用いたシンプル化設計に能力を発揮しました。ビデオ信号をテープに録画する上で、FMによる信号記録(録画)は一つの技術革新でした。この技術によって高い周波数の映像信号を録画し再生できるようになりました。
▲ FM記録(Frequency Modulation Recording) (2010.08.21記)(2010.08.24追記)
FM記録は、AMPEX社がビデオテープレコーダ開発に採用した磁気テープへの信号記録方式です。 従来のオーディオ録音技術を使ったのではとても満足な映像記録ができないために、この手法が開発されました。 VTRの開発にあたっては、広帯域信号記録を行うためにまず磁気ヘッドの高速化が図られました。回転磁気ヘッドの採用により、テープとヘッドの相対速度を1,560インチ/秒(39.6 m/s)として広帯域録画に対応させました。AMPEXが開発したビデオテープレコーダは、13MHzの信号帯域を録画できる能力を持っていました。この録画信号帯域とテープ・ヘッド相対速度から、ヘッドギャップ長を求めると、1.52umのギャップ長となります。
d = V/(2 x F) = 39.6E6 um / (2 x 13 MHz )
= 1.52 um
AMPEXは、この方式によって広帯域の録画性能を満たしました。(VHS方式の磁気ヘッドでは、さらに狭い0.3umのギャップ長になっています。)
NTSC信号の信号帯域を見てみますと、規格で4.2MHzと決められています(NTSC規格の水平解像力参照 )。AMPEX社はこの帯域の3倍強を持つ磁気ヘッドとビデオテープの開発を行ったことになります。
なぜ、仕様をオーバーするような開発を行ったのでしょうか。
それは、オーディオで使われているACバイアス法 を映像記録に用いると、帯域が大幅に不足して、さらに低い周波数領域では歪みも大きくなってしまう問題があったからです。
このような理由から、ACバイアス法を諦めて周波数変調による記録法(FM記録)を採用することにしたのです。
FM(Frequency Modulation)とは、入力信号(振幅情報)を周波数に変換する手法で、振幅の大きいものは周波数を高くして小さいものは周波数を低くする信号変換手法です。アナログテレビ放送でもこの方法は採用されていて、FM信号による映像信号を無線を使って送信しています。ラジオ放送にもFM放送があり、同様の方式を取っています。FM記録はラジオ放送を聞いてわかるように、ノイズが少なく高品質です。
扱う信号帯域を広く取ることができ、ノイズに強いというのがFM記録の特徴です。
AMPEX社は、FM記録を行うにあたって基本周波数(搬送波 = carrier)を8.6MHzとしました。この周波数を中心として入力信号を上下の側波帯(±4.2MHz)を乗せると、
4.4MHz <(8.6MHz) < 12.8MHz
が磁気テープに記録される周波数帯域となります。磁気テープには、常時この範囲の周波数が記録されることになります。
AMPEX社が13MHzの記録帯域を目指した理由がここにあります。
テレビ画像の周波数を考えるとき、モノトーンの部位から細かい部位までの画像周波数は30Hz〜4,200,000Hzとなります。このレンジは、1:140,000であり、103dBに相当します。このダイナミックレンジをカバーする磁気記録など当時では不可能に近い値でした。多くの電子機器は、60dB(1:1,000)程度の機器を作るのがやっとで、100dB(1:100,000)を越えるものの開発は現実性が極めて乏しいと言わざるを得なかったのです。このテレビ画像の周波数をFM記録にすると、4.4:12.8 = 1:2.9( = 9.3dB)となり、狭いダイナミックレンジでも十分に映像を記録できることになります。FM記録の大きな特徴がここにありました。FM変調は、周波数のゲタを履かせて周波数成分のダイナミックレンジを見かけ上小さくする手法でした。
この手法は、以降、VHS方式のVTRにも採用されて行きました。アナログ信号処理の救世主のような存在がFM記録だったのです。
▲ MT(Magnetic Tape)- コンピュータ用デジタル磁気テープ (2008.08.18追記)(2010.12.12追記)
磁気テープを使った記録装置について、今度は映像の世界からコンピュータの世界に目を向けて見ることにします。
磁気テープは、アナログ記録からスタートしました。アナログ記録では、信号の強度を磁化の強さとして記録していました。
デジタル記録が大前提であるコンピュータ用外部記録としても磁気テープは比較的早くから注目されていました。
■ IBM726
コンピュータ用の外部記憶装置として開発された最初の磁気テープ記録装置は、IBM社の開発したモデル726というものです。
モデル726が完成したのは1952年のことですから、磁気テープ(セルロース・アセテートベース)が米国で販売されるようになってすぐにこの装置の開発に入った感じを受けます。
1952年と言えば、まだ本格的な電子計算機は市販化されていません。当時の電子計算機はまだ試作の域を出ていなかったのです。IBMも、この当時は大型計算機を作っておらず、レミントンランド社(後、ユニシス社)の電子計算機を自社のパンチカードと組み合わせて売っていました。そのIBM社が自社の電子計算機(IBM701)を開発し、それにIBM726を組み合わせて販売したのです。
もちろんIBM726は新しい装置ですから、高価であり信頼性もわかっていなかったので、長らくはパンチカードシステム (PCS = Punch Card System、URE = Unit Record Equipment)が主流の座を占めて行きます。
しかし、1952年の比較的早い時期に、磁気テープを使ったデジタルデータ記憶装置を開発したのは特筆すべきことと言えましょう。
大型計算機が、商業ベースに乗ってその存在を確立するのは、1964年のIBM360からです。
この時代にあってもデータの入出力装置の主流はパンチカードでした。パンチカードの方が安価で使いやすかったのです。
モデル726のキーコンポーネントは、磁気テープであり、高速で安定した品質を保つため、IBMは3M社にコンピュータ用ストレージ専用のテープを注文しました。テープは表面にわずかの異物の付着を認めず、それは、マンハッタンとポキプシー(ニューヨーク州)間の96kmの道路をわずかの小石をも認めない品質であったと言われています。そのため、IBM社はポキプシーにクリーンルーム装備を備えたテープコーティング工場を建設し、品質の向上に努めました。精密な検査を経て製造される磁気テープは極めて高価なものでした。
音声記録装置としての磁気テープがアナログ記録だったのに対し、IBMは最初からデジタル記録を行いました。
ただ、当時のデジタル記録はそれほど高速かつ高密度にできたわけではありませんでした。
IBM726は、45,000ビット/秒の読み書き能力を持っていました。現在の音楽用CDの記録速度が4Mビット/秒(データ実効値は1.4112Mbps)であるので、IBM726の記録速度はCDの性能の1/31程度でした。その上、記録時間は3分程度でした。この事実は、この時代の磁気テープで音声デジタル録音をすることなど全く不可能であり、音声技術よりも帯域の広い映像技術の確立はほど遠いことを物語っています。
IBMは、磁気テープを使った記録装置を開発していくにあたり、テープ幅を1/2インチ(12.7mm)としました。
これは、現在にいたるまで終始一貫したものであり、オープンリールからカートリッジ仕様へと外装は変わっても同じテープ幅のものが使い続けられています。
■ モデル726のデータアクセス
モデル726は、テープ幅1/2インチ(12.7mm)に7トラック(6ビット + 1パリティ)の記録方式を採用しました。
テープリールの大きさは直径300mmであり、テープの長さは1,200フィート(366m長)でした。両腕で持ち上げてずしりとする重さでした。記録密度は、600BPI(bit per inch)であり、75インチ/秒(1.905m/s)のテープ速度で書き込みを行いました。
この性能から計算すると、記録速度は45,000ビット/秒(5.6KB/秒)となり、1,200フィート(366m長)のテープには約3分にわたって1.08MBのデータが保存できることになります。CDの容量の1/600にも満たないこの容量でも、1950年代の記録媒体としてはおそろしく大きなものでした。
モデル726磁気テープ装置には、大きな特徴がありました。それは、テープを大きくU字にたるませる機構でした。
上右図に示すように、磁気テープの走行経路では300mm径の磁気テープリールから磁気ヘッドに導かれる途中に、500mm程度のテープのたるみを作るスペースを取っています。また、磁気ヘッドから巻き取りリール(テイクアップリール)に行く途中にも同様のスペースが設けられています。
テープのU字状のたるみは、真空ポンプを使ってテープを吸い寄せて作っていました。なぜ、このような大きなたるみを作ったかというと、当時の磁気テープはデータを頻繁に書き込んだり読み出したりする装置であったため、テープは頻繁にデータアクセスがなされ、その都度テープはストップ&ゴー(停止と走行)が繰り返されました。このため、テープ走行経路にこうした緩衝(バッファ、たるみ)を設けないとテープをレスポンス良く高速に動かすことができなかったのです。現在の我々が考える磁気テープ装置は、システムのバックアップとして一気にデータを書き込んだり読み出したりするものと考えがちですが、当時は都度データを読み書きする装置だったのです。
モデル726は、この方式によって、1/100秒でデータをアクセスすることを可能にしました。テープは1/100秒で0.5インチ(12.7mm)進むので、この間はデータを記録することができません。
モデル726では、データを細切れにして保存するため、データブロック間はこの分だけのスペースを設けていました。
1960年代から1980年代の大型計算機室には、巨大な磁気テープ装置群が鎮座していて、高速でストップ&ゴーを繰り返しながらデータをアクセスしていました。その動きが目新しかったために、磁気テープ装置とその動きがコンピュータそのものの代名詞のようにメディアに取り上げられていました。
LTO規格のデータストレージテープ。
1巻方式のカセットに収納されている。
これを書き込み/読み出し装置に挿入して使用する。
■ LTO(Linear Tape-Open)Ultrium (2010.12.12追記)
磁気テープは、時代と共にマルチヘッドによる高密度高速記録ができるようになりました。
2009年当時にあっても1/2インチ(12.7mm)磁気テープは、メインフレーム(大型コンピュータ)のバックアップ記録装置として使われ続けています。
新しい磁気テープは、LTO(Linear Tape-Open)Ultrium規格になっています(右図、下図参照)。
この規格は、1998年にIBM、HP、Seagateの3社が策定したオープン規格です。
この規格の基礎となっているのは、IBMが1980年代より採用しているカートリッジ3480です。
従来、コンピュータデータストレージの磁気テープには共通の規格というものがなかったため、利権争いの温床となっていました。これをユーザが使いやすいように規格を練り直し、オープン化したのがこの規格です。
この規格は時代とともに進化してLTO-1からLTO-5まで発展し、2010年以降もLTO-6(3.2 TB容量)、LTO-7(6.4TB容量)、LTO-8(12.8TB容量)の仕様策定が準備されています。
2010年に策定されたLTO-5規格を以下に示します。
・発売日: 2010年
・カートリッジ寸法: 102.0 x 105.4 x 21.5 mm
・保存容量: 1.5TB
・テープ巾: 1/2インチ(12.7mm)
・最大データ速度: 140MB/s
・テープ走行速度: 3.8m/s 〜 7.5m/s
・テープの厚さ: 6.6um
・テープ長さ: 846m
・テープのトラック数: 1,280
・書き込み端子数: 16
・バンド当たりのラップ数: 20
・記録密度: 15,142 bits/mm
・データ通信インタフェース: Serial-attached SCSI (SAS)
この規格では、カートリッジ式テープ内に1.5TBのデータを保存することができ、最大140MB/秒の記録速度を持っています。
また、この規格はテープを4バンドに分けて、1バンド当たり16chのヘッドを使ってテープ上を20回行き来(10往復)して、データを書き込み/読み出しを行っています。16chの磁気ヘッドは、テープの往復にミクロン単位の位置制御を行い、最適なトラック位置でのデータ読み書きを行っています。下図にテープのトラックパターンを示します。12.7mm幅のテープには、1,280トラックが走り、テープの両端には走行安定のためのサーボ(制御)信号が記録されています。トラック一つ分の幅は5um程度となり、これをマルチチャンネル磁気ヘッドを使って読み書きを行っています。
カートリッジ内のテープは、データ読み書きのためにカートリッジから出たり入ったりの繰り返しを煩雑に行うことになります(serpentine recording = サーペンタイン法。サーペンタインは蛇の蛇行運動の意味)。そのスピードは、3.8m/s〜7.5m/sととても速く、磁気テープの走行では最速です。
このテープの持つデータ容量を見る限り、現在注目を浴びているDVDやHDDと比較しても記録容量や記録速度、メディアの価格などの点で依然として磁気テープのメリットがあることに気づかされます。LTO-5では、最大140MB/sの記録速度を持ちます。この速度はHDDの4倍の記録速度に相当します。メディアも1.5TB(1巻)当たり15,000円程度です。1.5TB容量は、100円程度のDVDだと320ヶ必要ですから、金額にして32,000円ほどになり、保管も大変ですからLTOのメリットは十分にあります。ただし、当然のことながら、テープは連続した一連の記録が得意であり、任意の部位を取り出したりファイルを入れ替えたり(ランダムアクセス)することはできません。従って、膨大なデータをバックアップする目的に威力を発揮します。
▲ 磁気テープのデジタル記録とビデオ録画
コンピュータに使われてきた磁気テープ装置と、テレビ分野で使われてきた映像を記録する磁気テープ(ビデオテープ)装置は、それぞれ別々の目的を持って開発されたもので、それぞれのエンジニアが心血を注いで開発を続けてきたものです。
磁気記録の本質は違いないものの、記録方式が異なっていたために開発はそれぞれ独立した道を歩んで行きました。
両者の大きな違いは、出発点がデジタル記録かアナログ記録かです。
そして、デジタル記録はコンピュータのデータ保存が出発点であり、アナログ記録は映像(もしくは音声)記録が出発点でした。
コンピュータの周辺装置としての磁気記録は、デジタル記録が大前提なのでこれは譲る事ができません。
方やビデオ録画はNTSC規格を代表とするビデオ信号の記録が大前提であり、規格当初から2011年の放送終了に至るまでアナログ信号です。
そして、ビデオ信号は1秒間に30フレーム、走査線数525本という大きな決まりがあり、これをカバーする記録・再生を行わなければなりません。ビデオ録画には、開発当初から周波数帯域の高い性能と長時間記録性能が求められていました。これをデジタルで行う事など全く不可能でした。
米国AMPEX社がビデオテープレコーダを開発した1956年の電子部品と言えば、真空管が全盛の時代でした。
その時代に、9MHzの映像信号をテープに記録して再生するという装置を完成しなければなりませんでした。
この映像情報をデジタル信号に直して保存するとすると、1情報を8ビット(白黒256階調)としても72Mビット/秒の信号処理を必要とします。圧縮など思いもよらない時代でした。
周波数の高いテレビ信号にあっては、これを組み伏せるだけの技術がデジタル信号処理にはなく、追いつくことなど到底できない仕様上の大きな障害でした。
アナログはデジタルに比べて高速処理ができるメリットがあったのです。ただ、アナログ処理はノイズが入り込む要素が非常に多く、転送やコピーを繰り返す毎に品質が劣化します。デジタル処理は、基本的に信号劣化がありません。しかし、デジタル処理には装置の電子処理の負荷が相当にかかります。
高速記録の観点から言うと、アナログの方がデジタルよりも速く行うことができました。
そういう時代が長く続いたのです。
映像のデジタル録画 は、1982年にD1 という規格で現れます。これは、放送局のVTRに採用された規格です。
これは、VHSビデオが開発された1976年の6年後の事です。
1970年代から1980年代、VTRがすごい勢いをもって技術力を高めて行ったことがこのことから理解できます。
▲ ビデオテープレコーダ - VHS vs ベータ
ここで、ビデオテープレコーダの代表的規格となったVHS規格とベータ規格について触れます。
VHS規格のビデオテープレコーダは、1976年に日本ビクターによって開発されます。VHSは、Video Home Systemの略と言われていますが、開発初期はVideo Helical Scanの略であったと言われています。
米国AMPEX社が2インチ(50.8mm)幅の磁気テープを使って、回転ビデオヘッドを垂直にスキャン(transverse scanning)する機構のビデオテープレコーダを完成したのを契機として、よりコンパクトな1/2インチ(12.7mm)テープ幅を使ったカセットに収めるビデオ録画装置が開発されました。
放送局用では、3/4インチ(19.05mm)幅テープをカセットに入れたU-matic(1970年開発、主開発:ソニー、ファミリー:松下電器産業 = パナソニック、日本ビクター、海外5社)が一般的であったので、テープ巾をさらに小さくした1/2インチ(12.7mm)のカセットテープを使ったコンシューマ用(民生用)として開発されました。
磁気テープによる映像録画は、アンペックス社のVTR開発以降、磁気ヘッドが回転するスキャン方式が定着します。ソニーが放送局用に1976年に開発した1インチ(25.4mm)VTRは、直径134mmの回転ドラムのほぼ全周(354°)を巻き付ける「C」フォーマット(もしくはオメガ = Ω 巻き)でした。
VHSフォーマット概要
* 開発年: 1976年
* 主開発メーカ: 日本ビクター
* 陣営: 松下電器(現パナソニック)、日立製作所、
三菱電機、シャープ、赤井電機
* 記録方式:ヘリカルスキャン方式
* 記録ヘッド数:2
* ヘッドドラム直径:62mm
* ヘッドドラム回転数:29.97Hz (約1,800rpm)
* カセットテープサイズ: 188mm×104mm×25mm
* テープ幅:1/2インチ(12.7mm)
*テープ送り速度:約33.34mm/s(標準)
* 記録トラック幅:約58um(標準)
* 信号方式
VHS方式
■ 映像信号:周波数変調 (FM) シンクチップ3.4MHz
白ピーク:4.4MHz
クロマ信号:低域変換方式
S-VHS方式
■ 映像信号:周波数変調 (FM) シンクチップ:5.4MHz
白ピーク:7.0MHz
クロマ信号:低域変換方式
■ 音声信号:2チャンネル長手方向記録
(ノーマル音声トラックの場合)
ベータフォーマットの概要
* 開発年: 1975年
* 主開発メーカ: ソニー
* 陣営: 東芝、三洋電機、日本電気、アイワ、
パイオニア
* 記録方式:ヘリカルスキャン方式
* 記録ヘッド数:2
* ヘッドドラム直径:約74mm
* ヘッドドラム回転数:29.97Hz (約1,800rpm)
* カセットテープサイズ: 156mm×96mm×25mm
* テープ幅:1/2インチ(12.7mm)
* テープ送り速度:約40mm/s
* 記録トラック幅:約58um
* 信号方式:
■ 映像信号:周波数変調 (FM) シンクチップ:3.6MHz
白ピーク:4.8MHz
クロマ信号:低域変換方式
■ 音声信号:2チャンネル長手方向記録
VHSとベータのビデオ戦争は、ユーザを巻き込んだ激しいシェア争奪戦でした。(ビデオ戦争:1976年〜1988年)
最終的に民生用のビデオ装置は、VHSが勝利しました。技術の高さとマーケッティングの巧みさで連戦連勝を続けるソニーには相当に手痛い敗北でした。
しかしその勝利もつかの間、次なる新しい技術 = デジタル映像の台頭により、アナログ記録であるVHS装置も終焉の時期を迎えなければなりませんでした。
2008年1月に、VHSによるVTRの生産は全て終了しました。
VHSは、32年の歴史だったと言うことができるでしょうか。
アナログのVTRは姿を消しましたが、デジタル方式によるVTRは、現在も主流で使われています。
1/4インチ(6.35mm)幅のメタルテープ(miniDV)を使用したデジタルビデオカメラには、回転ドラムヘッドによるデジタル記録方式を採用しています。放送局用のデジタルビデオコーダにもデジタルビデオテープが使われています。
1/2インチカセット方式のビデオ録画装置開発は、映像の歴史に大きな足跡を残しました。これは、真にビデオの時代の到来を告げた出来事だったと言っても過言ではないでしょう。
一般家庭に普及することがこれほどの効果をもたらすのか、と思い知らされた出来事でした。
また、民生用のVTRの普及に伴ってビデオ関連装置が派生的に発展し、CCDカメラの熟成を促しました。CCDカメラと小型ビデオテープレコーダ(8mmビデオ)の開発と成功は、「ビデオ」、「CCD」という言葉を生活の底辺まで定着させ使用用途を拡大させた
のみならず、そこで得た技術と利益を放送局用のカメラやビデオテープレコーダへ還元することができました。
市場の拡大により、CCDカメラは格段に安くなり、手軽にビデオ画像を扱うことができるようになりました。
コンピュータ(CPU)の発展は、デジタル映像技術にさらに拍車をかけました。
コンピュータの発展なくして、今のデジタル映像の発展はないでしょう。高画質の映像が得られても、簡単に見ることができなれば利用価値がないからです。
▲ DV規格とメタルテープ
磁気テープは、ビデオ録画媒体として発展を遂げ、1982年にはVHSテープを利用した200コマ/秒の高速度ビデオカメラが生まれました。1984年には専用の高密度磁気テープを使った2,000コマ/秒の高速度カメラも現れました。磁気テープは長時間、高速録画という要求に見事に応えた記録媒体でした。現在の放送局用のデジタルハイビジョン用の映像記録媒体にも磁気テープが使われています。しかし、磁気テープと言っても中身は大分変わりました。
磁気テープ開発の大きな技術革新は、記録方式がアナログ記録からデジタルになったことと、磁気テープ自体がコンパクトになりメタル蒸着テープが採用されたことです。
我々の使い勝手の面からではわからない裏方の技術として、磁性体開発のブレークスルーもありました。
それまでの磁性体は、酸化鉄をバインダーと呼ばれる支持体に混ぜてこれをテープに塗布していました。こうした方式に代えて磁性体をそのままテープに蒸着する技術が開発されました。これがメタル蒸着テープ(ME = Metal Evaporated)テープと呼ばれるものです。メタルテープには、磁気記録に関与しないバインダーが無いのでテープを薄くすることができ、記録密度も向上させることができました。
こうした技術発展の中で、磁気テープは、
2インチテープ幅(50.8mm)のオープンリール
→ 1インチ(25.4mm)
→ 3/4インチ(19.05mm)
→ 1/2インチ(12.7mm)
→ (8mm)
→ 1/4インチ(6.35mm)
と小さくなっていきました。高い周波数帯域まで十分な性能が高められてくると、映像もデジタルで記録できる可能性が出てきました。
8mmデジタルビデオカメラは、メタルテープのコンパクトさと記録密度の高さによって実現できたと言えます。
DV規格 は、先にも述べたNTSCアナログ信号をデジタルに直した規格で、アマチュア向けのビデオ信号に広く利用されるようになったものです。
【フロッピーディスク(Floppy Disk = FD)】 (2009.10.18追記)(2010.12.22追記)
フロッピーディスクは、個人目的を含めて2005年頃までのパーソナルコンピュータの一般的な記録媒体であり、コンパクトさと安価であることから非常によく使われていました。
しかし、2005年以降、このメディアが使われることはほとんどなくなりました。
その証拠に、2000年以降発売されるパソコンにはフロッピー装置が装備されなくなりました。
フロッピーディスクは、画像を扱うファイル用記録媒体としての利用価値はなく、もっぱらドキュメントファイルの保存に使われていました。
このメディアは、記憶容量が少なくてデータアクセスの速度が遅いので、画像データを扱うには不向きだったのです。
フロッピーディスクは、手軽に持ち運べて媒体も安価であったのに、2000年を境にして急速に市場から姿を消していった理由として以下のものが考えられます。
・ パソコンの扱うデータ容量に対応できなくなった。
(画像ファイルの台頭、OSの肥大化)
・ フロッピーディスクの読み書き速度が遅かった。 (約125kビット/s)
・ CD-R/RWが普及して、これがパソコンの標準装備となった。
・ フラッシュメモリの普及により、手軽に大容量のデータが
バックアップできるようになった。
・ パソコン本体にUSBが標準装備され、
手軽に周辺機器(CD、DVD、HDD、USBメモリ)と接続できるようになった。
▲ 開発
フロッピーディスク(IBM社はディスケット = disketteと呼んでいた)は、薄い(約77um厚の)ポリエステルフィルム(米国Du Pont社の開発したマイラーフィルム = Mylar)の円板(floppy = フロッピー)に磁性体を塗布して保護ケースに入れたもので、これを読み書き装置に挿入してデータを読み込んだり、書き出しを行っていました。
フロッピーディスクの読み書きを行う磁気ヘッド内蔵装置をフロッピーディスクドライブ(Floppy Disk Drive = FDD)と呼んでいました。
1928年に開発され、1970年代まで主流であったIBM パンチカード。
カードの大きさは、7 -3/8 x 3 -1/4 インチ(187.3mmx82.55mm)。
厚さは、0.007インチ(0.178mm) = 143枚で1インチ(25.4mm)。
当時の大型計算機は、このカードを読みってバッチ(束)処理された。
フロッピーデスクシステムが最初に開発されたのは、1967年のことです。
パソコン(1981年)が登場するはるか以前のことです。
この装置は、IBM社のエンジニア、アラン・F・シュガート(Alan Field Shugart: 1930.09 - 2006.12)がパンチカード の代用として開発しました。
当時のフロッピーデスクの記録容量は、8インチ(φ203mm)の大きさがあるにもかかわらず、わずか256KBでした。
IBM社は、当時、彼らが開発したメインフレームであるIBM370のシステムロード用として、取り扱いが簡便な外部記憶装置を求めていました。
その代用として開発されたのが、8インチフロッピーディスクだったのです。
フロッピーディスクは、従って、当然のことながら開発当初からデジタル記録媒体でした。
8インチフロッピーディスクは、Memorex社から販売されました。
Memorex社の設立は、1961年です。
この会社は、VTRを開発したAMPEX社を退職した3名によって磁気テープ製造を目的として設立され、IBM社向けの磁気テープと磁気ディスクの製造で成長しました。
同社は、2006年、Imation社に吸収されました。
■ IBMパンチカード(IBM 80 Column Punched Card Format)
IBMが開発したフロッピーディスクは、当時記憶装置の主流であったパンチカードを多分に意識していました。要するに、パンチカードに置き換える目的でフロッピーディスクが開発されたのです。
パンチカードによる情報処理は1800年代からあり、コンピュータができる以前からありました。パンチカードを最初に使ったのは、フランスの発明家ジョゼフ・マリー・ジャカール(Joseph Marie Jacquard)で、彼が発明した織物の文様を形作る装置(ジャカード織機)に採用されたと言われています。
これをイギリスの数学者チャールズ・バベッジ(Charles Babbage、1791年 - 1871年)が、数学解析を行う機械に組み込むことを1800年代後半に考案し、コンピュータへの入出力装置として注目されました。
コンピュータ自体は1940年後半になるまで実用的なものが現れませんでしたが、パンチカードは大量のデータ処理を必要とする分野に使われ、1890年の米国国勢調査で米国の発明家ハーマン・ホレリス(Herman Hollerith、1860年 - 1929年)が作った集計装置タビュレーティングマシン(Tabulating Machine)が使われました。
米国IBM社(設立:1911年)は、ホレリスの興したTabulating Machine Companyを母体(他に2社、計3社の合併会社)として、タビュレーティング装置(パンチカードシステム)を製造販売会社として発展しました。パンチカードはIBMの心臓部だったのです。IBMが採用したパンチカードは、1928年に開発したIBM 80欄パンチカード(IBM 80 Column Punched Card Format)が有名で、以後このカードは、電子計算機の時代になっても1980年代半ばまでの約60年に渡って使い続けられました。
IBM 80欄 パンチカードの特徴は、以下の通りです。
・ 穴の形状は長方形。
・ 1枚のカードに80欄。1欄は12穴。
・ カードのサイズは、7-3/8インチ x 3-1/4インチ(187.325mm x 82.55mm)。
当時の1ドル紙幣の大きさ。(現在の1ドル紙幣はこれより縦横20%小さくなっている。)
・ カードの厚さは、0.007インチ(0.178mm)。1インチの厚さで143枚のカード。
・ カードは、取り扱いが楽なように表面をスムーズ処理し、かつ丈夫さも確保。
・ 高速処理をするため、1964年からカードの隅を丸くした。
・ カードには専用の収納箱があり、2000枚のカードを収納。
・ 1欄12穴の情報は、数字は12穴の中の上から3番目〜12番目を0から9にあて、
英文字は、一番上から三つ分(Y、X、0)のゾーンパンチエリアと組み合わせた。
(上図参照)
・ 12ヶの穴あけは、電子計算機に使用される際にEBCDIC = Extended Binary Coded Decimal Interchange Code
に準拠して穴位置が決められた。
上の図からもわかるように、パンチカードに入力する文字とパンチ穴のコーディングは簡潔で、現在我々が認識する二進法を取っていません。人間がパンチ穴の開け方ら判断しやすい方法となっています。
パンチカードは、コンピュータができる以前からあったので、人間が認識しずらい二進法そのものの穴あけは採用しなかったものと思われます。上の図では数字とアルファベット大文字、特殊文字を含めた213文字が示されています。実際は、EBCDIC(拡張二進化十進法)に準拠するときにさらに文字が追加されて、最終的に256文字となりました。
パンチカード自体は12穴であるので、これを二進法にあてたビットに直すと、212 種類(4,096種類)の記号をあてることができます。しかし、パンチカードは歴史的な経緯から人が認識しにくい2進法コーディングにすることはせず、このような方法を取ったと考えます。
パンチカードは、手頃なデジタル記録媒体であり、データの追加や消去、並び替えが簡単にできました。 私の大学時代(1970年代後半)のことを思い出すと、当時、コンピュータは大学内に数台しかなく、別棟で空調設備の整った建物(大型電子計算機室)を建てて、そこに大型コンピュータを設置して共同使用する運用方法を取っていました。
大型コンピュータのプログラムの保存は、パンチカードでした。1970年代の安価なデジタル記録媒体と言えば、パンチカードか紙テープだったのです。使用者はパンチカードの束を携えて計算機室に入り、カードリーダでパンチカードを読み取らせて、一日程度開けて計算結果を取りに行っていました。パンチカードは1980年頃まで使われていました。
フロッピーディスクの登場によって、簡便で記憶容量の大きいデジタル記録媒体の時代になりました。フロッピーディスクが一般的に使われるようになったのは1980年代からと記憶しています。
■ トラックとセクタ(Track, Sector)
フロッピーディスクに採用された記録媒体は、レコード盤のようにシリーズに記録する方式ではなく、細切れに間仕切りして、ランダムアクセスを可能としました。
細切れの最小単位は、当時よく使われていたパンチカード(右上写真)の記憶容量から割り出されました。
IBMが当時採用していたパンチカードは、12列(12ビット)x80欄 = 960bit(120バイト)の容量を持っていたので、8インチフロッピーディスクでは1セクタ(部屋割り)をビットの切りの良い128バイト(27 )としました。(1セクタは、その後 512バイト = 29 バイト が標準となりました。ディスクの大容量化とともにセクタは大きくなり、2011年にはフラッシュメモリの1セクタが4096バイト = 212 バイトとなりました。)
セクタ分割によるディスク内のデータ保存は、全周を26分割に分けさらにデスクを放射状に横切るトラック数(77トラック)で分割しました。
こうすることにより、8インチフロッピーディスクは、77 x 26 = 2002セクタの部屋割りができました。(右下図参照)
1セクタは、カードパンチャ1枚分の記録容量なので、初期のフロッピーディスク(256KB)は、2002枚のパンチカードのデータを保存できたことになります。
当時、パンチカードは2,000枚を収納するパンチカードボックスに入れて保管されていたので、パンチカードボックス1箱分が8インチのフロッピー1枚にそのまま入れ替わることになりました。
フロッピーディスクは、ディスクの回転数を一定にしてデータを読み書きする方式(CAV = Constant Angular Velocity方式)なので、フロッピーの内側と外側では線速度が異なり、内側のセクタが外側のセクタに比べて記録品質が劣るという問題がありました。
従って、フロッピーのデータ容量は、内側のセクタのデータ容量を標準にして決められました。
▲ パソコンに搭載 - CP/M
フロッピーディスク装置は、パソコン目的用としてではなく大型コンピュータ用として開発されたことは今述べたとおりです。
IBM-PCが発売された1981年より7年も前の1974年に、マイクロコンピュータと8インチフロッピーデスクドライブをつなげた人物がいます。
それがゲーリー・キルドール(Gary Arlen Kildall:1942.5.19〜1994.7.11)です。
彼は、インテル社が開発した8ビットのマイクロコンピュータ(i8080)を使って、データをマイコンにアップロードさせたりダウンロードさせたりする管理プログラム(OS = Operating System)を作りました。
これが、パーソナルコンピュータ用OSの元祖とされるCP/M( Control Program for Microcomputers、マイクロコンピュータのための制御プログラム)でした。
CP/Mは、マイクロソフト社で発売されたMS-DOS(MicroSoft Disk Operating System)の原型をなすものでした。
CP/Mには、マイクロコンピュータにデータを入出力させるBIOS(Basic Input/Output System)と呼ばれる心臓部があり、この心臓部の大きな役割が8インチフロッピーディスク管理だったのです。
当時、フロッピー装置の価格は1台当たり500ドル(約15万円)もしたので、彼らの手の出る代物ではありませんでした。
そこで、彼はフロッピーディスクドライブのメーカ、シュガート・アソシエーツ社(Shugart Associates、IBM社の元Managerシュガートが1972年に設立した会社)を説得して、一万時間の耐久テストが終わった使い古しのドライブをタダで手に入れ、これを管理する「CP/M」というオペレーティングシステムを開発したのです。
このエピソードから何がわかるかというと、当時、開発者のゲーリー・キルドールにとって500ドルがとても高価な投資であったことから、CP/Mは個人ベースで開発されたと解釈できます。 パソコン(マイコンキット)は、1970年代後半にあっては個人の趣味で(もしくは仲間内で自分のコンピュータ技術を自慢するために)作られていたのです。
電卓の心臓部として日本のビジコン社の嶋正利が4ビットマイコンをインテルに作らせた1971年当時、マイコンは性能的に中途半端であり、開発したインテルでさえも応用を見いだせずにいました。 せいぜい電子工学が好きな若者のオモチャ程度だったのです。
インテルは、8ビットマイコン(i8080)をまともに動かすための環境ソフトを開発するために、当時、西海岸の海軍大学大学院でコンピュータサイエンスの教授をしていたゲーリー・キルドールを技術顧問(パートタイム)として雇いました。 彼は、生来呑気だったようで(それでいて天才的なプログラマーだった)、インテルの事務所に車で出向くのがイヤで自宅で請け負った仕事をしようと考えました。
そこで、自宅で8ビットマイクロプロセッサi8080が動くソフトを書き上げるために中古のフロッピーディスクをシュガート社から譲り受け、BIOSの原型と最初のパソコン用OSであるCP/Mを作り上げました。
このソフトをインテルに持ち込んだのですが、インテルはまったく関心を示しませんでした。
それで、自分で会社(デジタルリサーチ社、Digital Research, Inc.)を興し、1976年にCP/M(インテルi8080用OS)を販売するようになります。
これが、マイクロソフト社のMS-DOSの母体です。
マイクロソフト社がIBM社に売ったMS-DOSは、CP/Mと中身(コーディング)がほとんど同じものだったと言われています。
ただ、MS-DOSはインテルの16ビットCPU i8086に合わせてコーディングされていました。
以後、IBM-PCの爆発的ヒットは周知の通りで、パソコンにフロッピー装備は当たり前のことなりました。
8インチサイズのフロッピーデスクは、1976年に5.25インチ(5 - 1/4インチ)サイズの小さなものとなり大きな普及を見ます。
日本で一斉を風靡した日本電気の16ビットパソコンPC-9801F(1983年発売)には、2基の5.25インチ2DDのフロッピーディスクドライブがついていて、一方にはMS-DOSのシステムフロッピーが挿入され、もう一方にはデータ保存用のフロッピーが挿入できるようになっていました。
当時HDD(ハードディスクドライブ)はとても高価だったので、コンピュータにはシステムを保存しておく記録媒体を持っていませんでした。
システムをフロッピーから立ち上げていたのです。当時はその程度の容量でシステムができていたのです。
さらに、1982年には、日本のソニーがハードカバーで覆った3.5インチのフロッピーデスク(280kB)を開発します。
その後、いろいろなメーカが同種の記録媒体を開発していきますが、世界的に見て、ソニーの開発した3.5インチのフロッピーデスク(下右写真)が一番の成功を収めたように思います。
ソニーのハードカバー3.5インチフロッピーが成功した主要因は、
・ 1984年のアップル社マッキントッシュに標準装備されたこと、
・ 1985年には、アタリやコモドールも続いてパーソナルコンピュータの標準として行ったこと、
・ ディスケットがプラスチックカバーで覆われ、ディスク面も自動開閉のスライドカバーで覆われて携行性が良かったこと、
・ データ容量も十分に大きかったこと、製品の信頼性が高かったこと、
などが挙げられます。
3.5インチFDDは進化をとげ、
→ 開発当初(1982年)は片面で280KBであったものが、
→ 両面倍密度(2D、360KB)
→ 両面倍密度倍トラック(2DD、720KB、1984年)
→ 両面高密度(2HD、1.44MB、1987年)
と発展していきました。
▲ 画像保存用のフロッピーディスク
フロッピーディスクが画像保存用に使われたことがあります。
1981年、ソニーがCCDカメラ、マビカ(Mavica)を開発したときに、カメラの記憶媒体として2インチのフロッピーディスクを採用しました。
しかし、保存形式はデジタルファイルではなくFM変調したアナログ記録であり、570x490画素相当の画像を50枚保存しました。
再生はもちろんNTSCアナログ信号による読み出しで、既存のテレビモニタのビデオ端子にケーブルを接続して見るようになっていました。
1981年当時、静止画像を記録するカメラと言えばフィルムカメラが圧倒的でした。
その当時は、デジタルフォーマットによる画像は整備されていませんでした。
計測用画像ファイルで有名になるTIFF ができるのが1986年のことです。
圧縮画像で有名なJPEGは、1992年の開発です。
従って、この時代にあっては、画像の保存をアナログであれフロッピーに詰め込んだのは画期的なことでした。
ソニーは、フロッピーデスクの開発元であったが故にフロッピーに執着し、デジタルマビカを出した1990年代も、3.5インチフロッピーディスクを使ったデジタルカメラを販売していました。
1999年に発売したデジタルマビカMVC-FD88Kは、130万画素CCDを搭載し、4倍速に進化した3.5インチフロッピーデスクにJPEG画像を4枚(1280x960画素)〜40枚(640x480画素)分を保存できるようにしていました。
このカメラは、パソコンとのデータ受け渡しを簡単にできることを狙ったものでしたが、フラッシュメモリの台頭とともに、記録容量と書き込み速度、それに取扱勝手に劣るこのタイプのものは終焉の時を迎えるに至りました。
▲ フロッピーディスクの性能限界
2000年を越えた頃より、パソコンの性能向上とともにインターネットが普及して音声や画像の通信がさかんになると、頻繁に扱うデータの容量と転送速度がフロッピーディスクの潜在性能を超えてしまうようになりました。
従来、テキストだけであったパソコンの文書作成に、画像が貼り付けられようになると、文書の容量が桁違いに大きくなりました。
A4サイズで40文字x45行を埋める文字を扱っている時代は、4KB程度のファイルサイズで済んでいたのに、300dpi相当の80mmx60mmのカラー画像(BMP)を貼り付けるようになると、画像だけで2MBの保存容量が必要となります。
この容量は3.5インチ2HDのフロッピーディスクの記録容量1.4MBをゆうに超えてしまいます。
また、フロッピーディスクは、データを取り出すのに時間がかかります。
転送速度は、125kビット/s程度であるため、1.4MBいっぱいに保存されたデータを読み出すには、90秒程度かかります。
パリティなどのエラーチェックやセクタ間の移動時間を考えると3分程度のアクセス時間を覚悟しなければならないでしょう。
こうしたことから、パソコンの世界では、フロッピーよりも大容量でより高速にアクセスできる、CD(コンパクトディスク)や、HDD(ハードディスクドライブ)、MO、DVD、フラッシュメモリへと記録媒体の主軸が移って行きました。
▲ フロッピードライブ(FDD)メーカ生産撤退の動き加速 (2009.07.28)(2010.07.10追記)
2009年7月27日付の朝日新聞では、フロッピーディスク駆動装置(FDD)メーカ主要3三社(ティアック、ワイ・イー・データ、ソニー)が製造を終了する方向で調整に入っているという記事を掲載していました。
フロッピーディスクの最大供給会社であったソニーも2009年9月に駆動装置の製造は終了し、中国でディスクの製造を行っていました。それも2011年3月に打ち切りFDD事業の完全撤退をすると発表しました。
3.5型のFDDは1984年からコンピュータに搭載されはじめ、Windows95が発売される1995年がFD需要のピークであったそうです。
そういえば、私が最初にパソコンを買った1993年、マッキントッシュ(LCIII)には3.5型のフロッピードライブがついていて、15枚のフロッピーを入れ替え差し替えしてOSを入れた記憶があります。
この時期はまだ、CDがパソコンに標準で搭載されていなかったのです。
そのFDDも2009年では最盛期の1/30にまで生産規模を縮小して、需要は企業向けのオプションに限られてしまったそうです。
1967年のフロッピー開発から43年を経て、その命を全うしました。
【Jaz、Zip、Bernoulli(じゃず、じっぷ、べるぬーい)】
フロッピーが容量不足となっていく1990年後半、メガバイトクラスのリムーバブルメディアの要求が高まっていました。
そんな中で登場したのが、米国のIOmega社の開発した Jaz、Zip、Bernoulli です。
アイオメガ社は、米国カルフォルニア州サンディエゴ市で1980年に設立されたコンピュータ周辺機器の会社です。
2008年4月にEMCに買収されました。
IOmega社が開発した磁気ディスク商品の年代順番は、
Bernoulli (1983) → Zip(1994) → Jaz(1995)
となります。
現在では、これらの名前を聞くことも少なくなりましたが、1990年代にあっては、一躍スポットを浴びたメディアです。
しかしながら、この製品も安価で信頼性が高いCDやDVDとの競争の憂き目にあい、現在は一部のユーザが使うのみとなりました。
現在(2008年)は、BernoulliもJazもありません。
CDやDVDがコンピュータの標準メディアとなって本体に直接内蔵されるようになったのに対し、これらの製品は標準装備となることはなく、周辺機器としての位置づけに終始しました。
フロッピーディスクの歴史をみて見ると、8インチの128kBのフロッピーディスク が1970年にIBM社のアラン・F・シュガートによって開発されて、13年後の1983年にアイオメガ社(IOmega)が大容量のフロッピーディスク(Bernoulli)を出したことになります。
同じ頃(1982年)には、業界標準となる3.5インチのハードケースに入ったフロッピーディスク(280kB)が日本のソニーから発売されます。
この時期にアイオメガ社は、50倍のデータ容量を持つフロッピーディスクを完成させたのです。
▲ Jaz(1GBのリムーバブルハードディスク)
Jazドライブは、IOmega社が1995年に開発した1GB容量のリムーバブルハードディスクです。
1998年2月には、2GBが発売されました。
しかし、4年後の2002年に製造を中止しました。
JazとZipとの違いは、Zipがフロッピーディスクベースであったのに対し、Jazはハードディスクであったことです。
Jazドライブは、構造がハードディスクなので同時代のMOやZipより読み書きが格段に速く行えました。
1995年当時は、OSがWindows95になりパソコンのシステムが巨大化し、インターネット時代に突入してメガバイト容量のメディアの要求が高まっていました。
これに呼応するように、いろいろなメディアが開発されて覇を競っていました。
そんな中にあって、CDと小型ハードディスクが市場を駆逐して行ったため、Jazは撤退を余儀なくされました。
Jazドライブは、ハードディスク方式を基本として、しかもプラッターを抜き差しするという方式(ヘッドは固定装置に内蔵)のためか、信頼性に乏しく、トラブルが多くて使用に差し障りがありました。Jazは、プラッタ表面にゴミが付着する危険性が高いリムーバブルデスクで、5,400rpmもの高速回転によって、1umの距離に置かれたヘッドとプラッタのクリアランスは大丈夫なんだろうかという疑問がわきます。
ちなみに、各種メディアの回転数を較べてみると以下のようになります。
・ Jaz: 5,400 rpm
・ Zip: 2,945 rpm
・ Bernoulli Box: 3,000 rpm
・ フロッピーディスクドライブ: 360 rpm
・ MO: 3,600 rpm〜6,700 rpm
・ CD: 200 rpm〜5,300 rpm
・ ハードディスクドライブ: 4,200 rpm〜15,000 rpm
レーザ光をピックアップに使ったメディアは、ピックアップとのクリアランスが比較的広く取れるので回転数を上げても安全のような気がしますが、ヘッドとプラッターの距離が極めて近い磁気ディスクでは、ホコリやモータの振動、軸受けなどの対策をしっかりと行う必要があるように思います。
IOmega社にあっては、Jazの信頼性を向上させる方向には向かわず、製品の生産をストップさせ、フロッピー方式のZipに軸足を移していた感じを受けます。
▲ Zip(フロッピー感覚の大容量ディスク)
Zipドライブは、IOmega社が1994年に開発した取り外し可能な磁気ディスクによるメディアシステムです。
フロッピーディスクと同様の感覚で取り扱え、しかもデータ容量が多いのが特徴でした。
ディスクの大きさは、3.5インチであり、形状も3.5インチフロッピーディスクに似ています。
開発当初のディスクは、100MBであったものが、後に250MB、750MBに増えました。
データの転送速度は1MB/秒で、シークタイムが28msであり、1.44MBのフロッピー(62.5KB/秒、シーク0.2秒)に較べ1桁以上の高速アクセスができました。
Zipシステムの開発の前身に、ベルヌーイディスク(Bernoulli Box system)がありました。
▲ ベルヌーイ(Bernoulli)(最初のリムーバブルディスク)
Bernoulli Box Systemは、米国IOmega社が1983年に開発したリムーバブル磁気ディスク(5.25インチ、10MB)です。
日本にはほとんど輸入されませんでしたが、米国では結構使われていたようです。
1980年代、大容量のメディアはそれほど多くの種類があったわけではなかったので、このメディアは出色でした。
このメディアは、3.5インチのフロッピーディスクと外観は似ていましたが、大きさは5.25インチでした(巾136mmx長140mmx厚9mm)。
このサイズに35MB〜230 MBの容量を載せていました。
このメディアの面白い所は、ペラペラのポリエチレンテレフタレート(PET)製フロッピーディスクを高速で回転させて(3,000rpm)、高速流体回りに起きる気流の陰圧を利用して固定ヘッドに吸い付かせる(しかし接触しない)機構を取り入れたことです。
ヘッドとフロッピーの間は、気流が介在するために決して接触せず1ミクロンの間隙を形成します。
ハードディスクドライブが、ヘッド部と接触状態から気流で浮揚(0.03um)させているのに対し、ベルヌーイボックスはデスクを湾曲させて近づけています。
ディスクの回転が止まれば気流が止まり、フロッピーも元の位置に戻るので固定ヘッドとの距離は自動的に離れる構造になっていました。
従って、ベルヌーイボックスではハードディスクドライブで必須であったリトラクト(ヘッドをプラッターから離す機構)の必要性がありませんでした。
この方式は、オランダ・スイスの天才数学者ファミリーの一人であるダニエル・ベルヌーイ(Daniel Bernoulli:1700.02〜1782.03)の発見したベルヌーイの法則を応用しています。そのためメディアの名前もベルヌーイと名づけられました。
このメディアが、日本でなぜ普及しなかったのかはよくわかりませんが、ベルヌーイが登場した同時期に日本ではMO(光磁気ディスク)が開発されたために、日本ではこちらが支持されたものと考えられます。
理論的には安定している構造でしたが、実際は、読み込み時のトラブルがかなりあり、CDの簡便さと安さには太刀打ちできませんでした。
【ハードディスクドライブ(HDD)】 (2007.11.25)(2008.10.24追記)
ハードディスクドライブは、フロッピーディスクドライブに相対する装置として登場しました。
フロッピーディスク装置のスペースと電気信号(データ信号)に互換を持たせて、装置を簡単に入れ替えられるような設計思想を持っていました。
ハードディスクの記録媒体の構造は、フロッピーディスクのように薄くてペラペラの磁性体ディスクと違って、ディスクが鏡面加工を施したアルミ基板、もしくはガラス基板になっていて、この表面に 酸化鉄磁性体を塗布したものを使っています。
開発元であったIBM社は、HDDを固定ディスク(Fixed Disk)と呼んでいます。ハードディスクドライブは、大容量の記録媒体として開発され発展して来ました。
初期の開発は、大型コンピュータ用の外部記録用でしたが、パソコンの発展と共に小型大容量化、高速アクセスなどを可能にした製品が市販化されました。
HDDは、 現在(2010年)にあってもパソコン、ワークステーションにおける最強の記憶装置として君臨しています。
コンピュータのデジタル記憶装置として生まれたHDDは、大容量、高速アクセス、安価である特徴が認められ、ビデオカメラの記録装置、家庭ビデオレコーダの記録装置、カーナビゲーションの記録装置、携帯用音楽再生装置として活躍の場を拡げています。
▲ 磁気ディスク
ハードディスクの構造は、フロッピーディスクと大所は同じです。
磁気ディスク面に磁気記録されたデータを磁気ヘッドを使って読み書きするという方式は変わりません。
しかし、HDDはフロッピーディスクドライブと較べて、データのアクセスが桁違いに速く、容量も大きくて扱いも大変楽です。
その分、開発や製造の難しさも桁違いであったと思います。
技術開発問題の一つは、磁気ヘッドと磁気ディスク(プラッター、platter)のギャップです。
両者は、近接して高速アクセスするので信頼性や耐久性が大きな課題でした。
しかし、その耐久性も信頼性も向上して、振動や衝撃が加わる携帯音楽プレーヤにも自動車のデータ記憶装置にも搭載されるようになりました。
磁気ディスク装置は、 1980年までは大型計算機の外部記憶装置として大きなラックに組み込まれて大電力モータを使って運用されていました。
初期のもの(1970年まで)は、磁気ドラム装置(Magnetic Drum Memory)でした。
磁気ドラムは円筒状のドラム面に磁気コーティングを施してドラム面に配備された複数の磁気ヘッドでデータを読み書きするものです。
磁気ヘッドは、ハードディスクドライブのようにスウィングアームによって可変するものではなく固定となっていて、ドラムだけが回転してデータを読み取っていました。
構造はシンプルでしたが、ドラムが大きくてその割には3MB程度の容量しかありませんでした。
その後、磁気記録面は円筒形状からディスク形状に変わり、それが何枚も重なった磁気ディスクに変わりました。
この装置は、800MB程度の記憶容量をもっていました。
かって、大型計算機室に配備されたキャビネットラックの多くは、この磁気ディスク装置でした。
そんな大きな磁気ディスク装置が、手の平に載るぐらいのコンパクトなものになったのです。
コンパクトな設計思想のバックグランドには、フロッピーディスクの開発技術があったことは否めません。
▲ 最初の小型ハードディスクドライブ
現在まで続いている小型HDDの原形は、1980年に開発されました。
小型HDDは、フロッピーディスクを開発したIBM社の元製造部門のマネージャであったAlan Shugartが開発しました。
彼は、フロッピーディスクを作るために 1973年にShugart Associates社(1977年 Xerox社に買収)を創設し、今度は、HDDを作るために同社を退社して、1979年に仲間のFinis Conner(1943.07〜)とShugart Technology社を設立しました。
最初の会社も、2番目の会社も自分の名前を冠しました。Shugart Technology社は、そのShugart Associates社から"Shugart"という名前は紛らわしいから使ってはならないと言うクレームをつけられたので、同年、会社名をSeagate Technology と改めています。
最初のHDDは、ST-506と呼ばれた小型HDDでした。
ST-506は、5MBのデータ容量を持っていてフロッピーディスク装置と同じインタフェースで制御することができました。
これは、パーソナルコンピュータに実装するのに非常に楽な設計思想でした。フロッピー装置に置き換えて、そのスペースにHDDを組み込めばそのままパソコンで使えたのです。ST-506のハードディスク(platter)は、5.25インチ(133.35mm)の大きさで、フロッピーデスクと同じ大きさでした。ハードディスクドライブ装置も、フロッピーディスクドライブ装置とほぼ同じ大きさに似せて作られ、装着の互換性を良くしました。
これらのことから、Seagate Technology社は、フロッピーディスクドライブをかなり意識して、技術もFDDを踏襲したと考えられます。
もっとも、フロッピーディスクもハードディスクも同じShugart氏が構想して開発したものなので、同じコンセプトになるのは当然です。
ST-506のデータ転送速度は、最大625KB/秒でした。この速度は、フロッピーディスクドライブの40倍の速度を持っていました。このデータ転送速度は、当時、十分な速度を持っていたために、瞬く間に記憶媒体の主流となりました。
ハードディスクドライブは、記憶容量が大きい媒体分野で当時主流であった磁気テープ方式と比べて、ランダムアクセスできる点が大きな強みでした。
データファイルを追記で保存したり、読み出すことが楽にできるのです。
このハードディスクドライブを、 高速でデータ読み書きできることを可能にしたのは、高速データ転送方式(インタフェース)の開発です。
彼らはこの目的のために、1981年、Shugart Associates System Interface(SASI、後にSCSI = Small Computer System Interface、スカジー) というインタフェースを開発します。
この方式は、ギガバイトベースのイーサネットやUSB2.0が登場する2000年までの高速データ通信インタフェースの代名詞となったものです。
ハードディスクドライブは、当初、ディスク口径が5.25インチサイズ(133.35mm)のものから始まり、8インチ(203.2mm)のものも開発されましたが、開発の流れは小さい口径に向かい、3.5インチ(88.9mm)が主流となっていきます。
さらに、徐々に小型化に移行して、2.5インチ(88.9mm)、1.8インチ(45.7mm)、1.3インチ(33mm)、1インチ(25.4mm)まで小さくなっていきました。
小型化になると、保存容量も小さくなります。従って、小容量、小型HDDでは、近年、発展が著しい半導体メモリ(フラッシュメモリ) と競合するケースも増えてきています。
▲ ハードディスクドライブのクリアしなければならない問題点
ハードディスクドライブ装置が小型高速化になるにつれてクリアしなければならない点の一つに、可動部を少なくした信頼性の高いムーブ機構の採用があります。
テープレコーダがフラッシュメモリに代わってきているのも、機構部が少なくて故障が少なく小型コンパクト、安価にできるからでした。
フラッシュメモリは、現在(2009年)急速にシェアを拡大しています。しかし、100GB以上のメモリ容量を要求される目的や、価格、耐久性などの観点からは(フラッシュメモリは書き込み回数に制約がある)、未だHDDの需要は大きいと言えます。
ハードディスクが開発された当初は、故障が多くありました。
ハードディスクのクラッシュは、交通事故かガンの告知のような感覚で扱っていました。
いずれいつか、自分のパソコンにもそうした不具合が起きるのではないかと恐怖を抱きながら、大切なデータのバックアップを他のメディアにとっておられた方も多いと思います。
信頼性が増したハードディスクドライブではあるものの、構造上、耐久性に関していまだ問題も多いのが実情です。
「ハードディスクは壊れるものだから、その認識と対応を日頃から取っておけ」、というのが一般的な見識のようです。
私自身、ハードディスクドライブを使ったパソコン生活を続けて25年近くなります。
フロッピーだけでパソコンを立ち上げていた時代に較べると、立ち上げやデータのアクセスが随分と楽になりました。
今まで、20個ほどのハードディスクドライブにお世話になって来たでしょうか。
幸いなことに、それらのハードディスクはすべて順調に機能してくれました。
一日中コンピュータを動かし続けている間、ハードディスクもせっせと回っていてくれたはずです。
それを3年の間(だいたい3年でコンピュータが古くなるので交換してきた)、ずっと回り続けてアクセスし続けてくれました。たいした耐久力と性能と言わねばなりません。車や飛行機に乗って持ち歩いたノートパソコンでも、ハードディスクが壊れた経験はありません。
ノートパソコンの場合、HDDよりもディスプレイが壊れることが多かったと記憶しています。
また、アップルが発売したハードディスク内蔵のiPod(2001年11月発売、5GB HDD)の成功は、ハードディスクの堅牢性と信頼性をいやが上にも高めたと言えましょう。
全世界で1億台以上のiPodが売れました。
その内の半分以上がハードディスク内蔵製品だと思います。
iPodの普及によって、HDDの耐久性が実証されたのです。
大したことだと言わざるを得ません。
もっとも、iPodも3年程度でモデルが代わったりバッテリの寿命が来たりで、それ以上使っている可能性は低いので、ハードディスクの故障が大きく問われることが少ないのかも知れません。
だから、iPodはハードディスクにとっては渡りに船のような環境かもしれません。
私自身、iPodは半導体メモリのモデルしか持っていませんが、家族のものや知人の話を聞く限り、ハードディスクが壊れたという話は聞きませんでした。
iPodの場合、バッテリが弱って充電に時間がかかるようになり、モデルも古くなったので買い換えるケースがほとんどでした。
パソコンのハードディスクに関しては、 友人や会社の仲間の体験を加えると、ハードディスクのクラッシュに遭遇した例を何回か聞きました。
従って、ハードディスクのクラッシュは、本当に交通事故に遭遇するようなもので、いつ自分の所に降りかかってくるのかわからいと思うようになりました。
いろいろな意見を総合したり、自分の経験から言うと、ハードディスクの寿命は5年が限度であり、それを境に新しいハードディスクにデータを移し替えることが望ましいと言えましょう。
また、ハードディスクが壊れてもバックアップがとれる RAID(レイド、Redundant Arrays of Inexpensive Disks) も個人ユーザでできる価格帯になったので、そうした機能を母艦パソコンに設備するのが賢明と言えます。
■ ヘッドとプラッターの間隔
ハードディスクドライブのプラッター表面には、磁性体上にライナーと呼ばれる潤滑剤が塗布されています。
ライナーは、磁気ヘッドがプラッターを移動するときに役立つものです。
磁気ヘッドは、ディスクが回転していないときはプラッターと接触しています。
ヘッドアームはバネによって予圧がかけられプラッタに押しつけられています。
ディスクが回転してしばらくの間、ヘッドはプラッターを擦っていることになります。
回転が上がるに従って、プラッタと一緒に回転する気流によってヘッドが浮揚するようになります。
この間隙(ヘッドギャップ、フローティングハイト、フライングハイト)は、わずか10nm〜30nmと言われています。
これは光の波長よりも遙かに短い間隙です。この間にホコリが入ったりプラッタにホコリが付着したらひとたまりもない距離です。
ハードディスクドライブを長年使っていると、プラッター表面のライナーが劣化し、ヘッドがプラッターと接触し衝突するという事態に発展します。
これが起こると、ディスクはクラッシュして寿命が尽きることになります。
考えただけで恐ろしいことですが、ハードディスクではいずれ起こることです。
ハードディスクのもう一つの問題として、ヘッドとプラッタが張り付いてしまう「張り付き」という問題があります。
プラッタは非常に精度よく磨かれた鏡面になっていて、ヘッドも同様に鏡面加工されています。
両者が静止した状態で接触すると、分子間作用で強い吸着現象がおきます。
ハードディスクの初期の頃(1980年代)は、停止命令を送るとヘッドがプラッタから待避する機構がつけられていましたが、部品点数削除による製造原価低減から、この機構が取り除かれてしまいました。
そうすると、ヘッドはプラッタに置かれたまま電源が切れることになり、「はりつき」が起きるようになりました。
こうした問題を解決するために、パソコンの「OS」からハードディスクに待避命令を送ったり、ハードディスク側でヘッドを自動的に待避領域に戻す機構が再び復活するようになりました。
■ 軸受け
ハードディスクが連続して長期間回り続けていて心配になるのは、プラッタを支えている軸受けの耐久性と装置内部の気流温度の上昇です。
プラッタを支える軸受けは、ボールベアリング式と流体動圧軸受(Fluid Dynamics Bearing、FDB)の2つの方式があり、最近のものは流体動圧軸受が主流です。
流体動圧軸受は、軸を潤滑油で保持する方法で、高速回転体の軸受によく使われています。
潤滑油は、軸の回転と共に軸受け部で流動を始め、潤滑油の流動圧力(動圧)によって軸を軸受けから浮かすような構造になっています。
回転がないときは、動圧は働かないので軸は軸受けにメタル接触していることになります。また潤滑油の温度も上がっていず静止しているので粘性が高く、ハードディスク起動時にはモータに強いトルクが必要となります。
もし、モータが劣化したり潤滑油の粘性の劣化で起動時に強いトルクが得られない場合は、ハードディスクが回らなくなるという不具合がおきます。
ハードディスクを長時間作動させていると、当然ながら熱を発生させます。
熱の発生源は、ディスク内を回る気流の発熱、モータの回転発熱、軸受け部の発熱、外部温度による加熱などが考えられます。
ハードディスク内はホコリを特に嫌いますから、外部からホコリが入らないように密閉構造になっています。
しかし完全密閉にすると気流の温度によって内部圧力が変わりヘッドとプラッタ間のギャップに変化が出てきます。
そうした不具合をなくすために、ハードディスクには一箇所だけ小さな空気取り入れ口をもうけて、ディスク内の圧力を一定にする配慮がなされています。
▲ 磁気記録方式
- 水平磁気記録方式(面内磁気記録方式、Longitudinal Magnetic Recording、LMR)と
垂直磁気記録方式(Perpendicular Magnetic Recording、PMR) (2010.07.30記)(2010.08.20追記)
垂直磁気記録方式は、新しいタイプの磁性体の高密度記録方式です。
デジタル記録方式として、HDD(ハードディスクドライブ)に採用されています。
この方式は、1976年に岩崎俊一氏(1926.08〜: 東北大学電気通信研究所)が提唱を始め、
2005年に東芝が小型HDD(1.8型HDD、80GB、サイズ:54mm x 78.5mm x t8mm、重量:62g)での実用化に成功しました。
2011年にあっては小型HDDのほとんどがこの方式を採用して、高密度記録のハードディスクドライブ製品を販売しています。
従来の磁気記録は、水平記録方式(Longitudinal Magnetic Recording, LMR)と呼ばれるもので、磁極(S極とN極)が磁性面に拡がって記録されていました(右図)。
垂直磁気記録方式(Perpendicular Magnetic Recording, PMR)では、S極とN極を垂直状態で記録しています。なおかつ、記録スポットも小さくしています。従って、垂直磁気記録の方が記録密度を3倍程度向上させることができ記録容量を増やすことができます。
磁性体に磁極を縦に打ち込む、というのがこの記録方法のキーポイントです。
水平(面内)磁気記録では、高密度記録を行おうとすると「熱ゆらぎ」(superparamagnetic effect)問題が浮上し、磁気記録が消失してしまう不具合がありました。磁気記録装置の高密度化を達成していく上で、垂直磁気記録は福音となりました。
ただ、垂直記録はデジタル記録に向いており、オーディオのようなアナログ記録では従来の水平磁気記録の方が特性が良いとされています。
垂直磁気記録は、高密度デジタル記録に向いてはいるものの、実用化には長い年月がかかりました。
実用化の大きな障害は以下のものでした。
1. 高密度で垂直に磁気記録を行う技術の確立
- 新タイプの磁性体の開発と、垂直磁気ヘッドの開発。
2. ノイズとの戦い - 垂直磁気記録は磁性体の持つ
ノイズが多かった。新タイプの磁性体の開発。
3. スパイクノイズ - 垂直磁気記録に特有の再生時に
発生するノイズ。新タイプの磁性体の開発。
4. 広域イレーズ(WATER; Wide Area Track ERasure)
- 記録時に、記録ヘッド主磁極から数十倍
(数〜数十ミクロン)離れたトラック信号が
減衰または消失してしまう問題。新タイプの磁性体の
開発。
■ PMR用磁気ヘッド
垂直磁気記録を行うには、あたらしく磁気ヘッドを開発する必要がありました(右図参照)。垂直磁気記録用の磁気ヘッドは従来のものに比べて構造に大きな違いが見られます。従来の水平磁気記録ヘッドは、リングヘッドと呼ばれるものでギャップに発生する磁界の作用で磁気記録面を磁化させていました。垂直磁気記録では、記録を垂直に行う関係上ヘッドを単極構造として磁界を垂直に発生させています。この磁気ヘッドはとても小さいもので微細化技術が確立されて初めて実用化されました。
■ PMR用磁性体
垂直記録には、新しいタイプの磁性体の開発が不可欠でした。
磁性体は1960年代から金属蒸着法が開発されて主流となっていきます。
メタル磁性体は、支持母体(アセテートフィルム、アルミ基板、ガラス基板)に磁性体金属材料をスパッタによって蒸着させるものです。この方法は、非常に薄い磁性体膜を形成することができます。
垂直磁気記録では磁極を縦に配列させる関係上、磁束を垂直に形成しなければなりません。そのために、磁性記録媒体はこれまでのものとは構造が異なったものが求められました。
右図が垂直磁気記録媒体の構造図です。この図からもわかるように、この記録媒体は二つの磁性体膜で構成されています。一つが垂直磁化膜と呼ばれるもので、もう一つが磁性裏打ち層(軟磁性磁化膜、SUL = Soft Under Layer)と呼ばれるものです。
厚さ約0.8umの垂直磁化膜は、カラムと呼ばれる柱状の結晶構造体で形成され、小さな磁石を形作っています。カラムは、8nm〜10nm径の大きさをもったものでCoを主成分としています。この膜は、コバルト(Co)とクロム(Cr)をCo:Cr=4:1の割合で配合して、RFスパッタ(Radio Frequency Sputter)によって蒸着を施すことにより、このような結晶構造が出来上がるそうです。
この構造は、垂直磁化を行うのに極めて都合の良い構造でした。
カラムは、磁性の強いCoの結晶で出来ていて、その周りを非磁性のCrが取り囲む構造となっているため、カラムは小さな磁石となります。
磁性裏打ち層(軟磁性磁化膜)は、垂直記録する際に磁界を安定させる働きがあります。これがないと磁気ヘッドを記録媒体に挟まなければなりません。このような磁気ヘッドは実用上不可能に近いので、磁性を垂直に打ち込んでなおかつ安定させるための工夫、すなわち磁性裏打ち層が必要だったのです。
▲ RAID(レイド、Redundant Arrays of Inexpensive [or Independent] Disks)
ハードディスクは壊れるもの、という観点に立って、ディスクが事故によって壊れてもバックアップハードディスクで障害を復旧するシステムが構築されました。
それがRAIDと呼ばれるシステムです。
このアイデアは、1988年、カルフォルニア大学バークレー校のDavid Pattersonによって提唱されたものです。
このシステムは、ハードディスクを2台以上使ってデータを分散保存させ、1台のハードディスクがクラッシュしても別のディスクに保存されたデータをバックアップとして使うというものです。
RAIDは、データの分散処理を基本思想としているため、データの安全保存の観点と、データの高速処理を行うことを目的に使われています。
RAIDは、ハードディスクの構成(ハードウェア)とディスクを管理するソフトウェアから成り立っていて、ユーザの要求するレベルよって7段階に分かれています。
最も簡単なRAIDシステムが、RAID0とRAID1と呼ばれるものです。
タイプ
ハードディスク数
特 徴
RAID 0
2台〜
耐故障性のシステムではなく、高速読み書きを目的としたシステム。
並列処理するので高速のデータの読み書きが可能。
2台以上のハードディスクにデータを分散して書き込む。
RAID本来の目的ではないため「0」レベルが与えられている。
RAID 1
2台〜
ミラーリング機能。
複数台のハードディスクに同じ内容のデータを書き込む。
もっともシンプルな構成。
RAID 5
3台〜
RAIDシステムの主役的存在。
データを巧妙に複数のハードディスクに分散させ、
かつデータをブロック毎にわけ誤り訂正機能を充実させている。
迅速なバックアップ処理ができる。
RAID 0 +1
4台〜
RAID0とRAID1の双方の機能を持たせたシステム。
高速性と耐故障性を持たせたシンプルなシステム。
ハードディスクは最低4台必要。
RAID 0では、高速読み書きのシステムとなっていて、分散してデータの読み書きをします。
このレベルのものは、データを2重に保存しないので、障害復旧としての機能はありません。
障害復旧を目的としたバックアップシステムは、RAID 1が最も単純で、2つのHDDに同じデータを保存する機能になっています。
RAIDを構築するには、ハードディスクドライブを管理するソフトウェアと複数のハードディスクを購入します。
市販品では、さまざまのRAIDシステムが供給されていて、管理ソフトとHDDを組み合わせたパッケージで販売しています。
HDDはモジュールで交換できるようになっていて、不具合が生じた場合、管理ソフトウェアが警告を出して、新しいものと交換を促すようになっています。
こうしたことからも、ハードディスクドライブは、現在(2009年)も、高速、大容量、バックアップメモリとして現役で使われていることが理解できます。
【磁気ディスクのファイルシステム(FAT、NTFS、HFS)】 (2010.05.20記) (2010.06.23追記)
コンピュータ、特にパーソナルコンピュータの普及に伴ってフロッピーディスクやハードディスクなどの磁気ディスク装置がたくさん開発されてきました。磁気記憶装置は、コンピュータのOS(オペレーティングシステム)で管理されるもので、保存形式の規格(ファイルシステム)はOS毎に作られてきました。ディスクの物理的な割り振りはセクタ(sector) と呼ばれる細切れの記憶単位で構成されますが、そのセクタをファイルとどのように関係づけて簡単に読み書きできるようにするかがOS(Operating System)の役割の最も大きな一つでした。
パーソナルコンピュータに使われているOSの大きな流れは、マイクロソフト社のMS-DOSとWindows、アップル社のMacOS、それにUNIXがあります。この流れに沿って多くのファイルシステムが規格化されて使われてきました。
我々が使うコンピュータはWindowsかMacであるので、この項ではこうしたパーソナルコンピュータで良く使われてきた3種類の規格(FAT、NTFS、HFS)について述べたいと思います。
■ FAT(File Allocation Table)
FAT(ふぁっと)は、マイクロソフト社がOSを作り始めた1970年代にできたもので、MS-DOSとWindowsの成功によって今日まで使われている最も有名な標準フォーマットです。このフォーマットに従って、MS-DOSやWinodwsで動くコンピュータのハードディスクやフロッピーディスクのファイル構造が作られ、データの書き込みが行われていました。
ディスクにデータを格納する手法は、IBMがフロッピーディスケットを開発した当時の構造 と基本的には変わりません。FATは、そうした物理的なフォーマットをもとにして、データファイルをより効率的に高速且つ確実に読み書きできる管理プログラム(台帳)でした。コンピュータの高性能化と取り扱うデータ容量の大容量化に伴って、以下の4種類の拡張がなされてきました。
・ FAT (= FAT12) - 1977年 ・ FAT16 - 1987年 ・ FAT32 - 1996年 ・ exFAT - 2006年
▲ FAT12
FATはパーソナルコンピュータに使われた一番最初のファイルシステムで、1977年にできました。 マイクロソフト社がDISK-BASICの管理仕様の中で取り決めた規格です。
この規格では12ビットカウントのクラスタ(cluster)でデータ管理されていたので、ディスクは4,084個のクラスタで構成されていました。
本来、12ビットカウントですと4,096個の管理ができます。そのうちの12個は管理用に割り当てられるため有効なデータ管理数は4,084個となりました。
クラスタはOSが管理するディスクデータの「まとまり」であり、方やディスクはセクタと呼ばれる記憶単位(小部屋)を持っています。クラスタは、セクタ(小部屋)のさらに大きなひとまとまりという位置づけで良いでしょう。セクタだけだとあまりに大きなカウント数になってしまうため、セクタを束ねるクラスタの概念を導入して記憶容量の大小によりクラスタの大きさを変えてOSの管理できるカウント数にしたのです。
クラスターは、別名アロケーションユニットサイズ(allocation unit size)とも呼ばれ、マッキントッシュ(HFS、HFS+)ではこの言い方を使っています。
クラスタは、OSがファイルを管理するための1ブロックであるため、文書や画像ファイルの大きさによって複数のクラスタが割り当てられました。
1つのクラスタには、Windows9xの場合、512バイト〜32kB( = 32,768B、64セクタ分)が組み込めます(セクタ管理なので、512 x 2n 、n = 0〜6 の飛び飛びの値となります)。クラスタは1セクタであることもあり、64セクタであることもありました。
ディスクには、物理的に部屋割りされているセクタ があり、これは512バイト( = 29 バイト = 212 ビット)と決められています。 1セクタは、フロッピーディスケットが開発されたときに、パンチカード1枚分の情報量(128バイト)と決められていましたが、MS-DOSの時代に512バイトとなりそれが標準規格として長く続きました。フラッシュメモリで2011年1月から発売されるものについては、セクターサイズを4096バイトと大きくして、画像や音楽ファイルのアクセスをしやすくするようになっています。メモリが大容量化してファイルサイズも大きくなってきていることへの対応です。 クラスタの大きさは、ディスクの容量によって最適なセクタ数が定義されます。クラスタサイズが小さいとディスク容量を大きくすることができません。クラスタサイズが大きいと読み書きが速くなる反面、容量の小さいディスクでは総クラスタ数を多く取ることができず、たくさんのファイルを保存できなくなります。この兼ね合いでクラスタサイズは決められます。1990年代に使われていたフロッピーディスクの場合は、1クラスタ1セクタ( = 512バイト)となっていました。 OSによるデスク管理は、CPUが16ビットの場合には総セクタが216 = 65,536までしか管理できず、1セクタが512バイトですから、最大容量が33.5MBまでとなります。これが16ビットCPUで管理できるデータ容量の限界です。
このセクタ数と最大容量の制約の中で、12ビットカウントによるクラスタ管理が行われました。 1980年当時は33.5MBの容量は十分なものでしたが、時代と共にこのデータ管理では手狭になったためFAT16が規格されました。 FAT12で扱うファイル名は、8文字の英数字と拡張子3文字で構成されました。
このフォーマットは、主にフロッピーディスクで使われました。磁気ディスクが一般的になってくると、これでは手狭になりました。
■ フラグメンテーション(fragmentation):
記憶装置へのデータ保存が、上で述べたようなクラスタと呼ばれる区割りで行われるため、8セクタ(= 4kB)を1クラスタとして構成される磁気ディスクでは、FAT12は総合計16.73MB容量となります。この磁気ディスクに1kB容量のデータを記憶する場合、ファイルは1クラスタ単位でしか保存できないので、磁気ディスクには1クラスタ = 4kBが割り当てられます。100kBのデータには25クラスタが当てられます。このようにしてデータをクラスター単位で割り振るために、小さなファイルを消去して大きなファイルを記録しようとすると消去した小さいファイルに入らなくなります。この場合、別に大きな記憶領域があればそこにデータが保存されますが、ない場合、空いたクラスタを見つけて別々に保存します。また、ディスク内にはうまく詰め込めなかった小さな空いたクラスタも点在するようになります。これが断片化(フラグメンテーション)です。断片化がおきるとファイルを読み出すときに時間がかかるようになりアクセスが遅くなります。こうした分散化してしまった関連データのクラスタを効率よく再配置するのがデフラグ(defragmentation)です。
▲ FAT16
FAT16は、1987年にDOS3.31で管理できるフォーマットとして作られました。
データを管理するアドレスが初期の12ビットから16ビットとなりました。
16ビットとなったことにより、総クラスタは65,517個となりFAT12より16倍に増えました。
クラスタはFAT12と同じで、512バイト〜32kB( = 32,768B)での設定となっていました。 ディスク自体は、16ビット規格で割り振られますのでボリュームは最大2GB( = 32kB x 216 )となります。 つまり、2GB以上のハードディスクはこのフォーマットでは認識できないことになります。
FAT16は、Windows95まで使用され、Windows98からは32ビット対応のFAT32となったため、
以降、Windowsのディスク管理はFAT32が主力となりました。
FAT16の後期には、ファイルネームが従来の英数字8文字だったものから255文字まで使用できる規格になりました。
日本語などの2バイトを使用する名前については、16文字まで使用できました。 この機能が使えるFAT16をVFAT(Virtual FAT)と呼んでいました。
▲ FAT32
FAT32は、1996年にWindows95以降で管理できるフォーマットとして作られました。
データを管理するアドレスが32ビット(実際は、4ビット分は予約に割り当てられるので28ビット)となりました。
このため、ハードディスクを管理できるボリュームが2TBまで拡張されるようになりました。 FAT32は、Windows95、Windows98、WindowsMeでよく使われましたが、Windows2000/XPでは以下に述べるNTFSが主流となりました。
NTFSは、WindowsNTで開発されたフォーマットですが、信頼性や機能性、安定性が優れていることからFAT32よりもNTFSが使われることが多くなりました。
USBタイプのフラッシュメモリにはFATが採用され、小容量のものはFAT16、16GBなどの大容量にはFAT32が採用されています。この方式の採用によりMacintoshでもWindowsXP/Vista/7でも双方で使えるようになっています。ちなみに、WindowsXPで標準採用されているNTFSは、Macintosh(Mac OSX)からでは直接アクセスができないため(読み込みはできるが、書き込みはできない)、データの書き込みはネットワーク経由で行うか、一旦FATによるディスク(フラッシュメモリ)に書き込んで処理する方法が取られています。
▲ exFAT(extended File Allocation Table)
exFATは、大容量化するフラッシュメモリを管理するフォーマットとして2006年に作られました。これは、Windows Embedded CE(携帯用端末装置)向けに開発されたものです。携帯用端末装置のOS向けに規格化されたものとはいえ、64ビット対応であるため、扱えるデータ容量(ファイルサイズ)は最大16EB(エクサバイト)(16E18バイト = 264 バイト)に及びます。exFATではボリューム全体を最大ファイルサイズにあてることができますので、最大ボリュームサイズは16EB(エクサバイト)となります。クラスタサイズも理論上2255 セクタまで定義でき、実装上は1クラスタを32MB( = 225 B)までとすることができます。非常に大きなクラスタを確保することができます。
exFATは、WindowsVISAにも導入されました。WindowsXPには基本的には対応しておらず、Windows XP SP2/SP3にてマイクロソフトが公開しているexFAT対応の更新プログラムを適用する必要があります。アップル社のMacintoshからのアクセスもできません。また、このファイルシステムは、内蔵ハードディスクには対応していません。
■ NTFS(NT File System)
このフォーマットは、WindowsNT用に作られたフォーマットで1993年に規格化されました。同じマイクロソフト社の開発品であるのにFATとの互換性はありませんでした。つまり、このフォーマットで管理された磁気ディスクはMS-DOSやWindows95搭載のパーソナルコンピュータでは使えなかったのです。
このフォーマットは、マイクロソフトがサーバーなどの基幹OSであるWindowsNTを開発したときにその一貫として規格化したもので、パーソナルコンピュータのOSであるWindows95/98とはまったく別物でした。しかし、このフォーマットは当初から大容量でのディスクアクセスができ、信頼性もFATより高かったので、Windows2000/XPで使用されるようになりました。
以降、NTFSは2000年代後半のWindowsXP、WindowsVista、Window7の標準フォーマットとなりました。右図は2004年に購入したWindowsXP搭載DellノートPCのハードディスクのプロパティで、これを見るとファイルシステムがNTFSになっていることがわかります。
【NTFSの特徴】
ボリューム
サイズ
アロケーション
ユニットサイズ
> 512MB
512B
512MB - 1024MB
1kB
1024MB - 2048MB
2kB
2GB <
4kB
WindowsXPでのNTFSフォーマットに使用されるクラスタサイズ(アロケーションユニットサイズ)
・ Bツリー構造の採用。
Bツリーは、Binary Treeの略で、2分木と略される。
ツリー状のデータ構造のため検索が速く管理がしやすい。
BツリーはMacintoshのファイルシステムにも採用されている。
・ 大容量化
1ファルが1ボリューム丸ごと占拠する容量にまで拡張された。
1ファイルの最大容量は2TB( = 241 B)。
これは、1ファイルの最大が2GB( = 231 B)であるFAT32よりも大容量。
理論的には、1ボリュームは最大16EB(エクサバイト、16E18 B = 264 B)まで可能。
・ ジャーナリングファイルシステム(Journaling File System)
この機能は、ディスクへのデータ保存などで電源遮断などの不具合が起きた際に、
必要最低限のダメージでディスクを守る機能。
この機能がない場合は、ハードウェア自体のクラッシュに陥る。
この機能によって、FATより信頼性が高くなった。
この機能を採用しているのは、NTFSの他、UNIXとMacOS( = HFS+)。
この機能は、コンピュータがファイル処理を行う毎に逐次ログを残しておき
CPUの異常停止などでファイル処理が中断したとしても、そのログを頼りに
迅速にファイルデータを復旧させるというもの。ファイル保存手順はその分時間がかかる。
・ 圧縮機能
個々のファイルやフォルダ、もしくはボリューム全体を圧縮することが可能。
・ 暗号化機能
個々のファイルやフォルダに対して暗号をかけることができる。
・ セキュリティの向上
個々のファイルやディレクトリにACL(Access Control List)によるアクセス権の設定や監視の設定ができる。
・ Windows9X系、Macintoshとの親和性がない。
■ HFS(Hierarchical File System)
このファイルシステムは、アップル社のマッキントッシュが採用したもので、1985年に開発されました。
「Mac OS標準フォーマット」とも呼ばれています。
アップルが1985年以前まで採用していたフォーマットは、MFS(Macintosh File System)と呼ばれていたもので、箱(ディスク)の中にデータをそのまま入れ込むようなフラットな構造でした。
これをツリー構造(フォルダーで管理する構造)に変えたため、階層化(Hierarchical)という言葉が使われました。
ツリー構造はB分木(Binary Tree)と呼ばれ、コンピュータのデータ管理の基本的なものであり、検索や保存のための管理が容易な構造です。
B分木は、B+木(B + Tree)やB*木(B* - Tree)の二つに派生し、MacintoshではB*木構造が採用されています。Windowsの世界ではNTFSがB分木を採用しています。
マックのファイルシステムの大きな特徴は、2つのコンポーネントを持つフォーク構造にあります。 HFS+では、二つ以上のフォークを持つ構造となりました。フォークとはコンピュータ用語でプログラムの派生という意味で、食事に使うフォークのように根本から分岐している様から名付けられました。HFSではファイルそのものであるデータフォークのほかに、アイコンやファイルの属性を書き記したリソースフォークの2つのフォークでファイルが構成されていました。アップルは昔からファイル名に拡張子をつけなくてもファイルの属性がわかったり、フォルダやファイルをアイコンで表示できたのは、リソースフォークに柔軟性があったからです。
1998年には、HFS+(Mac OS拡張フォーマット)というフォーマットが作られMac OS8.1に組み込まれました。MacOSXでは、HFS+が標準フォーマットになったため起動ディスクとしてHFSは使用できなくなりました。
HFS+の大きな特徴は、ファイルのブロックを4kB(=アロケーションサイズ、クラスターサイズ)とし、最大ファイルサイズが4EB(エクサバイト)となり、最大ボリュームサイズが16EBまで扱うことができるようになったことです。アロケーションブロックは、記憶媒体の総容量によって変わり、以下のような設定となっています。
ボリューム
サイズ
アロケーション
ユニットサイズ
> 256MB
512B
256MB - 512MB
1kB
512MB - 1GB
2kB
1GB
4kB
HFS+フォーマットに使用されるアロケーションユニットサイズ(クラスタ)
ファイル文字は255文字まで対応しています。また、ジャーナリング機能を持たせていました。こう書くとHFS+は、NTFSと性能が良く似ていることがわかります。要するに、ファイルシステムは時代とともに大容量化し、信頼性も向上させて使いやすくなってきたと言えます。
HFS+は、iPodにも採用されています。
■ HFSの規格
・ 規格年: 1985年
・ フォーク: 2
・ 構造: B*木
・ ファイルサイズ: 最大 2GB ( = 231 B)
・ ファイル数: 最大65,535 ( = 216 )
・ ファイル名: 最大31文字 ( = 25 )
・ ボリューム: 最大2TB ( = 241 B)
・ ジャーナリング: 無し
■ HFS+の規格
・ 規格年: 1998年
・ フォーク: マルチフォーク
・ 構造: B*木
・ ブロックサイズ: 4kB固定 ( = 212 B)
・ ファイルサイズ: 最大 8EB ( = 263 B)
・ ファイル数: 限度無し
・ ファイル名: 最大255文字(Unicode対応)
・ ボリューム: 最大16EB ( = 264 B)
・ ジャーナル機能: 有り
↑にメニューバーが現れない場合、
← クリックして下さい。
光による記録 (2009.07.26追記)(2011.03.03追記)
映像を記録する媒体は、1830年代の銀塩感光材料から始まり、100年後の1930年代に開発された酸化鉄による磁性体(薄膜フィルム)で大きく飛躍しました。
酸化鉄磁性体による映像記録は、電子記録を可能にするものでした。
1980年代になると、銀塩感光材料や酸化鉄磁性体とは方式の異なる光を使った記録装置が登場します。
この光記録にレーザ が大活躍します。
■ レーザの役割
光ディスクと呼ばれる記録メディアは、レーザの発明と発展により完成を見ました。
レーザが発明されていなければ、ここに述べる光ディスクメディアは日の目を見なかったことでしょう。
それほどにレーザの発明は画期的なことでした。
レーザが光ディスク記録に大きな貢献をした理由を挙げます。
1. ミクロン単位のビームスポットが容易に得られる。
2. エネルギー密度が高く、しかもエネルギー出力を制御しやすい。
3. 単一波長であるため、ノイズ光を取り除きやすい。
4. 波面が揃っている。干渉が起きやすいためノイズ成分を除去しやすい。
5. 偏光が利用でき、信号検出が行いやすい。レーザ光は偏光を持ち合わせているので偏光を利用した光学系が作りやすい。
■ 光ディスクの種類
光ディスクを代表するものは、CD(コンパクトディスク)です。CDが母体となって、DVD、Blu-rayディスクへと発展しました。
また、レーザーの持つ高密度熱エネルギーを利用して熱によって磁性が変化する磁性体材料が開発され、MOやMDの開発が行われました。
ここでは、レーザを使った光ディスクによる映像(データ)記録媒体を紹介します。
【光磁気ディスク(Magneto - Optical Disk = MO)】 (2007.11.30)(2011.03.03追記)
■ MO以前の光ディスク - レーザディスク(LD)
MO(光磁気ディスク)は、1980年代後半に登場します。
MOは、コンピュータ用の記憶装置としての位置づけが強い製品ですが、MOが出される前の光メディアには光ディスクがありました。
これは、レーザディスク(Laser Disc)という名前のもので、日本のパイオニアが1981年に市販化しました。
レーザディスク(LD = Laser Disc)は、デジタルではなく、アナログ録画でした。
レーザディスクが開発された1981年当時、高速デジタル技術は進んでいなかったので、記録媒体は光ディスクであってもアナログ映像信号(NTSC信号)を光変調して、30cmサイズのディスク(塩化ビニールのLPと同じ大きさ)に映像情報を書き込んでいました。
この時期は、家庭用のVHSとベータマックスが熾烈な競争をしていた時期です。
この時期に開発された光レーザディスクは、絵の出るレコードとして売り出されました。
このメディアを使って、カラオケが映像付きとなり、映画がディスクに焼き直されて9,000円前後の値段で売られ始めました。
最盛期は1990年で、約81万台の販売規模があったそうです。
1998年以降、DVDの発展とともに衰退して製品の開発がストップし、2009年3月にパイオニアの製造中止によって寿命が終わりました。
光レーザディスクが淘汰されたのは、
・ 光レーザディスクが30cmという大きさ(LPレコード盤の大きさ)であったこと。
・ アナログ記録であったこと。
・ 安価にならなかったこと。
・ 再生専用がメインであり、記録可能な装置は高価であったこと。
・ DVD、CDがメディア分野とコンピュータ分野に急速に浸透して行ったこと。
が要因と言われています。
【LaserDisc VP-1000の仕様 1980年パイオニア社】
・ディスク: 直径30cm、アクリル材質
・記録面: アルミ蒸着
・ピット(記録情報): ピット巾0.4um、深さ0.1um、トラックピッチ1.6um
・記録: ダイレクトFM変調によるスライスした矩形波によるNTSC信号記録(アナログ)
・再生時間: CAVにて片面30分、CLVにて片面60分
・モータ回転数: CAV(回転数一定)にて1,800 rpm、
CLV(線速度一定)にて1,800 rpm(内側)〜600 rpm(外側)
・レーザ: ヘリウムネオンガスレーザ、出力1mW、発振波長λ = 632.8 nm
・ビデオ出力: NTSC(アナログビデオ)信号
・解像力: CAVモードにて、内周部336本、外周部440本(平均400本)
CLVモードにて336本
・S/N: 42dB以上
・スチル再生: 可能。円周1回転がビデオ映像1フレームに相当。
・正逆サーチ機能: あり
・電源: AC100V、 95W
・寸法: 550W x 142H x 405D、 17.5 kg
■ VHD(Video High Density Disc、う゛い・えいち・でぃ) (2009.11.17)
レーザディスクが登場した時代に、LD(レーザーディスク)に対抗したビデオディスクがありました。
それはVHDと呼ばれたもので、1983年に日本ビクターが開発しました。
このビデオディスクは光学式ではなく静電容量式のピックアップを持っていて、26cmのディスクサイズでした。LDは30cm径でした。
信号を取り出すピックアップはディスクに接触していて、ディスク面に記録された静電容量による情報を取り出す方式となっていました。
もちろんアナログ方式です。
ディスク面には溝はなく、900rpmの一定回転で回るCAV方式でした。
ディスクがピックアップと接触する関係上、ディスクはキャディ(カートリッジ)に入れられていました。
ホコリを嫌ったのです。競争相手のLDは、キャディ無しのベアディスク(CDやDVDと同じ)でした。
興味あることに、このVHDはVHSビデオテープレコーダを開発した日本ビクターが手がけ、この方式に参入するメーカには松下電器(パナソニック)、三洋、日本電気、シャープ、三菱電機など15社が名を連ねるという、数とネームバリューではライバルを圧倒していました。
レーザディスク方式は、パイオニアの一社でした。ソニー(と日立)は、当初、なぜかいずれの陣営にも組みせず、後になってレーザディスクに参入しました。
この事実は、技術的に考えてみますと、当時レーザ光源はとても高価でありそれに安定性の問題もあったため、多くのメーカがLDに参入するのを躊躇したのではないかと考えます。
1980年初頭の半導体レーザは、CD用の赤外小型小出力のものはできていたものの、映像を記録・再生するだけの短波長(赤色)で高出力のものはまだできていませんでした。
当時はVHSが松下・日本ビクターを中心としてすごい勢いをもっていましたから、その陣営が開発する新製品を扱えば道は拡がるとも思ったのかも知れません。
次世代の絵の出るレコードの開発を巡って各社が激しい競争をする中で、レーザを制御する技術を獲得したパイオニアがVHD陣営よりも早く商品化にこぎ着けました。VHDもLDと同時期に発売する予定であったのが、技術開発の遅れで大幅にずれ込み1983年となりました。
VHDは、しかしながら、水平解像力が240本程度とVHS程度の低さであり、しかもピックアップのメンテナンスも行わなければならないため、当時主流になりつつあったテープ方式のVHSの方が使い勝手が良かったこともあり(安価、ダビング、コピーができる)、それほど需要を喚起するにはいたりませんでした。
また、使い勝手がよく画質に優れるレーザディスクに大きく水をあけられることにもなりました。
VHDは、盤面が汚れると音飛びや画像乱れが多くあったそうです。
レーザディスク(LD)装置にCDも読み込めるようになった CLD-9000の発売(1984年)が、VHDの息の根を止めた出来事だったと言われています。
このためVHDは、早々にホームビデオ市場からは撤退して、カラオケ市場に軸足を移ました。
しかし、それも2003年6月をもって市場から撤退することになりました。
■ MO(Magneto Optical Disc、光磁気ディスク)の開発 (2010.07.10追記)
3.5型(インチ)タイプのMO。2HDフロッピーとほぼ同じ大きさで厚さは2倍以上あった。ハードカセットに収納されている。
コンピュータ周辺装置としてのMO(= Magnet Optical Disc)は、1988年に5.25型(インチ)の光磁気ディスクとして登場します。
その後、一般的になる3.5型(インチ)サイズ128MBのMOは、1991年に出荷されました。
当時は、パソコンの急速な発展に伴ってFDD(フロッピー)の記憶容量に限界を感じていた時期であり、フロッピーディスク感覚でデータを保存、消去できる光磁気ディスク(MO)の登場は、そうした要求を十分に満たすものでした。
MOは、CDよりも開発が遅く高度な技術を必要としていました。
MOの画期的な所は、データを何回も消去でき、しかもランダムに読み書きができることでした。
データ容量も3.5型(インチ)タイプでは、128MB、230MBが販売され、540MB、640MBと進化していきました。その後、 2.3GB容量のMO( = GIGAMO)が製品化されました。
後年、CDが音楽メディアからコンピュータのデータメディアに進出してきて、コンピュータのデータ記録メディアの主流となったとき、MOは脇役とならざるを得ませんでした。
CDがパソコンメディアの主流になった時、CDのデータ記録方式がフロッピーやハードディスク、MOのそれとは異なっていたために大いに戸惑ったことを記憶しています。
CDは、細かなファイルの読み書きができず、媒体内(CD)に一気に書き込みを行わなければなりませんでした。
これは、CDがデータの読み書き用に開発されたのではなく、音楽を再生するために作られたことに起因しています。
音楽録音は、LP(塩ビのレコード)に見られるように蚊取り線香のような渦巻き状に一本の溝で連綿と記録していくものです。
データをセクタ毎に入れ込んでいく細切れの録音ではないのです。
音楽のレコードの代用として開発されたCDでありましたが、メディア容量の大きさとディスク単価の安さからパソコン業界に大いに受け入れられて行きました。
2000年後半のMOは、CD及びDVD、半導体のスティックメモリの発展に隠れてしまい、一時期の趨勢を挽回できなくなりました。
その理由の第一は、MOメディア(ディスク)とMOドライブ装置が高価だったことです。
MOが128MBの容量を持って登場したときには、CDはすでに5倍も大きい650MBの容量を持っていて、ディスク価格も1/20以下と安価でした。
また、汎用性の高いCD/DVDドライブ装置がコンピュータの標準I/O(入出力装置)として装備されて行ったのに対し、MOは最後まで外付けの周辺装置であったため、ことさらにMOを買う必要性がなくなってしまいました。
CDやDVDが、データの消去と書き直しができるようになったり、急速にデータ容量を増やして行ったことも、MOが主導権を奪えなかった要因となりました。
また、日本ではそこそこの需要を掘り起こしたのに対し、欧米でのマーケティングは芳しいものではありませんでした。
▲ MOの記録・再生原理
MOの情報記録には、酸化鉄の磁性体と異なり、温度に依存する磁性体を使っています。
記録面を一旦高温(摂氏150度〜180度)に熱して磁性状態を開放し、温度が冷えて磁性が回復する時点で、外部から磁力を与えて磁化させるという方式をとっています。磁化された記録面は、常温ではその情報を保ち続けます。
ですから、MOは通常の状態で磁石を近づけても磁化されることはありません。
ここの所が、酸化鉄磁性体を使ったフロッピーディスクや磁気テープ、ハードディスクドライブと異なる点です。
物性が磁性を失う温度をキュリー点と言います。
そのキュリー点に到達させるのに、エネルギー密度の高いレーザ光を使います。
一般的には赤色レーザが使われてきました。
このように、MOとCD/DVDでは記録方式が異なったものになっています。
MOが磁気記録を基本としているのに対し、CD/DVDは磁気記録方式を採用していません。
記録が一回だけのCD-Rは、有機色素材料を用いてMOより強いレーザ光でピット面を焼き切る形で光学的な記録をします。
CD-RWというタイプはデータを何度も消去して記録できる方式であり、この点ではMOと似ています。
しかし、CD-RW(およびDVDのリライタブル)ではアモルファス金属を用いて、この面をレーザの熱エネルギーによって結晶構造を変えます。
この時に結晶構造面の反射率が変わるため、その反射率を検知してデータを読み出す方式をとっています。磁性材料ではないのです。
MOでは、CD/DVDの記録方法とは異なり磁性という形で記録されます。
データを読み出す時には、磁化された面が偏光という特性をもって入射した光を偏光反射させるので(磁気光学カー効果)、記録時よりも弱いレーザ光を当てて偏光の度合いを検出して記録した情報を取り出します。
こうした記録を可能にする記録材料には、希土類(R)と遷移金属元素(TM)による合金アモルファスがあります。
この材料をポリカーボネート基板の上にサブマイクロメータの厚さで真空蒸着(薄膜生成)させています。
光磁気ディスクは、光(熱)による記録再生を基本としているので、ディスク製造には安定した記録保持ができる記録材質の開発が大切な課題でした。
▲ MOの存在価値
MOは、2011年時点のコンピュータ周辺記録装置の中にあって、CDやDVDに主導権を奪われてしまっています。
しかし、MOにはMOならではの大きな利点があります。
それは耐久性です。
MOのデータ保持する寿命は50年とも100年とも言われ、記録回数は1000万回と言われています。
この耐久性は、ハードディスクやフラッシュメモリなどと較べて桁違いの性能です。
この観点から、MOは大切なデータを長く保存したい要求に十分に応えることができ、今現在も根強い支持を得ています。
MOが高い耐久性を持ち得るのは、以下のような要素によるものです。
1. MOディスクが堅牢なカートリッジに収納されているため、
外部からのチリやホコリ、引っ掻き傷に強い。
2. MOディスクは、CDやDVDディスクに較べて2倍ほどの厚さがあり、
表面を厚いポリカーボネートで覆われているのでキズに強い。
3. MOに使用されるレーザ光は、弱い出力で読み書きを行うのでディスクへのダメージが少ない。
4. 常温での磁石による磁化がない。
5. 非接触操作なので、ハードディスクやフロッピーディスクのようにディスクの摩耗がない。
6. CD-R、DVD-Rの記録メディアよりも紫外線に対して強い。経年変化に強い。
MOは世界的な普及はありませんでしたが、日本では比較的堅調にシェアを維持していて、官公庁などでの長期間文書を保存する必要のある機関や、出版関係では根強い需要を持ってきました。
また、5.25インチのものは引き続き開発が行われ、青紫レーザを用いた200GB容量のディスク開発が行われています。
2011年にあってMOディスクドライブを製造しているメーカはありません。
メディア製造は、2009年9月末に日立マクセルが製造を終了し、同年12月末に三菱化学メディアが販売を終了しました。
現在メディアを製造しているのはソニー1社となりました。
【CD = Compact Disc】 (Discは英国表記、通常はDiskであるがソニーはDiscを登録商標に用いた) (2009.09.17)(2009.11.20追記)
CD(コンパクトディスク)の誕生は1982年です。
CDの登場は、データメディアに一大革命をもたらしました。
650MBの記憶容量をもつCDは、オーディオをデジタルにパッケージングするのに十分であり、パソコンのデータを保存するにも十分でした。
CDが開発された時期の1982年は、IBMがパーソナルコンピュータを開発した年であり、またフロッピーディスクやハードディスクドライブが開発された年です。
CDは、今の感覚からするとコンピュータのデータメディアとして開発されたような印象があります。
しかし、実際は音楽用として開発されました。
黒い塩化ビニールのレコード(LP = Long Play Record Album、大きさφ12インチ = 30.5cm、 両面録音、アナログ記録ディスク)に代わるデジタルディスクとして開発されたのです。
CDは、従って、ハードディスクドライブのようにコンピュータ用データ保存用として開発されたのではありません。
CDは、ソニー、日立、日本コロムビアによってデジタルオーディオディスクとして発売されました。
コンピュータのメディアとして発売されたCD-ROM(Compact Disc Read On Memory)は、音楽用CDが発売された3年後の1985年に作られました。
そして、ユーザのコンピュータで個人のデータを記録保存できるCD-Rは、1989年にソニーとフィリップスによって開発されました。
CD-ROMとCD-R(後年のCD-RW)は、パソコンの発展に無くてはならないものでした。
音楽用CDは、実用的なデジタル録音メディアであり、品質がよくて取り扱いも楽なことから市場に急速に普及して、発売7年後の1989年にはそれまで主流であったレコード盤(LP)に対する売上シェアを90%としました。
2007年、新譜LPの姿は店頭にありません。
CDは、1982年の発売以降28年の歴史(2010年時点)を持つことになります。随分と長い間音楽ソースとして君臨して来たように思います。
ちなみに、ステレオのレコード盤は1958年に開発されました。
24年後の1982年にデジタルオーディオの元祖であるCDが発売されました。
1982年は、デジタルオーディオ元年と呼ばれています。
CDの対抗馬であるレーザディスク(LD) は、1972年、オランダフィリップス社で開発されました。
このディスクは、光学式ビデオディスクでしたがデジタルではありませんでした。
1977年にこのビデオディスクを基本としたオーディオディスクがソニー、三菱、ティアック、日立、日本コロムビアから発売されました。
■ 光ディスクの標準となった120mm径、厚さ1.2mm規格
1979年、フィリップス社は現在のCDの原型となった直径11.5cmのコンパクトディスクを発表します。
このサイズの根拠は、フィリップスが開発したオーディオカセットの対角線から割り出したサイズであったと言われています。
このディスクサイズで、14ビットの量子化による60分のデジタル録音ができる設計になっていました。
しかし、この仕様に満足しなかったソニーは、ベートーベンの第九交響曲がそっくり入る67分の録音と16ビットの量子化を提案したために、最終的に12cmの直径となりました。
12cmのCDは、75分の録音が可能でした。
1980年には、フィリップスとソニーによってコンパクトディスクの規格統一の合意がなされ、本格的なCD時代が到来しました。
CDが開発されて以降、光ディスクの高速大容量化の技術が進み、DVD、HDDVD、Blu-rayが開発されていきます。
しかし、いずれもディスクのサイズは12cmの円形であり、厚さも1.2mmと同じ寸法になっています。
方やMOやフロッピーディスク(FDD)、ハードディスク装置(HDD)は、8インチ、5.25インチ、3.5インチ、2.5インチ径という米国仕様で取り決められました。
CDとFDD(HDD)は、デジタル記録でありながら別々の分野から開発が行われて、コンピュータのストレージ(データ保存)分野に根付いて行きました。
■ CDの仕様
【仕様】
・直径:12cm(または8cm)
・厚さ:1.2mm厚
・材質: ポリカーボネート
・線速度: 1.2m/s〜1.4m/s
・回転数: 500rpm(中心部)〜200rpm(外縁部)
・トラックピッチ:1.6um
・最小ピット長:0.87um
・読み取りレーザ:λ=780nm赤色半導体レーザ
・対物レンズ開口数:N.A. = 0.45
・記憶容量: 640MB、650MB、700MB
・読み込み速度: 1.2M bps(1411.2k bps 等倍速、最大72倍速)
▼ オーディオCDの記録周波数:44.1kHz
CDを開発する際の根本仕様の一つに、記録周波数が挙げられます。
記録周波数が大事であるのは、デジタル録音をするのですから当然と言えば当然です。
音をデジタル化する場合、どの程度の周波数でデジタル変換すれば原音に近く録音できてしかも取扱が楽かという設計思想にたって、44.1kHzが決定されました。
人の可聴周波数の上限が20kHzと言われていますので、その倍の40kHzにすれば20kHzまでの音を忠実に再現できるというのが根拠でした。
また、この周波数に合わせて音を16ビット(65,000階調)に量子化しています。
音の大きさを65,000階調に分けたということです。
CDによる音声のデジタル録音は、原音を左右それぞれ44.1kHzのサンプリングレートとし16ビットによって量子化されます。
録音の段階では、16ビットを8ビットずつ2つに分けています。
この8ビット分を1シンボルと呼びます。
従って、量子化された1サンプル( = 1/44,100秒単位)の音は、16ビット = 2シンボルとなります。
CD-ROM(1985年開発)のデータ読み取り速度は、音楽CDと同じ速度で定められたため1.2Mビット/秒(正確には、1,411.2k bps)となっています。
44.1k Hz x 16 bit/ch x 2 ch = 1411.2k bps ・・・(Rec -39b)
これを等速(1倍速)とし、データの高速転送に伴って速度が上げられ、x2、x4、x8、x48と呼ばれる高速読み出しができるようになりました。
2006年には、x52倍速をもつCDが開発されました。
▼ EFM変調方式 (Eight to Fourteen Modulation)
デジタルオーディオの録音方式でCDの性能を決定づけたEFM変調方式について述べます。
この発明によってデジタルオーディオの実用化が決定づけられたと言っても過言ではありません。
音楽は、待ったなしに長時間音声データが流れてきます。オーディオ装置は、間違いをできるだけ少なくして確実にデータを読み出さなくてはなりません。
デジタルデータの確実な高速受け渡しを可能にしたのが、EFM変調方式だったのです。
CDの録音では、音声データの1シンボル = 8ビットは14ビットに変換されます。
8→14なので、これをEFM(Eight to Fourteen Modulation)と呼んでいます。
この技法は、オランダのフィリップス社 の科学者Kees A. Schouhamer Immink(1946.12〜)によって開発されました。
なぜ、8ビットの音情報をわざわざ14ビットに膨らませて記録させるのでしょう。
デジタルデータは、圧縮技術を使ってどんどん少なくしている傾向があるのに、CDは倍近いデータに膨らませて、しかも情報は8ビットのまま据え置いているというのは納得できないことです。
しかし、こうしないとデータを確実に送ることができませんでした。
EFMは、データを確実に読み取るために避けて通ることのできない変調方式だったのです。
例えば、音が全くない「0」を考えてみましょう。
この時、8ビットの音情報は、0000000となって「0」が8つ並びます。
この場合、CDプレーヤーはちゃんと「0」を8個として読み取ってくれるでしょうか。
同じ信号が連続して続いたとき、CDのピックアップの読み取り誤差、ディスクの回転ムラ、CD表面の汚れ、欠陥、ディスクの撓みや傾きなどで正しく情報を読み込まない可能性が十分にあります。
その読み取り誤差をなくすために、8ビットの間にあらたに情報成分を6個入れ込んで長く続く同じ信号成分をカットし、誤りを少なくして情報の読み取り精度を高めたのです。
8ビット情報にあたる256種類には、予め14ビット情報に変換するテーブル(表)が決められていて、この変換テーブルに従って14ビット化した情報をCDに書き込み、CDから読み出す時は14ビットの情報を再び変換テーブルを使って8ビットに戻すという仕組みを採用しました。
なにやら暗号文の暗号化/復号化のようです。
なぜ、CDはこれほどまでにデータの読み取りを慎重にしているのでしょう。
他の記録媒体、例えばフロッピーディスクやハードディスクでも同じような方式でデータを記録しているのでしょうか。
答えはノーです。
CDは、CDならではのデジタル音声データ読み出しの事情がありました。
事情とは、67分間もの長い間連綿とデータを出し続けなくてはならない事情です。
これは、文書ファイルなどのデータ出力手順とは決定的な違いです。
待ったなしのデータ出力に対しては、一回の読み取りで正確にデータを取り出すために、
誤り訂正を幾重にもしてデータの信頼性を高める工夫をしたのです。
文書ファイルや静止画像ファイルデータなどは、ここまで厳しくしなくても何度でも読みに行けば良いので楽かも知れません。
映画のような動画像となると、音声同様待ったなしの映像情報になるので、誤り訂正はさらに重要となります。
従って、DVDでもBlu-rayでも同様の誤り訂正機能(しかももっと巧妙な機能)がつけられています。
■ 17ビットの1シンボルデータ
先に述べたように、44.1kHzでサンプリングされた一つの音は2シンボルで構成されます。
これをEFMによって14ビット1シンボルとしているので、音の一つは28ビットのデータとなります。
画像では画像の一単位を画素(pixel)と言っているのに、音の基本はなんと言っているのでしょう。
音素(おんそ = aucel)などという言い方があるのでしょうか。
変な疑問はともかく、CDに記録された音の基本単位は44.1kHzの2シンボルということになります。
デジタル録音される音素は28ビットになりますが、一種の暗号化で大きくなっているだけなので、音自体は16ビットに変わりがありません。
この手法(EFM)は、結果的には画期的な手法となりCDの再現性の良さを確乎たるものにしました。
この成功により、DVDの開発においても同じ原理を応用したEFMplusが採用され、Blu-ray Discでは1-7pp変調が採用されました。
このようにして、この変調方式はディスクメディアに無くてはならないものとなりました。
さらに、EFMで14ビットにされた1シンボルの音は、3ビットのつなぎビットが挿入されて17ビットとするのでこれが1シンボル単位となります。
つなぎビットの目的は、記録波形の直流成分を少なくすることにあり、長い期間でみてHIGHとLOWが等しくなるようにしています。
14ビット、1シンボルの波形がHIGHになっていればつなぎビットをLOWにしてトータルで0になるようにしています。
この機能がデータに欠陥があって正しいデータに直さなければならないときに役立ちます。
つなぎビットで直流成分を低く抑えるには、DSV(Digital Sum Value)という数値から判断して行います。
つなぎビットは記録情報が増えて不利になるような気もしますが、実際にはそれ以上のメリットがあります。
連綿と続く音を待ったなしで再現して行くには、こうした誤り訂正技術を巧みに駆使していく必要があったのです。
■ リード・ソロモン符号(Reed Solomon Coding)
CDに採用されたシンボルを単位として誤り訂正を行う手法をリード・ソロモン符号処理(Reed - Solomon Coding)と言います。
リード・ソロモン符号は、1960年に開発されました。
リード(Irving S. Reed: 1923〜)とソロモン(Gustave Solomon: 1930 - 1996)は、米国の数学者でMIT(マサチューセッツ工科大学)出身者です。
1960年は、デジタル処理が十分に発達していない時期なので、この手法はデータ処理の一貫として数学上のテーマで開発されたものと考えます。
これが情報処理の時代になって、情報の誤り訂正の強力な手法として取り上げられ、CDやDVDの記録や、衛星デジタル通信などに取り入れられました。
この符号化は、情報をブロック毎に分け(シンボル化)てシンボル内の誤り訂正を行うことを特徴としていて、データの欠損が連綿と続く可能性のある情報処理に威力を発揮しました。
これは、CDやDVDなどの連綿と続くデータの訂正処理にはうってつけでした。
この符号処理は複雑なので、計算処理が高いプロセッサが現れるまでは現実味を帯びませんでした。
1980年代初頭がそうした技術環境が熟した時期だったのだと理解できます。
▼ CDのデータ容量
CDは、長時間の音声データが次々に読み出されます。
CDからの読み出しは、フロッピーディスクに保存された一般の文書保存とは趣が異なります。
データは後からあとからどんどん出てきますので、速やかに読み出しを行いしかも確実でなければなりません。
そのためにデータが確実に読み出せるようパリティが組み込まれ、また、連続した同じ信号データが続かないように8ビットデータを14ビットに変換する処理がなされています。
当然、記録されるデータは訂正処理のための信号が組み合わさるので、実際の音声データより大きくなります。
■ 1フレーム単位の音声データ
CDの記録には、データの誤り、欠損の回復を狙いとして、1フレーム単位でデータが格納されています。
フレーム周波数は、7.35kHzで、チャンネルビット数は4.3218MHz( = フレーム周波数の588倍)となっています。
フレーム情報は、以下のような構成となっています。フレーム情報の概念図は下図を参照して下さい。
・1フレームのビット数は588ビットである。その内訳は、
・ フレームの最初は、24ビットの同期信号 + つなぎビット3ビット。
・ 次に制御信号として、14ビット(1シンボル) + つなぎビット3ビットが当てられる。
・ 次にデータのシンボルが12ヶ。(17ビット x12)
・ 誤り訂正用パリティビットが4シンボル。(17ビット x4)
・ このデータシンボルとパリティがもう一回つながる(17ビット x16)
上に述べた構成によって、1フレームあたり、588ビットの塊となります。(下図参照)
( 24 bit/同期信号 + 3 bit/つなぎ ) + 14 bit/制御信号 + 3 bit/つなぎ
+ {17 bit/データ・誤り x(12 + 4) データ・誤り }x 2 = 588 ビット ・・・(Rec -40)
1フレーム(588ビット)データの配列は、以下の図のようになっています。
この塊(1フレーム)を取り出して、情報に誤りがないかどうかをチェックし、エラーがあればそれを訂正して再生段に送ります。
図からわかるように、データを保存するのに、随分と慎重にエラーチェック機能が組み込まれているのがわかります。
1 フレームには上記の説明より音声データが24個分あることがわかります。CD音声データは、左右(L.R)2チャンネルあり、また、音声データは2つのシンボルで1つの音声単位を構成しているので、1フレームには、24個のデータを2(左右)x2(シンボル) = 4で割った6対の左右の音声データが格納されていることになります。
1フレーム6対のデータで1フレームが構成され、これが 7. 35 kHzで格納されるため、1つの音声は、
7.35 kHz x 6 = 44.1 kHz ・・・(Rec -41)
44. 1 kHzの音声サンプリング周波数で録音されていることがわかります。
CDの記録容量を計算してみます。
CDは、1フレームという単位で記録されていることは先に述べました。
これは、588ビットの塊であり、これを7.35kHzで記録していくため、
588 ビット x 7,350 Hz = 4.3218 Mビット/秒 ・・・(Rec -42)
の記録となります。
これが74分間続くと、CD-ROMの記憶容量は、
4.3218 Mビット/秒 x 60 秒/分 x 74 分 = 19,188.792 Mビット ( = 2,398.599 MB ) ・・・(Rec -43)
となり、合計すると19.2Gビットとなります。
この計算値は、通常言われているCD-ROMの記憶容量650MBの3.6倍にあたります。
つなぎや訂正信号を除いた音声自体のデータは、
14 ビット x 2 シンボル x 2 チャンネル x 44.1 kHz x 60 x 74 /8 ビット = 1,370.628 MB ・・・(Rec -44)
1.37GBとなります。
これは、一般に言われているCD-ROMの容量の2倍の記録容量になります。
通常、CDはサンプリング周波数が44.1kHzで、16ビット量子化、左右2チャンネルサンプリング、74分の記録を行いますから、FEM変換を考慮しない音声情報は、
16 ビット x 2 チャンネル x 44,100 Hz x 60 秒 x 74 分 /8 ビット = 783.216 MB ・・・(Rec -45)
783MBとなり、一般的に言われているCDの容量の数値となります。
つまり、ここで言いたいのは、CDの記憶容量は、公称のデータ容量の3.6倍程度ある、ということです。
CDには、記録データの安全な保存のために色々なチェックデータビットが加えられているということがわかります。
ここまでしないと、まともにデジタル音声信号の記録再生ができなかったことを教えてくれています。
デジタル記録媒体の歴史を振り返って見ると、ここまで幾重にも誤り訂正処理を施した記録方式はなかったように思います。
紙テープにしてもフロッピーにしても簡単なパリティだけでデータを保存していました。
ハードディスクでの保存は、セクタ毎にデータの確認が行われ、うまく記録できない場合は再度書き込むという方式を取っていました。
しかし、CDの場合は、膨大な音声データを連綿と流さなければならない性質上、またディスクの歪みや傾き、ディスク表面の汚れなどを考慮して読み取りエラーがあっても訂正できるように、このような方式を取ったものと考えます。
▼ データ書き込み
CDに記録されるビットは、1ヶ当たり約230ナノ秒の時間間隔(= 1/4. 3218 M bit/s )で記録されます。
ビットは0.5umの巾の大きさで、トラック間隔は1.6umピッチで作られています(右図参照)。
ピットの長さは、9種類あり、線速度が1.25m/sの場合それぞれ、
0.87um、1.16um、
1.45um、1.74um、
2.02um、2.31um、
2.60um、2.89um、
3.18um
と決められています。
この長さは、線速度とピットの時間間隔(231.385ナノ秒)を考え合わせると、0.87umのピット長では3ビット分に相当し、以下1ビット分ずつ長さが増えていき、3.18umのピット長では、11ビット分の情報になります。
CDの記録は、このピット長を組み合わせてトラック上にピットを穿っています。
ピットは11ビット以上の長さはないことになります(EFM変調 参照)。
データを読み出すレーザについて考えてみます。
使用している赤外レーザビーム(λ=780nm)とピックアップ光学レンズの開口数(N.A. = 0.45)から、ビームのスポット径(D)は以下の式によって、
D = 0.89λ/N.A. ・・・(Rec - 46)
D: ビームスポット径
λ: レーザ波長
N.A.: レーザ光学装置の開口数
1.54umとなります。
このビーム径はピットの大きさよりも大きく、3ビット長のピットを飲み込んでしまう大きさです。
この大きなビーム径で細かなピット信号をどのようにして取り出しているかというと、ピットからの反射特性を検知して信号を取り出しています(右上図参照)。
CDに穿たれたピットは、クロック信号(4.3218MHz)に同期してピット信号を取りだし、信号処理を経てデジタル情報にしています。
保存されたデータが「0」や「1」が連綿と長く続くとカウントエラーが起きやすくなるため、長く同じ情報が続かない工夫として先に述べた EFM変調方式(Eight to Fourteen Modulation) が考案されました。
CDの読みとりは、CLV(Constant Linear Velocity)と呼ばれる線速度一定方式で読みとられます。
一般のコンピュータデータディスクは、構造を簡単にするため、ディスクの回転数を一定にしたCAV(Constant Angular Velocity)方式が一般的ですが、音楽メディアの場合、一定のデータ量で送らなければならない関係上、CLV方式になっています。
従って、内側と外側では回転数を変化させて線速度を一定に保つようにしています。
この理由により、デスク回転数はピックアップの位置によって変わり、約600〜200rpmの可変回転速度となります。
CDの大きさは、直径120mmで中心にφ15mmの穴が空いていて、φ50mm〜φ116mmのドーナッツ領域の半径方向33mmの巾が記録領域となります。
CDは、連綿と音声信号が続く録音用として開発されたので、フロッピーデスクのように細切れのデータ領域を割り当てるという発想はありませんでした。
従って、CDをデータ用に使おうとすると細切れにデータを格納できないので、一筆書きで一気に記録するという方法をとらざるを得ませんでした。
同じ光磁気ディスクでも、MOは、フロッピーやハードディスクの概念を引き継いでいますので、記録領域はセクタで分かれていて任意のデータ保存と消去が可能です(右図参照)。
▼ CDとMD(MiniDisc)
CD の容量は、75分で650〜700MBです。
それに対して、MDも同じ時間のオーディオ録音ができます。
但し、データ容量は、CDの持つ容量の1/5の140MBです。
MD = MiniDisc(Discは英国表記、通常はDiskであるが、ソニーはDiscを登録商標とした)は、1992年にソニーによって開発されます。
MiniDiscは、CDのサイズをよりコンパクトにして録音・再生が簡単にできる構造でした。
ただし、MDの記録方式はCDの記録方式とは違い、MOと同じ光磁気方式を採用しています。
MD(Mini Disc)は、直径2.5インチ(φ64mm)、厚さ1.2mmの光ディスクで、これを72mm x 68mm x t5mmのカートリッジに収納して使っています。
MDのサウンドは、CDとほとんど変わらずに44.1kHz、16bit、ステレオフォーマットになっています。
しかしMDのコンピュータ的容量は140MBであり、これはCDの約1/5の容量にしか相当しません。
これは、MDがATRAC(Adaptive Transform Accoustic Coding)という非可逆圧縮技術を取り入れて、CDのデジタルデータよりも1/5に圧縮しているためです。ちなみにCDはデータを圧縮していません(逆に膨らませているくらいです)。
ATRAC は一種のマスキング効果(データ圧縮)で、例えば、大きな音と小さな音が重なっていると、小さな音は大きな音にかき消されてしまうことを利用してマスキングを行います。
主に高音と低音の部分でマスキングを行い1/5の圧縮を行っています。
ちょっと聴いただけではわからないMDの音も、本当によく聴いてみるとやや音質が落ちていることになります。
MDは、CDほどの普及はみてません。
CD音楽ソースをコピーして使うアマチュア向けという位置づけで、ある程度の発展を遂げましたが、MP3の開発と半導体メモリの出現によって(iPodなどの携帯音楽再生装置の台頭によって)、徐々にその位置を失いつつあります。
■ ビデオCD(Video CD、View CD、Compact Disc digital video)
ビデオCDは、本来音楽用であったCDをビデオ再生媒体として使うために規格化されたものです。
これは、1993年にソニー、フィリップス、松下、日本ビクターによって規格化されました。
しかし、DVDが大きな飛躍を見せたために、ビデオCDの存在は忘れ去られたものになりました。
この規格ができたのは、CDを使って動画を保存したいという要求が当然のことながらあったことを教えてくれています。
ビデオCDが出た1993年から遡って6年前の1887年は、CDビデオ(CDV、CD Video)という製品が開発されています。
CDビデオは、アナログの映像録画(オーディオ部はデジタル)でした。しかし、ビデオCDは、完全デジタルでした。
従って、当時もっとも普及していたVHSビデオテープ映像と較べて画質の劣化がなく色ムラもありませんでした。
ただし、画像が352x240画素と小さいため、再生時には画素を補間して倍にする(720x480画素)方式としていました。
CDは映像を保存するにはデータ容量が小さく転送レートが低いので、以下に示す性能が限度であったのかも知れません。
【ビデオCDの規格】
・ 解像度: 352 x 240画素(NTSCの4:3とは若干異なる)
・ 映像の圧縮: MPEG-1
・ 再生速度: 29.97フレーム/秒
・ データ:1150kbps
・ ビットレート: オーディオCDと同じ
・ 記録時間: 74分
・ 記録媒体: CD-ROM
ビデオCDは、安価に製造できることから、DVDが普及するまでの間、東南アジア(香港、フィリピン)などで使われました。
しかしながら、ビデオCDは、通常のパソコンのCDドライブでは再生できないものが多かったようです。
ビデオCDの存在すら知らない人もいると思います。
【DVD】(Digital Versatile Disc、開発初期は、Digital Video Disc) (2009.04.15追記)
DVDは、CDと同じ形状をしていながらより高密度化を図った光ディスクであり、1992年に開発されました。CDの開発から10年後のことでした。DVDは、ハリウッドを中心とする米国の映画業界が「映画並の映像を家庭で手軽に楽しんでもらいたい」と、東芝を中心とする日本のメーカに技術開発を持ちかけてきたのがきっかけでした。光ディスク装置の技術は日本のお家芸であったため、日本のメーカに白羽の矢がたったようです。DVDの基本仕様である片面一層だけで133分間再生できる能力は、ハリウッドの注文でした。映画はほとんどが100分前後の長さであるため、片面一層に収めることが求められました。
DVDの開発も、CDの開発と同様、コンピュータのデータ保存というよりも映画用のメディア(VHSテープの後継商品)を目的に開発が進みました。
音楽といい映画といい、メディアの需要はコンピュータ周辺機器よりも娯楽製品の方がはるかに高いことをこれらの開発の歴史は教えてくれています。
■ CDとDVDの違い
DVDは、CDの技術を応用したより高密度で高いデータ容量のディスク装置です。CDとディスク寸法を全く同じにしながら、どのように高密度記録を達成したのでしょう。最も大きな技術革新は、光源(レーザ)をより波長の短いものに変えたことです。CDが、780nmの赤外半導体レーザを使っていたのに対し、DVDでは650nmの赤色半導体レーザを使いました。また使用するレンズもN.A.0.45からN.A.0.6と大きくし、波長との兼ね合いでビームスポットを1.5umから0.96umと小さくすることに成功しました。ビームをより小さく絞り込むことができるようになったので、ディスク面に記録するピットも小さくすることができます。このためピットの最小長さを0.87umから0.4umまで小さくすることができ、トラックピッチも1.6umから0.74umと半分以下に狭めることが可能となりました。こうすることによって同じ12cm径のディスクサイズで4.7GB(CDの約7倍)ものデータ容量を確保することができるようになりました。
DVDは、また、当初から記録面を2面持つ設計になっていますので、2層記録では8.54GBのデータ容量をもつことができました。
【圧縮技術】
DVDに記録する動画には、MPEG-2 と呼ばれる圧縮技術が用いられています。
音楽のCD録音では圧縮を使わなかったのに、さすがに映像ではそうもいかず圧縮技術を使わないと12cmのディスクに映画が収まりませんでした。
DVDの映像は、720画素 x 480画素、30フレーム/秒が基本となっています。 この動画を133分記録するとすると、単純計算で、
720画素 x 480画素 x 3バイト/画素 x 30フレーム/秒 x 60秒/分 x 133分 = 248.2 GB
248.2GBの容量が必要となります。DVDは4.7GBの容量なので、単純計算で1/53に圧縮をする必要があります。
この圧縮のためにMPEG-2が採用されました。
MPEG は、Motion Picture Expert Groupの略で、映画などの動画像の圧縮を検討するため各国の専門家が作った委員会です。
MPEGは、1993年のMPEG1で最初の制定がおこなわれました。
データの圧縮率は約1/30でした。
この技術は、当初、カラオケCDで実用化されました。
映画などを収めたビデオCDでは、MPEG-1を使用して最大74分間の収録をおこなっていました。
しかし、MPEG-1方式での解像力は、VHSビデオ並であり、とても十分な画質とは言えませんでした。
そこで、解像力を720x480画素程度確保するためにMPEG-2の規格が作られ、1995年夏にまとめられました。
MPEG-2は、ハリウッド映画などのDVD作品になくてはならぬ映像フォーマットとなりました。
【片面二層式】
片面二層式のDVDは、張り合わせるディスクの両方にピットを作ってあります。
貼り合わせた2枚のディスクの一方には従来通りアルミの膜を付け、もう一枚には光が一部透けて通る金などの薄膜をつけておきます。
この二枚を、ピットのある側に向けて精度良くぴったりと貼り合わせます。
データを読み出す際に、光が一部透けて通る半透明層についてはレーザの光の焦点をここに合わせて反射光を検出します。
その下の層(貼り合わせたもう一枚のディスク)に記録されたデータを読みとるには、レーザ光のレンズ位置を微妙にずらします。
レーザ光は、半透明膜を通り抜けてもう一枚のディスクのアルミ膜で反射してこれを検出するようになっています。
【仕様】
・ 直径:12cm
・ 厚さ:0.6mm厚のプラスチックの2枚張り合わせ(厚さ計1.2mm)
・ トラックピッチ:0.74um(CDは、1.6um)
最小ピット長:0.4um(CDは、0.87um)
・ 読み取りレーザ:λ=650nm赤色半導体レーザ(CDは、780nmの赤外レーザ)
・ 対物レンズ開口数:N.A. = 0.6(CDは、N.A. = 0.45)
・ ディスク回転数: 600 rpm 〜 1,400 rpm
・ 線速度: 3.49m/s
・ 記憶容量:4.7GB〜17GB(DVD-5、DVD-9、DVD-10、DVD-17)
DVD-5 片面再生 信号層1層 4.7GB
DVD-9 片面再生 信号層2層 8.5GB
DVD-10 両面再生 信号層1層 9.4GB
DVD-17 両面再生 信号層2層 17GB
・ 記録型
DVD-R ライトワンス(一度だけ書き込み)片面3.8GB、両面7.6GB
DVD-RAM オーバーライト(相変化方式) 片面2.6GB、両面5.2GB
・ 水平解像力:500本(S-VHS400本、LD400本)
・ データの読み出し:CD-ROMの10倍(4倍速の倍以上)
・ CDとの互換性:有り(CDは音楽を60-70分演奏できる目的で作られた)
DVDフォーラムが認定するロゴ。
DVD-R、DVD-RAM、DVD-RW、等がこれに属する。
DVD+RWアライアンスが認定するロゴ。
DVD+R、DVD+RW等がこれに属する。
【二つのDVD規格組織】
書き込み用DVDには、以下に述べる2の流れがありました。
* DVD-RAMを推奨する「DVDフォーラム」グループと、
* DVD+RWを推す「DVD+RWアライアンス」グループ
DVDメディアを見ると、右のようなロゴが描かれています。
これらが二つの団体を示したロゴです。基本的に、最初のDVD規格は1995年に『DVDコンソーシアム』という団体ができて、1997年に『DVDフォーラム』に引き継がれます。
『DVD+RWアライアンス』は、4年後の2001年にできます。
この両者はご多分に漏れず、規格争いの結果、このような図式となりました。
DVDは、もともとは、CDが開発された後、新しい光ディスクによる高密度記録媒体が開発され、1990年代初めは、ソニーとフィリップスの開発したMMCD(MultiMedia Compact Disc)と、東芝・タイムワーナー・パナソニックなどが進めていたSD(Super Density Disc)の二つの流れがありました。
この流れを一つにまとめる動きがIBMによってなされて、それが『DVDコンソーシアム』という形になりました。
これでDVD業界は一本化できると思われましたが、DVD-RAMの規格に対してMMCD方式を育ててきたソニーとフィリップスが異議を唱えて物別れになり、2001年に『DVD+RWアライアンス』が設立されました。
■ DVDフォーラム(1997年設立)参加企業
*東芝
*パナソニック(松下)
*日立製作所
*シャープ
*IBM
*Intel
*マイクロソフト
* LG
* Walt Disney Pictures and Television
* Warner Bros. Entertainment Inc.
■ DVD+RWアライアンス(2001年設立)参加企業
*ソニー
*フィリップス
*デル
*ヒューレットパッカード
*三菱化学メディア
*リコー
*トムソン
現在もDVDには上に述べた二つの大きな流れがあり、これらのグループが作るDVD-R、DVD-RAM、DVD+R、DVD+RW、DVD-Videoなどの10種類ほどのDVDディスクが世の中に出回っています。
さらに、それに加えて、ハイビジョン対応のHD DVDとブルーレイディスク(Blu-ray Dics)の流れができました。
ハイビジョン対応DVDに関しては、2008年にBlu-ray に集約されました。
現在(2009年)、新しく購入するDVD装置では、ほとんどの種類のDVDディスク(ただし、Blu-rayは別)を読み出すことができるので、特に大きな問題にはなっていません。
書き込む時だけ注意して対応したディスクを使う必要があります。
しかし、書き込みにおいても、両方のDVDが使える装置が数多く出回っていますので、それほど神経質にならなくても良いようです。
上の参加企業を見ますと、DELLやHPなど外国のPCメーカがDVD+RWグループ(ソニー主導による新しいグループ)に属し、東芝やパナソニックなど日本のメーカは、DVDフォーラム(最初のグループ)に属しているようです。
シェアから見ると、歴史的な背景からDVD-R/-RWの方が多く使われているようです。
欧米では、DVD+R/+RWの方がよく使われていると聞きます。
2009年4月、所用があって秋葉原に出て、大手ディスカウントストアを訪れました。
そこでDVDメディアが置いてあるコーナーに行って、どんな種類のブランクディスクが置いてあるのか見てみました。
驚いたことに、DVD-Rを始めとしたDVDフォーラムの推進するディスクが圧倒的な売り場面積を占めていました。
DVD+RWディスクを探すのに5分から10分ほどかかったでしょうか。
それほど、どの棚を見ても「-」(ダッシュ)のついたDVDディスクしか置いてなかったのです。
DVD+RWディスクは、ディスク売り場面積の5%も満たないような棚にひっそりと置かれていました。
他の棚を見ても、また通路におかれた売り出しのワゴンコーナーを見ても、すべてDVD-R、DVD-RWでした。
ソニーでさえも、DVD-Rディクスを自社ブランドで売っていたのにはビックリしました。
4年ほど前(2005年当時)までは、このような現象は無かったはずです。
少なくとも両者は拮抗していました。どうしてこのようになってしまったのかよくわかりません。
ヨーロッパでは「+」のシェアが日本より高いと聞きます。
日本では、お店の棚から判断するのに「+」は5%もないように感じました。
ユーザの目からみると、両者に特別な技術的優位性があきらかにあるとは思えず、すべての規格のDVDを読み書きできる光学ピックアップもできたので、競争も沈下している感じを受けました。
それならば、DVDの最初のタイプであるDVD-Rを使えば、互換性が一番高くて、価格も安価で入手できるという考えが一般的になっているようです。
それに、時代はDVDからBlu-rayに変わる風潮にあるので、ことさらこの分野で競争をしなくても良いというメーカの判断もあるように感じました。
2009年6月に再度同じ量販店を訪れました。
DVDコーナは2ヶ月の間に模様替えがなされ、1/3の面積がBlu-ray Discに変わっていました。
そこには、もはや、「+」のついたDVDブランクディスクはなく、「-」のみとなっていました。 (2009.06.27追記)
【Blu-ray Disc】 (2007.12.09)(2009.08.31追記)
Blu-ray Disc(BD、ブルーレイ)は、DVDの5倍以上のデータ容量(1層25GB、2層50GB)を持つ直径12cmサイズのディスクです。
高画質の動画(ハイビジョンテレビ、ゲームの)保存・再生用として1999年7月にソニーとフィリップスで開発されました。
2年半後の2002年2月に、松下(現パナソニック)、パイオニア、日立、LG電子、サムスン、シャープ、トムソン(RCA)ら7社が加わり、BD規格が出来上がりました。
Blu-ray Discは、次世代DVDとも呼ばれ、地上波デジタル放送とフルハイビジョンデジタル放送の実用に伴い、それに耐えられる保存メディアとして注目されました。
Blu-ray Discでは、地上デジタル放送(1440×1080i、16.8Mbps)で3時間程度、BSデジタル放送(1920×1080i、24Mbps)で2時間程度のハイビジョン映像を録画することができるようになりました。
ブルーレイディスクの英語表記は、Blue-ray Disc ではなく、Blu-ray Discです。
青の「Blue」をそのまま使っていません。
「Blue-ray」とすると一般名詞に近くなって固有名詞としての認知が難しく、商標として公認されないおそれがあったためこの表記としたそうです。
この表記が本Webで曖昧であったことを、T.I.さんからご指摘を受けました。
ここに修正いたします。
T.I.さんどうもありがとうございました。(2009.08.31)
この規格の製品が始めて販売されたのは2003年で、ソニーのBD(Blu-ray Disc)レコーダ「BDZ-S77」というものです。
【BDZ-S77の仕様】
・記録モード: 1080i、720p にて約2時間(24M bps max.)
そのほか480p、480i、アナログ録画。
・デジタル信号入力: デジタルBS入力端子
IEEE1394(S200 = iLink)
・アナログ映像入力: S映像 x2、コンポジットx2
・映像出力: デジタルBS出力端子
D4 x1、S映像x2、コンポジットx2
・寸法: 430W x 398D x 135H
・重量: 14kg
・消費電力: 65W
・価格: 450,000円
・カートリッジディスク: 片面1層23GB(3,500円)
3年後の2006年には、ソニーのゲーム機PS3(PlayStation3、当時59,800円)にBDが標準装備され、ブルーレイディスクによるゲームソフトの販売が開始されました。
この年から、BDが飛躍的に売れるようになったそうです。
それまでは、ハイビジョン画像のソースや受像機が普及しておらず、しかもDVDに比べて割高感があったため、それほど普及に加速がついていませんでした。
2006年は、次世代DVDの元年とも言えるべき年かもしれません。
パーソナルコンピュータで、2007年当時にBDを搭載していたのはソニーのみでした。
PC周辺装置では、松下(現:パナソニック)がBD-R(Blu-ray Disc Recordable)ドライブを2007年7月に開発し、PC周辺機器製造メーカがそのモジュールを使って製造販売を開始しました。
2009年では、CD/DVDに加えてBlu-rayが読み書きできる内蔵/外付け装置が供給され、通常の感覚でBlu-rayディスクが使えるようになりました。
■ HD DVD (High Definition Digital Versatile Disc)
ブルーレイディスクと同様のメディアには、東芝(とNEC)が開発したHD DVD(High Definition DVD)がありました。
HD DVDはブルーレイディスクとほぼ同じカテゴリの製品で、この両陣営は次世代DVDの覇権を争ってシェア獲得にしのぎを削っていました。
規格化の覇権を争う様相は、ホームビデオ装置のVHS vs ベータの競争に似たものがありました。
次世代DVDの開発初期は、東芝陣営のHD DVDが先行し、アメリカハリウッドの映画会社のほとんどは東芝規格の高品質DVDを支持していました。
それが、2005年を過ぎたあたりから雲行きがあやしくなり、HD DVDからBlu-rayへ乗り換える映画配給会社が増え出しました。
2007年12月のクリスマス商戦ではBD陣営に軍配が上がり、朝日新聞(2007年12月6日朝刊12面)は、「BDレコーダのシェアは98%(DVD全体では21.1%のシェア)」と報道しました。翌年、2008年2月19日には、東芝から全面撤退の声明が出されました。
2009年、市場にはHD DVDの姿はありません。
■ Blu-rayの特徴
BDが高品位DVD分野で勝利した要因はなんだったのでしょうか。いろいろな原因が考えられますが、BDはデータ容量が大きかったことが第一にあげられると思います。
HD DVD(1層15GB)は、BD(1層25GB)の6割しか記録容量がありませんでした。
これがハリウッド映画業界での切り崩しに成功したと考えられています。
また、TDKが開発したハードコーティング技術(DURABIS )を採用したブルーレイディスクは、カートリッジレスに成功し、取り扱いと価格を魅力的なものにしました。
ハリウッド映画業界が一斉にBDになびいたことにより、HD DVD陣営は決定的な打撃を受けたと言われています。
Blu-ray陣営が勝利した第二の理由は、ソニーが自社のゲーム機プレイステーション3(PS3)にブルーレイ機能を搭載したことでした。
映画業界の浸透を援護するようにゲーム分野にもBlu-rayを浸透させるべく、魅力的な仕様と価格でPS3を世に出しました。
これによりBlu-rayで作られるゲームソフトも増えて行きました。
この分野での大勢が決まった2008年以降、コンピュータ分野でもブルーディスクを搭載したモデルが数多く出るようになりました。
【Blu-ray 仕様】
・記録容量: 25GB(一層)、50GB(2層)
・ 使用波長: λ = 405nm青色半導体レーザ
(DVDは、 λ=650nm赤色半導体レーザ。CDは、780nmの赤外レーザ )
・ 対物レンズN.A.: 0.85(DVDは、 N.A. = 0.6。CDはN.A. = 0.45。Blu-rayは明るい光学系を使っている。 )
・ データ転送速度: 36Mbps
・ ディスクサイズ: φ120mm(CD、DVDと同じ)
・ ディスク厚さ: 1.2mm
・ ディスクセンタ孔: φ15mm
・ 回転数: 800 rpm 〜 2,000 rpm
・ 線速度: 4.917 m/s
・ 記録方式: 位相変化
・ 信号変調: 1-7PP
・ 映像フォーマット: MPEG-2
・ 音声フォーマット: AC3、MPEG-1
■ ハードコーティング技術を確立したTDK - DURABIS
ブルーレイディスクが開発された当初、ディスクはMOのようにハードカバーに覆われていました。
ディスクを裸(ベアディスク)で扱えるようになったのは、TDKが開発したハードコーティング技術のおかけだと言われています。
この処理によってブルーディスクもカートリッジレスになり、取り扱いが楽になって価格も安くできるようになりました。
ハードディスクコーテイング処理(DURABIS = Durability + Shield)は2002年に開発され、DVDディスクに応用されました。
DVDに採用されたハードコーティングは、DURABIS1と呼ばれるもので、ブルーレイではDURABIS2、放送局用のディスクにはDURABIS3と呼ばれるカテゴリーのコーテイングがなされています。
このハードコーティング技術は、スチールたわしでディスク面を100回こすって傷をつけても読み出しに影響がないと言われているものです。
また、この処理は指紋などの汚れに対しても汚れが付きにくい性質をもっていたり、静電気による帯電が起きにくくホコリの付着が極めてすくない性質を持っています。
このハードコーティングがどのような素材を使って、どのような手法で行われているのかは私自身よくわかっていません。
■ Disc - CD/DVD/Blu-ray のまとめ (2009.09.17記)(2011.07.13追記)
CD、DVD、Blu-ray、(HD DVD)は、同じ延長線で進化を遂げてきたものです。
同じ延長線の意味するところは以下のものです。
1. 直径12cm、厚さ1.2mmのポリカーボネート円盤(ディスク)を使っている。
記録面や記録手法に違いはあれ、形状は同一規格。
2. データの読み出し、記録にレーザ(半導体レーザ)を使っている。
3. 開発の主動機がオーディオ、及び映画コンテンツの録音/録画・再生であり、
コンピュータメディアとしてではなかった。
4. 長時間にわたる連綿としたデータの読み出しが特徴。
5. 絶えず上位互換性が考慮されている。
つまり、DVDが開発されてもCDの読み書きができる機能が考慮され、
Blu-rayの開発でもDVDとCDが読み書きできる対応が図られている。
3者は今のところ(2010年時点)互いを淘汰する気配がない。
ユーザは、目的に応じて最適なディスクを使用することができる。
▲ 3種類のレーザ光源
上記の3つのディスクは、高密度・高速再生という時代の要求に応えるために光源を代えてきました。
つまり、CDの時代は波長780nmの赤外レーザを使い、DVDでは650nmの赤色レーザを用い、Blu-rayでは405nmの紫外に近い青色レーザを使いました。
波長を短くすることによりビームスポットを小さくでき、同じ大きさのディスク面積内に高密度に情報を収めることができました。
CDが開発された時代は、赤外半導体レーザがで始めた時期で緑色や青色の半導体レーザはまだありませんでした。
CDが開発された1970年代後半は、半導体レーザに安定した高品質のものがなかったので、ヘリウムイオンレーザ というガスレーザを使っていました。
ガラスのチューブでできたこのレーザは、半導体レーザに比べて大きく価格も2000倍以上しました。レーザの低価格化をしなければ光ディスクの拡販は不可能なのは明白でした。
1960年代に着想され、1970年代に花開き、1990年代に大きな発展をみた半導体レーザ、それも青色領域の半導体レーザ の実用化がなければ一連のディスクメディアの大躍進はなかったことでしょう(レーザの項目参照、http://www.anfoworld.com/lasers.html )。
光ディスクの読み取り光源として一般の白熱電球を使ったとしたらどうでしょうか。
おそらくCDもDVDもBDも実用化できなかったことでしょう。
レーザがなぜ、光メディアになくてはならないものであったかの理由を以下に述べます。
1. 指向性、直線性がよいこと
- 集光レンズを組みやすい。
微小スポットが作りやすい。検出精度が上がる。
2. 高密度であること
- 効率よい光学系を組み上げやすい。
余分な光が散らばらないのでS/Nがよくなる。
3. 単一波長であること
- 色収差を考慮せずにすむ。
ビームスポットも理論に近い値にすることが可能。
4. 波面がそろっていること
- 干渉をおこしやすため、これを積極的に
利用して波長レベルの調整、検出が可能。
ピットの高さを波長の1/4にしてS/Nを
向上させている。
5. 偏光をもっていること
- 偏光を巧みに利用して信号検出の精度
を向上させている。
▲ 大口径レンズ(高NAレンズ)
ビームスポットを小さくするための工夫として、レンズの開口数(N.A. = Numerical Aperture) を大きくしました。N.A.は、理論的に空気中で最大1となります。
したがって、Blu-rayで使っているNA 0.85は極めて開口数の大きいレンズと言えます。
ピックアップレンズの開発もCD/DVD/BDの発展に寄与しました。
レンズは、組み合わせガラスレンズから、単一の非球面レンズ、プラスチックによるモールドレンズ、回折原理を利用したホログラムレンズ、回折レンズへと進化しました。
こうしてN.A.0.85という大口径で0.47umのビームスポットを作るレンズができました。
さらに、一つの対物レンズで3種類の光源(CD/DVD/BD用)に対応したオプチカルピックアップも製品化されました。
▲ ディスクの記録面
短波長発振レーザと大口径比のレンズの登場により、3種類のディスクでは記録面位置が変わりました。
すなわち、CDはディスク照射面から奥に記録面が配置されていたのに、DVD、Blu-rayになるにしたがって照射する面の近い位置に記録面が置かれるようになりました。
ビームスポットを小さくするには開口数を大きくして、かつ焦点距離の短いレンズ(f = 1.5mm〜2mm)を使わなければならないので、レンズとディスクの物理的距離は自ずと短くなります(上中央図参照)。
CDの記録面は、ディスクの裏面(レーベルの貼ってない面)から1.2mm(ほぼレーベル面)にあります。
DVDは、当初から2面の記録という設計思想があったので、0.6mm厚のディスクを貼り合わせる構造となっていて厚みの中心に2層の記録面があります。
2層の記録面は、実際は30um程度のスペーサ層と20um程度の半透明膜層で分離されています。
2層の記録面は、ミクロンオーダで駆動するアクチュエータで焦点調整を行って読み書きを行っています。
BD(Blu-ray)は、ディスク裏面から0.075mmと0.1mmの位置に記録面を2層持っています。
現在では、4層と8層による記録面を持つBDが開発されていて、これらの記録面はこの位置近傍に作られています。
上の図からわかるように、BDではディスク面の極めて近い位置にレンズが配置されています。
CDが開発された当時、ディスクの読み取り面にできる傷によってデータが読み取れなくなる心配がなされましたが、1.2mmの厚みのあるポリカーボネートの奥に記録面があるので、表面のキズはボカされてしまい大きな支障にはなりませんでした。
また、エラー訂正手法(EFM変調方式 )によって確実にデータが読み取られるので、安定したデータの読み取りができCD普及に大きな貢献を果たしました。
▲ ポリカーボネート材質
CDディスクの開発にあたっては、材質の透明度と均質さがとても大事であったそうです。
つまり、ポリカーボネート材の均質な素材がCDの安定したデータ保存に大きく貢献したのです。
ディスク素材を決める中で、ポリカーボネート素材に行き着くまでにアクリルやポリエステルや光学ガラスなどが試されてきました。
アクリルはレーザディスクに使われていた材質で、ポリカーボネートに比べて吸湿性が大きく経年変化も大きかったため、このディスクの寿命は10年と言われていました。
フロッピーディスクやビデオテープと違い、光ディスクは透過型の記録媒体であるため、そしてミクロンオーダの微小な情報を読み込むために、光学的な品質が厳しく問われます。
磁気記録では問題にならなかった透過特性と均質性がとても大事でした。
光を透過/反射する材質に欠陥があったり、微小なゴミやボイド(気泡)、脈理(屈折率がことなる部位)があると、データを正しく読み取れなくなります。
また、材質が反ったり歪んだり、熱と湿度、光によって濁っても品質に大きな影響を与えます。
ポリカーボネートは、価格の点や製造の点、そして品質の点からCDの材質にもっともふさわしいものでした。
ポリカーボネートは、以後、DVD、blu-rayになっても素材として使われています。
これら3種類のディスクは、今後も必要に応じて使い分けられていくものと思われます。
ディスクドライブはそのためにすべてのディスク(CD、DVD、Blu-ray)を読み書きできるような対応が図られています。
半導体レーザでは一つの素子で3種類の発光ができるものが開発されたり、一つの対物レンズで3種類の光を希望する位置に集光するピックアップが開発されています。
↑にメニューバーが現れない場合、
← クリックして下さい。
半導体による記録
【フラッシュメモリ(Flash Memory、Flash-EEPROM】 (2008.05.05記)(2011.08.15追記)
フラッシュメモリ(Flash Memory)は、正式名を
Flash-EEPROM
= Flash-Electrically Erasable Programmable Read-Only Memory
と言います。
半導体素子メモリの中でROMの仲間に入り、電気的に書き換え可能なEEPROMです。
この記録媒体は、2000年あたりから急速な普及を見ました。
2011年の時点では、32GB容量のUSBスティックタイプのメモリが10,000円程度で入手できるようになりました。
またHDD(ハードディスクドライブ)に代えて、大容量のメモリドライブ装置(Flash SSD = Solid State Disk) を搭載したパソコンも市販されるようになりました。
半導体メモリは、半導体素子ができた当初から現在に至るまで絶えず進化を遂げており、電子産業の中核を担っているものです。半導体メモリそのものは、トランジスタができた1950年代当時からアイデアがありました。
半導体メモリは、トランジスタに電流を流し電位を保持し続け、メモリ効果を持たせるというものです。
しかし、この方法では、電気を流さないと情報は消えてしまいます。
電気を流さなくても情報が消えない半導体メモリのことを不揮発性メモリ(Non-Volatile Memory)と言います。
これは、絶縁体の中にコンデンサ構造を持たせて、ここに電荷を保持させることでメモリ機能を持たせています。
こうしたメモリは50年の歴史の中で数多く作られてきましたが、一様にメモリ容量が少なくて書き込み/消去に時間がかかる特徴を持っていました。
従来の紫外線消去型EPROM(Erasable Programmable Read-Only Memory) は、データを消去するのに30分程度かかっていました。
フラッシュメモリは、こうした不揮発性半導体メモリの欠点をなくしたもので、メモり内容を一気に消去できるものでした。
データの消去がフラッシュのように消去できるのでフラッシュメモリと名付けられました。
いったん保存されたデータは、理論上10年程度は保持されるというものでした。
このフラッシュメモリを開発したのは、(株)東芝総合研究所の研究員であった舛岡富士雄 氏(ますおかふじお:1943年〜、東北大学名誉教授)で、1984年6月(特許出願は1980年)のことです。フラッシュメモリの特許を巡っては、2004年に桝岡氏と東芝の間で訴訟が起きたのは有名なところです(2006年和解)。
桝岡氏は、現在(2011年)、日本ユニサンティスエレクトロニクス社の最高技術責任者として、次世代半導体素子(3次元構造半導体)の開発に従事されておられます。
フラッシュメモリが最初に採用されたのは、1985年の学会発表の後のことで、米国フォードモータースが関心を示しエンジン制御用の半導体メモリとして使われたと言われています。過酷な環境条件で使う信頼性の高い不揮発メモリとして白羽の矢が立ったものと思われます。
このように、フラッシュメモリは取り扱い勝手が非常に良いことから、デジカメや携帯電話のメモリ(SDカード)として、それにパソコンの補助メモリ用のUSB対応のスティックメモリとして多く使われるようになりました。
その勢いはCDを凌ぎ、DVDに迫るまでになっています。
フラッシュメモリが急速に普及している理由は、CDの640MB容量、DVDの4.7GB容量と遜色ないデータ容量を持つメモリスティックが安価に出回るようになったことと、携帯電話とデジカメの急速な普及によると言われています。
フラッシュメモリの持つ持ち運びに便利でバッテリがいらず簡単にデータを追記したり消去ができる機能も、普及を促す要因となりました。フラッシュメモリの需要の多くは、デジタルカメラの画像データと音楽用ファイル保存と言われています。
フラッシュメモリは、右にまとめたように、使い勝手の良さから急速に需要を伸ばしています。欠点である耐久性や書き込み速度の問題も、分散処理(ウェアレベリング = wear levelling)手法の導入や並列書き込み手法の導入によって実用レベルに達し、2011年の時点では、HDDと並んでデータストレージの両雄となっています。
図の左に示しているSRAMは、6ヶのトランジスタでフリップ・フロップ回路を形成し、1ビットの記憶領域を持っています。
SRAMの状態は安定していて、常時データを保持し続けることができます。ただし、電源を落とすと、データは消えてしまいます。
方や図の右に示したDRAMは、3ヶのトランジスタと1ヶのコンデンサ(=キャパシタ)で1ビットの記憶回路を形成しています。
SRAMの回路に比べると、トランジスタの数が少なくシンプルです。必然的に、製造コストが抑えられ同じスペースであるならばたくさんのメモリを実装できることになります。
ただし、DRAMは、データの保持がコンデンサにチャージされた電荷に依存しているため、時間と共に自己放電によって電荷がなくなってしまいます。そのために、定期的にコンデンサに再チャージを行うリフレッシュが必要となります。そのサイクルは素子によって異なりますが、数HZから数十Hzです。
DRAMがDyamic(ダイナミック = 動的)と呼ばれるのは、このリフレッシュ作業を指しています。
SRAMは、この作業がないため、Static( = 静的)と呼ばれてます。
下図にSRAMとDRAMの比較を示します。
SRAMの方が電力を消費せずに高速動作ができる反面、コストが高く大容量化が難しいのが理解できます。
そうした理由から、DRAMはコンピュータの主記憶素子として少々動作が遅くしかも電気を消費することには目をつむって、安価で大容量であることが優先されて、触手を伸ばしてきました。
安価で大容量のDRAMは、主記憶素子としてコンピュータのCPUの近くに配置されて、テンポラリーな(一時的な)データを保存し処理を行うのに使われています。
DRAMはまた、高速でデータの読み書きができるので高速度カメラなどの高速でデータを収録する録画媒体として使われています。
今述べたように、DRAMはSRAMに比べて性能は劣っています。
しかしながら、SRAMよりもDRAMの方が大きな普及を見たのは、一にも二にも価格でした。低価格であることが何よりも大きな需要を生むことをメーカは十分に見切っていて、DRAMのコンパクト大容量化に取り組んで行ったのです。
DRAMは、コンピュータメモリの需要で生産の拡大をはかってきまた。1980年代は日本のメーカが強く、2000年代に入ると韓国のメーカが市場を席巻するようになりました。
■ ROMの仲間 - フラッシュメモリ
フラッシュメモリは、上の体系図から見ると、ROMのカテゴリーの中の消去・書き込みが可能なEEPROM(Electrically Erasable Programmable Read-Only Memory)の仲間に入ります。従来、半導体メモリの中でROMはRAMに比べてデータ容量が少なく、消去に時間がかかり書き込み時間が遅い、という特性を持っていました。
それがフラッシュメモリにおいては、メモリの消去が一挙にできて書き込みもそこそこ速い、という性能をもちあわせていました。それに加え、データ容量もどんどん大きいものが開発されていきました。
需要がフラッシュメモリ改良の後押しをし、より高速で大容量、安価なものにしている感じを受けます。
半導体メモリは、トランジスタに電流を流して電位を保持し続け、メモリ効果を持たせるのが基本です。
しかし、この方法は、電気を流しておかないと情報が消えてしまいます。
電気を常時流さなくても情報が消えない半導体メモリのことを不揮発性メモリ(Non-Volatile Memory)と言います。
これは、絶縁体の中にコンデンサ構造を持たせて、ここに電荷を保持させ、これによりメモリ機能を持たせたものです。
こうしたメモリは、50年の歴史の中で数多く作られてきましたが、一様にメモリ容量が少なくて書き込みと消去に時間がかかるものでした。
紫外線を使った消去型EPROM(Erasable Programmable Read-Only Memory) は、データを消去するのに30分程度かかっていました。それがフラッシュメモリで一瞬にしてデータを消去できるのです。これを開発した桝岡氏が、「フラッシュ」と名付けた理由がよく理解できます。
フラッシュメモリの基本原理は、左図に示す如く、電荷を長期間保持できる浮遊ゲート部(コンデンサ部もしくはキャパシタ部)をMOSトランジスタ部に作り、そこに総じて高い電圧(約20V)を印加して電荷を保持させるものです。
1ビットのデータにコンデンサが1個あてがわれることになります。
データを保存する浮遊ゲート部は、ポリシリコン膜で形成され、外部とは電気的に絶縁状態となっています。この浮遊ゲート部に高電圧をかけて、電子(= ホットエレクトロン)を注入し電荷を蓄えます。
扱う電圧が高いために、浮遊ゲート部の耐久性が問題になっていました。
■ NAND型フラッシュメモリ、NOR型フラッシュメモリ
フラッシュメモリは、歴史的に見るとNAND型とNOR型の二つに分かれます。
NORとかNANDという言葉は、デジタル素子の論理回路からきています。
デジタル素子では、「AND」、「OR」、「NAND」、「NOR」などの論理演算を行う素子が作られてきました。
フラッシュメモリにも、そうした論理演算手法が取り入れられているため、このような名前となりました。
フラッシュメモリは、NAND、NORの他、ANDタイプやDI-NORタイプも開発された経緯があります。
現在では、NANDとNORタイプが主流であり、マーケット的にはNANDタイプが大勢を占めています。
NAND型は、東芝が中心になって開発を進め、NOR型は米国インテル社が開発を進めました。
両者は、それぞれに一長一短があり、普及にしのぎを削ってきました。
両者の違いを簡単に述べると次のようになります。
NAND型は、メモリを数珠つなぎ状に構成するので、一括した読み書きが得意です。
つまり、ランダムアクセス(任意にデータを読み書きする機能)ができず、ブロック単位での読み書きしかできません。
しかし、製造上集積化が容易なのでコンパクトで大容量化に向いています。
NOR型は、NAND型とは逆にメモリ1個ずつアクセスできる構造となっています。
そのため任意のビットにアクセスすることができランダムアクセスを得意としています。
反面、ビット1個の占める占有面積がNAND型に比べ大きくなるため、高集積化は得意ではありません。
NOR型は、高速性に優れて(速度はSRAM相当)ビット単位でのアクセス性能に優れています。
NAND型は、メモリスティックやSDカードなどの外部メモリとして普及し、NOR型は携帯電話などの小型機器の内部に組み込むメモリとして使われています。
東芝が1988年に開発した4MビットのNAND型フラッシュメモリは、デジタルカメラに使われました。
昨今(2011年)では、携帯音楽再生装置(iPod、iPad)やスマートフォン、コンパクトデジタルカメラの急速な普及により、NAND型フラッシュメモリの需要がより一層喚起されています。
▲ MCP(Multi-chip Package)- メモリ高集積化技術
フラッシュメモリが大躍進を続けている裏方の技術として、メモリの高集積化技術が上げられます。
この技術の一つにシリコン基板を何層にも積み上げて、小さなチップに高い集積度を持たせる高層化技術があります(右図参照)。
2004年1月には、東芝が9層構造を開発しました。
パッケージは、11mm(巾)x 14mm(長)x 1.4mm(厚)の大きさで、1.4mmの厚さに6層のチップと3層のスペーサを積層させています。
ウェハー基板の厚さは70umの薄さで、この薄さの上にメモりを作りあげ集積化を図っています。
70umもの薄いシリコンウェハーはどうやって作るのでしょう。
左の電子顕微鏡写真を見ると、50um程度の細い金線が180umピッチでボンディングされているのがわかります。
ワイヤーボンディングの技術もミクロンオーダの制御で行っていることを伺わせます。
こうした技術にあやかって、USBフラッシュメモリでは32GBまでの容量を持つものが市販されるようになりました(2011年時点)。
また、デジカメ用メモリのSD/SDHCカードも32GBを持つものが販売され、新しい規格であるSDXC(2009年策定、XC = eXtended Capacity)ではexFAT(extended File Allocation Table)を採用し、2TB(テラバイト)までの容量を確保できるようになりました。
▲ NAND型フラッシュメモリの多値化技術(MLC = Multi Level Cell)
NAND型フラッシュメモリの高集積化技術の一つに、多値化技術があります。
従来の半導体メモリは、一つの素子に対して1ビット(電気を保存しているか"1"、そうでないか"0"の2種類)の情報しか持ち得ませんでしたが、この技術はしきい値を4レベルに設定して2ビットの情報を1つの素子に持たせるものです。
多値化技術により、高い集積度を得ることができ、大容量化とメモリ製造価格の低減を実現させました。
MLCに対応する言葉として、従来の1ビットメモリ方式のものをSLC(Single Level Cell)と呼んでいます。
MLCとSLCを比べると、MLCは集積度が上がり、単純計算で同じサイズで倍のメモリ容量を持つことができます。
反面、MLCは、読み込みと読み出しが複雑になる分、読み出し速度と書き込み速度が遅くなります。
また、電荷を蓄える浮遊ゲートに負荷がかかる分、書き込みのできる回数が少なくなり、SLCの100,000回に対して、MLCは1桁少ない10,000回と言われています。
▲ フラッシュSSD(Solid State Drive、Solid State Disk) (2011.08.12追記)
ハードディスクドライブ(HDD)を半導体メモリで置き換えた装置が、フラッシュメモリによる外部記憶装置であり、これをSSDと呼んでいます。
SSDは、小型ハードディスクドライブと同程度のデータ保存容量(80GB〜512GB)を持ち、半導体メモリの特徴を活かした装置です。
SSDには、磁気ディスクのようなモータ、磁気ヘッドアームなどの可動部がなく、低消費電力でランダムアクセスが速い、そして起動が速いという特徴を持っています。
SSDの欠点は、右の表にも示した如く、高価なことです。
また、フラッシュメモリの原理上、データの書き換えに高電圧を使うためメモリ部であるキャパシタに耐久性上の問題があり10万回の使用でメモリが使えなくなることが指摘されています。
この問題を回避するため、SSDにはコントローラが内蔵されていて、特定のメモリ部に読み書きが集中しないように管理が行われています。
SSDは、データの書き込みに時間がかかります。これもフラッシュメモリの原理上の問題であり、キャパシタ部に蓄えられた電荷を一旦解除して、再度メモリに書き込むという動作をする必要があるからです。
このため、SSDでの書き込みや読み出しよりも6割程度の速度しか得られません。
SSDのもう一つの欠点は、「プチフリ」と呼ばれる現象です。
データをSSDに書き込むとき、データの書き込みが集中する際に一時的にフリーズする現象です。
これは、初期の頃のSSDや廉価なSSDに見られるもので、信頼おけるSSDではプリフリを回避する制御機能がコントロール部に搭載されています。
フラッシュSSDが最初に市販化されたのは、2001年のことです。
これは、Adtron社(米国アリゾナ州フェニックス、1985年設立。2008年SMART Modular Technologies社の傘下)が開発したモデルS35PCというものでした。
この製品は、以下の仕様で作られました。
3.5インチタイプ、
SCSIインタフェース出力、
14GBの容量
この製品は、当時42,000ドル(約4,500,00円)の価格でした。
この装置は、北海油田のパイプライン敷設工事の検査工程に使うコンピュータのディスクドライブとして使われたそうです。
劣悪な自然環境条件での使用を考慮して、信頼性の高いSSDをシステムディスクとして使うことを決めたそうです。
Flash SSDは、その後進化を遂げ、2008年には東芝から512GB容量のものが開発され、2009年5月に東芝のPCに搭載されて販売を開始しています。
2008年に発売されたフラッシュSSDは、以下の性能を持ったもので10万円を切る価格で販売されていました。
・ 形状: 1.8インチカードタイプ(右写真:東芝)
・ データ容量: 128GB
・ 書き込み速度: 40MB/s max.
・ 読み出し速度: 100MB/s max.
・ インタフェース: serial ATA
2011年の時点では、フラッシュSSDの256GB容量のものは60,000円から90,000円程度で販売されています。
SSDパッケージの形状は、HDDと同じ取り付けサイズを採用して、3.5インチ、2.5インチ、1.8インチケースが用意されています。
データ通信のコネクタは、SATA(Serial Advanced Technology Attachment)が採用され、従来のHDDと互換性を保つように設計されています。
フラッシュSSDの問題点は、大容量化と価格、それに信頼性です。
半導体メモリは、磁気ディスクと比べるとどうしても割高になります。
また、メモリの消去や書き込みにホットエレクトロンという高い電圧を使うために、データ保存部が劣化して書き込み回数に限界があるという問題も抱えています。
2011年にあっては、以下に示すような製品が市販化されています。
フラッシュSSDのライバルは、意外にもUSB2.0接続のメモリスティックタイプのフラッシュメモリです。
このタイプが32GB程度(10,000円程度)になって安価に市販されています。
こうしてみると、フラッシュSSDは360GB程度の容量がないと魅力に感じなくなっています。
ただこの容量になっても、同じ容量を持つHDDの価格が2011年時点で1万円〜2万円程度なので、普及するにはまだまだ時間がかかりそうです。
■ SSDと各種メモリの読み出し/書き込み速度の比較
右図に、大容量メモリの読み出し速度と書き込み速度の比較を示します。
フラッシュメモリを使ったものには、SSD、SDカード、USBメモリ、PCI ExpressカードによるSSDなどがあります。
フラッシュメモリを使ったメディアは総じて読み出し速度が速く、USBメモリタイプで24MB/sの読み出しを行い、高速SSDでは500MB/sの読み出しができます。
これは、このディスクを使うSATA通信規格がこの通信帯域にあるので、この規格に合うように開発されたものです。
一般のSSDは、これよりもスピードは落ちます。インテル社のSSD 510シリーズは、こうした高速アクセスを可能にしたSSDです。
フラッシュメモリで最も高速なものは、PCI Express規格によるボードタイプのものです。このSSDは1GB/sの読み出しができ、書き込みも900MB/sの性能を持っています。そもそも PCI Expressは従来のPCI規格の16倍の転送速度をもつもので、6GB/sの能力をもっています。
フラッシュメモリにそこまでの性能はありませんが、SSDの性能を極限まで引き出せる規格のものと言うことができます。
光学ディスクのCDやDVD、Blu-rayは、SSDに比べると2桁ほど読み出し速度が遅くなります。
光学ディスクは、カーボネート円板を回転させてレーザ光で微細に穿たれたピットを読み取るという方式を取っているため、SSDのような高速読み取りはできませんし、書き込みも遅く、ランダムな書き込みもできません。
光学ディスクは映画などの動画や音楽ファイルのような一連の連続したファイルの読み込みや読み出しを得意としています。
カーボネート製のディスクも100円から300円程度と安価であることから、大量に配布する目的に使われます。
HDDは、SSDが登場するまでは高速大容量のメディアとしてコンピュータの主要周辺機器として君臨してきました。
需要に応えて価格も低価格になり、500GB、1TB、2TBも気軽に購入できるようになりました。
しかし、このHDDも今後はある程度の割合で役割をSSDに譲って行くものと思います。
HDDはSSDに比べて価格と容量の点で魅力的なものの、読み出し速度はSSDの半分から1/4程度となり、システムを立ち上げる時やハードディスクを使って大きなアプリケーションソフトを立ち上げる時に2倍から4倍がかかってしまいます。
SSDの価格が下がってくれば、電力を消費せず衝撃にも強い特徴が活かされる携帯機器に使われるようになるでしょう。
フィルムによる記録 (2010.06.19追記)
光の記録原理 その3 - - - 2次元記録(銀塩フィルム)
■ 今、何故フィルム? (2002.02.17)(2009.11.23追記)
映画用35mmフィルム。映画館で使われるフィルムは、上のようなフィルム缶に入れられて配給、保管される。フィルム缶にはコアに巻かれたフィルムが入っていて、上映時に映写機に取り付けてフィルムを回す。撮影も同様なコア巻のフィルムがカメラに装てんされる。
CCD/CMOSカメラを使ったビデオ画像やデジタル画像が全盛になっている時代に、フィルムはどのような位置づけにあるのでしょうか。
フィルムは125年の歴史(1879年 〜 )があります(銀塩感光材料は、さらに170年の歴史(1839年 〜 )を持っています)。
セルロイド をフィルムを支持体にした銀塩感光材料は、1879年にカールブット(John Carbutt、英国の写真家)によって開発されたのが始まりとされています。それまではガラス板もしくは紙でした。
このセルロイドフィルムをロール状にして連続撮影に適したものにしたのが、米国人イーストマン(George Eastman: 1854 - 1932)で、1888年のことです。彼は商才にたけた人で、「Kodak」(コダック)という誰にでも発音できる商標(ブランド)を作り、Kodakブランドでロールフィルムを大々的に販売促進しました。Kodakは、二つの大きな世界大戦(戦争)を通して、そしてまた、時流に乗った映画業界を通じて大きなマーケットのイニシアチブを握り、フィルム感光材の世界的シェアを獲得していきました。
■ テレビの話
片やテレビカメラは、フィルムに遅れること約70年。ドイツ人物理学者ブラウン(Karl Ferdinand Braun: 1850 - 1918)が、テレビの受像管の原形となるブラウン管を発明した1897年がテレビ元年だとする人がいますが、この時、画像は映し出されていません。テレビカメラがなかったからです。テレビカメラが曲がりなりにも組み上がって、テレビ実験に成功したのは1920年と言われています。本格的なテレビカメラができるのは、1931年の米国人発明家フランスワース(Philo.T.Fransworth: 1906 - 1971)のイメージダイセクタチューブ(テレビカメラ撮像管の一つ)の開発からで、その後、ビジコン(Vidicon)と呼ばれる有名な撮像管が1950年にRCA社のワイマー(Paul.K.Weimer: 1914 - 2005)によって開発されます。
このカメラとブラウン管の開発で電子画像が見られるようになりましたが、画質はフィルム画像に比べて及ぶべくもありませんでした。
テレビ画像が記録できるようになるビデオテープレコーダ(VTR)の開発は1953年のことで、米国RCA社が4トラック方式のカラーTV録画の研究発表をしたのに端を発します。その3年後の1956年、米国Ampex社が4ヘッドバーティカルスキャン方式のVTR を開発し、実用に耐えるビデオテープレコーダの完成を見ました。Ampex社は、従来の磁気ヘッドを固定して磁気テープを走行させて記録・再生する方式を改めて、ヘッドを回転させるという発想で固定ヘッドの諸問題を一気に解決しました。
従って、記録と再生が行える電子画像の歴史は50年程度ということになります。
各種フィルムパッケージ
上: 135タイプ 通常のフィルムパトローネ
左下: 120タイプブローニー 中判カメラ用
右 下: 4x5シートフィルム
ビデオテープレコーダの開発のきっかけは、1950年代に米国で始まったテレビ放送です。米国東部と西部とのTV放送の時差を解消する手段としてテレビ番組の録画方式が考え出されました。1951年にRCA(サーノフ会長)の三大重要研究項目の一つとしてVTR開発の指示が出され(彼はこれをVideographと名付けた)、1953年に研究発表がなされたと言われています。
その後の50年の間におけるビデオ画像の歴史、特にデジタル画像機器の躍進はめざましいものがあります。ビデオ画像は正確に言うとアナログ画像とデジタル画像の2種類があります。ややもするとビデオ画像は「デジタル」と思われがちですが両者は歴然と違います。「デジタル」と「アナログ」の違いは、『AnfoWorldオムニバス情報3 - デジタルについて』 を参照してください。
■ テレビ映像とフィルム映像の世界
ビデオ画像は即座に見られるという利点が生かされるメディアです。フィルム画像は画質が生かされるメディアです。この両者の特徴によって従来棲み分けがされてきました。しかしながら一般アマチュア向けの世界では、安価なデジカメとパソコン・プリンタによるシステムが写真の領域を浸食して来ています。アマチュアの世界では画質よりも安価であることと簡易であることが好まれる傾向があるからです。
ポラロイド写真に代表されるインスタントフィルムは思ったほどシェアを伸ばせませんでした。その理由は、ポラロイドフィルムは一枚あたりの写真が高価で、その上「焼き増し」というプリントができなかったのです。ここにデジカメの入る隙を作ったのです。デジカメは、100万画素を超えるカメラが5万円台で入手できるあたりから急速な発展を見ます。プリンタも3万円台の価格で写真画質並みのプリントを提供するようになりました。Windowsマシンが10万円代で購入できる社会環境が整う2000年代後半堰を切ったようにデジタル画像がシェアを拡大していくようになったのです。
そうした中で、フィルムの生き残る可能性はあるのでしょうか?
フィルムは今現在、以下のような応用で使われています。
● コマーシャルフォト - 広告宣伝、グラビアなどの写真撮影。4x5インチの大判カメラ。
● 映画 - 劇場映画。35mmフィルム、70mmフィルム。
● アマチュア・プロカメラマン - 風景、ドキュメンタリー。ライカサイズカメラと135タイプフィルム 。4x5インチの大判カメラ。
● コマーシャル撮影 - テレビで放映するコマーシャル。35mm映画カメラとフィルム。
● アマチュアスナップ - 「写ルンです」、APSフィルム
【米国における16mmフィルム高速度カメラのこだわり】
スプールに巻かれた16mmフィルム。日中でのカメラ装てんができたので、高速度カメラに使用された。16mmフィルムは、フィルムの両端にパーフォレーション(孔)が刻まれていて、これでフィルムを引っかけて送っていた。
日本での高速度カメラの現状は、デジタル高速度カメラを中心としたデジタル画像が一般的になっていて、フィルムカメラを使ったユーザは少なくなってきています。しかしながら、カラー撮影で5,000コマ/秒以上が欲しいユーザーや、35mmフィルムを使って美しい高速度撮影をしたい映画関係やコマーシャル関係、それに宇宙開発関係では未だその存在を誇示しています。
最近(2002年1月)、米国の「Photonics Spectra」という月刊雑誌に面白い記事が出てたので紹介しておきます。この記事によりますと、米国の研究機関では依然としてフィルムを使った高速度カメラが現役で活躍していることがわかります。非常に興味ある記事だったので抄訳を以下に載せておきます。日本ではほとんど使われなくなった16mm高速度カメラですが、彼らは彼らなりのこだわりと理由を持って高速度 フィルム カメラの存在を認め、それらを現役として今だに利用している事実に感銘を受けました。
(なお、フィルム高速度カメラのトピックは、「AnfoWorld歴史背景とトピック」 を参照下さい。)
CCDs vs. Film for Fast-Frame Impact Testing ,
by Brent D. Johnson(pp.58- 60, December 2001, Photonics Spectra)
- 衝撃試験に使われている高速度フィルムカメラと高速度ビデオカメラ -
自動車安全実験 では1960年代初めより高速度カメラが使われている。
Arlingtonにある高速道路安全保険協会(The Insurance Institute for Highway Safety)では、16mmフィルムを用いた高速度カメラLocam(Visual Instrumentation Corp. 製)を使用して500コマ/秒の画質の良い映像を得ている。
また、この施設には、スイスWeinberger社の高速度カメラも所有している。
「Locamで撮影した映像は、ビデオに変換録画した際に最高の画質を提供してくれる」
と担当者のPini Kalniteは語っている。
この協会では、CCDタイプの高速度ビデオカメラの導入を検討しながらも今なお高速度フィルムカメラの持つ高画質にこだわり、現像、ビデオ編集という問題にも敢えて目をつぶり使用している。
National Highway Traffic Safety Administration's Vehicle Research and Test Center(オハイオ州 East Liberty)では、車の安全衝突実験に12台の16mm高速度フィルムカメラ(1,000コマ/秒は、Photo Sonics社製のもの、5,000コマ/秒のカメラは、Visual Instruments社製の Hycam)を使って撮影を行っている。
航空機分野 では、NASA Langley Research Center(ヴァージニア州Norfolk)で14台のミリケンカメラ(Miliken)が航空機衝突試験に使われている。
NASAはこのカメラを1970年代に導入したが(今から30年以上も前!)、改良しながら現在に至っている。
彼らは、この高速度フィルムカメラを現在主流になっているCCDタイプの高速度カメラに代えるつもりはないという。
理由は、CCDタイプの高速度カメラの解像力が、現行のフィルムカメラで撮影した画像を2500x1500画素でデジタル画像に変換したものに比べ画質が劣ること、そして、CCDカメラのメモリが2秒間の撮影しかできず、彼らの請け負う実験がとても高価でミスが許されないため。
メモリタイプのCCD高速度カメラでは、トリガタイミングがずれた場合の記録ミスが致命的になるのを憂慮しているため、と言う。
列車の脱線試験 を行っているサンディア国立研究所(Sandia National Laboratory)では、やはり16mmフィルムを使った高速度フィルムカメラを使っている。
この研究所では、放射性物質を特別製のキャスク(Cask)で運ぶ関係上、列車事故を想定してキャスクの衝撃試験を実サイズのモデルで列車に載せて試験を行っている。
「5年前までの高速度ビデオカメラは使い物にならなかった。今はかなり良くなっているが、カメラを接続するコンピュータに多大なメモリを必要とするのでまだ買い換える気にはなっていない。もし買い換えるとするならば、現状のフィルム式高速度カメラと同程度の画質で4倍から5倍の撮影速度をもつデジタル高速度カメラが現れた時である。」
と、コメントする主技術員のMark Nissenは、今も16mm高速度フィルムカメラ(Photo Sonics社製の16-1PL、及びVisual Instruments社製の Locam)を用いて16コマ/秒から500コマ/秒で撮影し、それ以上の撮影速度を要求するケースではHycamと呼ばれる高速度フィルムカメラを使って5,000コマ/秒の撮影を行っている。
■フィルムは銀を使っている
映像記録方式の中で、最も歴史があり最も素直な記録媒体が「銀」です。銀が光に良く反応することが知られるようになって、銀板感光材が開発されたのは1830年代です。以後160年の間に銀塩感光材料は驚くほどの進歩を遂げました。現在では、フィルムの諸知識を知らなくてもきれいな写真が撮れるカメラが出回っています。この項では、最近急速に一般化したビデオ技術との比較を念頭におきながらフィルム記録の原理を説明します。
NikonやPentax、Canonなどの35mmライカサイズカメラは、銀をフィルム上に塗布した記録媒体を使っています。(正確には、ハロゲン化銀粒子をゼラチンに混ぜて薄く塗布した銀塩感光剤。乳剤 = エマルジョンをアセテート透明フィルムに塗布した記録媒体。)
我々はこれを、単に『フィルム』と呼んでいます。昔は、乳剤を支持するベースにガラス板が使われ乾板と呼ばれていました。ガラスは割れやすく使い勝手も悪いので、寸法安定性のよい樹脂フィルムの開発が急がれていました。セルロイド(ニトロセルロース)は、寸法安定性が良く一時大いに使用されましたが、発火性が高く危険を伴うので1950年頃からトリアセテートセルロースを用いるようになりました。現在では寸法安定性を求める科学フィルム(航空写真)では、ポリエステルフィルム(ポリエチレンテレフタレート、PETボトルの材料)を用いることもあります。しかし、この素材は強じんなためカメラムーブメント、現像機械を壊してしまうおそれがありアセテートフィルムに置き換わるにはいたっていません。
35mm幅フィルムでは、0.13mm〜 0.15mm厚のトリアセテートフィルムベース上にハロゲン化した銀粒子(大きさ0.2um 〜 6 um)をゼラチンに混ぜて厚さ数um 〜 20 umで塗布されています。この部分を乳剤(エマルジョン)と呼んでいます。ハロゲン化銀は、通常、臭素と化合し臭化銀としてエマルジョンに含まれます。臭化銀は、光エネルギを受けるとエマルジョン中で反応し銀イオンと臭素イオンに分解されます。従って、光は、エネルギの高い紫外線、X線によく反応します。ただし、ゼラチンは短い紫外線を吸収するため200nm以下の撮影はできません。ハロゲン化銀は、光エネルギーが強ければ1ナノ秒程度のきわめて短い時間でも反応し、1秒程度まではリニアな特性を示します(光のエネルギー x 露光時間 = 一定)。1秒以上の露出をする場合、多くの場合入射する光エネルギーが低いため、ハロゲン化銀を電離する力が弱く、露光量はリニアではなくなります。また、このケースでは乳剤面中に含まれる酸素と水分子が光エネルギーを吸収してしまうため実効感度が落ちます。これが、相反則不規(そうはんそくふき)と呼ばれている現象です。
光によって電離されたゼラチン中のハロゲン化銀は、『潜像(せんぞう)』と呼ばれています。潜像は、人間の眼では見ることのできない臭化銀内部での電離反応です。
エマルジョン中の潜像を安定した可視化像にするのが『現像』です。現像は、化学反応処理であり、電離した銀イオンを金属銀に還元して黒色の銀像を形成します。現像は、光に当たってイオン化したハロゲン化銀粒子から還元反応が始まり、徐々に光があまり当たらなかった部位にも還元反応を促すようになります。したがって、露光済みフィルムを現像処理液に長時間浸して還元反応を促進させますと、すべてのハロゲン化銀が(光が当たっている部位も当たっていない部位も)還元されて金属銀となって黒色化されてしまいます。現像における現像時間(と反応を促す現像液温度)が大切な理由がここにあります。現像液は、ハロゲン化銀を還元する性質をもつアルカリ溶液で、メトール、ハイドロキノンが使われます。
現像工程を終えても、エマルジョン中には光に反応できるハロゲン化銀が依然として残存するために、これを除去する必要があります。これを定着と呼んでいます。定着は、酸性の溶液の中で行われます。ちなみに現像はアルカリ溶液の中で行われ、現像行程から定着工程に入る際、現像のアルカリ溶液が酸性定着溶液に持ち越されるため定着液が弱まります。これを防ぐために、酢酸(酢)溶液の停止液でフィルムを中和もしくは酸性化して定着工程に入れます。フィルム上に定着された黒化銀はきわめて安定になり、長期保存に耐えうることができます。
【水素増感法】
水素増感を施したフィルムは、天体観測用のフィルムとしてアマチュア天文家の間で使われてきました。市販フィルムを水素雰囲気中にさらしておくと実効感度が10倍程度向上します。原理は、フィルム中に残存する酸素分子と水分子が光エネルギーを吸収してしまうため、感度に有害なこれらの分子を水素と置換させてしまうものです。こうすることにより、ハロゲン銀が効率よく光と反応できるようになります。水素増感法を行う装置には、フィルムを入れる密閉容器(真空、水素フォーミングガスを入れるコック付、デシケータでも流用可能)、真空ポンプ、50℃を保つヒータ、水素8%、窒素92%のフォーミングガスが必要です。市販のフィルムを密閉容器に入れ、水分と酸素を除くため真空引きをします。半日程度真空引きし、水素フォーミングガスを入れて酸素と水分子の抜けた乳剤面の空乏を水素で置換します。置換作業は温度が高い方が効率がいいので密閉容器を50℃近辺にして行います。
水素増感法を紹介した記事が「朝日新聞」(1981年3月14日)にありましたのでこれを紹介しておきます。
●美しい星空 はっきり写る - 普及し始めた水素増感法 同じ露光でも10倍の差も -
アマチュア天文ファンは、経験を積んでくると天体の魅力を写真に記録したくなるようだ。そんな時、暗い天体を写すのにフィルムの感度が足りないことがあるが、最近、水素ガスを使って前処理するだけで、2倍から条件によっては10倍を超す感度にフィルムを増感できる技法が開発された。アメリカでは水素を安全に使うためのキットもすでに売り出されており、日本の天文ファンの中にも手作りの装置で増感フィルムを使い始めた人もいる。
水素増感法は、世界的なフィルムメーカのコダック社のT.A.バブコック氏とT.H.ジェームズ氏の二人が1975年に見つけ、最近になって普及した。感度が増すのは、フィルムの感光乳剤の中にある直径0.1〜1ミクロンの臭化銀結晶に水素が作用し、臭素とイオンが結合している銀を還元、2原子の単体の銀を作るからだ。一般にフィルムが感光すると、臭化銀の中で電子とプラスの電気(正孔)が出来、電子を受け取った銀イオンが単体のイオンになる。それが、現像の際、触媒の働きをして黒い像を作るのだが、水素で還元された単体の銀が最初からあると、正孔を消滅させる効率が良くなるためだ。
天文撮影で盛んに行われた水素増感法も、1990年代終わり頃より冷却CCDの登場でその座を奪われて、最近ではこうした処理を行わなくなりました。天文撮影では、露光時間が10秒から1分程度の撮影が多いので、長時間露光が得意なcooled CCDカメラの方が使い勝手が良いと言えます。しかし、高速度カメラでは、10usとか1us(百万分の1秒)の露出が必要な場合が多いので、今述べたフィルムを増感する方法はまだまだ有効な手法と言えます。
■カラーフィルム (2002.05.04)
上の説明で白黒フィルムについて述べました。カラーフィルムは、白黒フィルム同様銀塩を使っています。ただ白黒フィルムと違うのは、カラー情報を得るために乳剤面が青、緑、赤の三層に別れていることです。青、緑、赤の各層には、その領域に感ずる増感色素がハロゲン化銀(臭化銀にヨウ化銀が溶け込んだヨウ化臭化銀という固溶体)の上部に付着して光を吸収します。その光の吸収によってハロゲン化粒子の表面に潜像中心ができます。その潜像した粒子を現像主薬で現像して還元し銀粒子にさせます。この還元反応によって現像主薬が酸化されて酸化生成物ができ、この酸化物とカプラーが反応して発色色素が作られます。そののち(ネガフィルムでは)漂白という過程を経て、定着でフィルム中の銀がすべて洗い流され発色したカプラーだけが残ります。カプラーとは、フェノール(シアン)、アシルアセトアニリド(イエロー)、1-フェニル-5-ピラゾロン(マゼンタ)に代表される化学薬品で発色の元になるものです。カプラーの概念は、コダックで開発されました。
カラーフィルムは、今でこそ一般的になっていますがとても複雑な仕組みになっていることがわかります。カラー情報を得るために三原色の原理を応用した3層の乳剤を塗布する技術や、三原色に感光する増感剤の開発、発色を受け持つカプラーの開発など興味ある技術が次々と生み出されました。
【3原色感度層】 (2005.11.20追記)
カラー写真の考え方は、1891年リップマン(G.Lippmann)が始めたと言われています。リップマン法はすべてのカラーを記録する方式でした。実用的な3原色に基づくカラー写真は、1855年のマクスウェル(James Clerk Maxwell、1831-1879)がヤング(T.Young)の3原色原理に基づいて提唱したのが始まりとされています。マクスウェルは、1861年、王立研究所で3原色に関する興味ある公開実験をしています。彼は、色の付いたリボンの写真を三原色のフィルタ(青、緑、赤)を使って、それぞれ白黒の写真に撮影し直して3枚の写真(ポジ)を作りました。その写真を、撮影の時に使った青、緑、赤のフィルタに再度かけてランタン光で投影しました。その3枚の写真をぴったり重ね合わせたところ白黒写真だった画像は見事なカラー写真になったのです。マクスウェルは、人の目が3原色だけでカラー情報を感じることを実験で示したのです。人の視細胞には、3原色を検知する色の受容体があるのです。これは、イギリスのトーマス・ヤングも医学の立場から提唱していた ことでした。
実用的なフィルムが作られるのは、1904年のルミエール(A.&L. Lumiere)で、彼らはモザイクスクリーンを使ったオートクローム乾板を発表して商品化しました。1928年には加色法に属するレンチキュラー法の16mmコダカラーが商品化されます。1935年にはコダックのマンネス(L.D. Mannes)とゴドウスキー(L. Godowsky)が、フィルムに三原色の三層乳剤を塗布した三層乳剤外型反転発色現像法と呼ばれる減色法によるモノパック法を発明します。この方式で作られたフィルムがコダクロームという商品名で販売され、三原色を一つのフィルムに多層塗布するカラーフィルムが一般的になりました。
現在デジタルカメラの単板CCDカメラの前面に貼り付けられている3原色モザイクフィルタは、ベイヤー(Bayer)フォーマット と呼ばれていますが、このフィルタは、コダックのBayer博士がカラーフィルムの研究中に発明したもので、CCDカメラ用として開発し特許を取ったものではありませんでした。
カラーフィルムも、ネガフィルム、リバーサルフィルム、外型カプラー方式、内型カプラー方式、インスタントフィルム方式が開発されて製品化されています。
【高感度層、中感度層、低感度層】
上図のカラーネガティブフィルム断面図の模式図を見ると、カラーフィルムは複雑な多層膜塗布によって作られていることがわかります(多層膜の仕方はメーカによってまちまちですが、代表的な例を上図で示しました)。カラーフィルムには、青、緑、赤の3つの感度層からなるコーティングが施されていて、各感度層はさらに3つの乳剤層に別れています。3つの乳剤層の一番上は高感度層で、次が中感度層(画像制御層とも呼ばれています)、一番下が低感度層です。高感度層は、ハロゲン化銀粒子が大きく粒状は荒いけれど光を良く受ける働きがあります。低感度層は、微粒化ハロゲン化銀が塗布されていて光が十分にあればキメの細かい画像を得ることができます。中間に配置された画像制御層は、巧みな働きをします。この層が感光して現像されると、この層に含まれている現像抑制剤が遊離して上層の高感度の素粒子の乳剤の現像を抑制して微粒子に仕上げます。暗部や露出不足の時は、中間感度層がほとんど感光しないため、現像抑制剤が放出されないで、上層の高感度乳剤がフルに感度を発揮します。この場合は粒状性が低下する結果となります。
【イエローフィルタ層】
カラーフィルムでは、青色感度層のすぐ下にイエローフィルタ層が配置されています。この理由は、ハロゲン化銀はもともと青に感度を持っていて赤色領域は感度が低いために、全色に感度を持たせるためにハロゲン化銀に分光増感色素(シニアン色素、メロシニアン色素)を混ぜて長波長にまで感度を持たせました。ですから分光色素を纏ったハロゲン化銀は長波長側にも感度を持つようになります。しかし、依然として青色はハロゲン化銀そのものが感じてしまうので、カラーフィルムでは光が最初にあたる上面に青色感度層を塗布し、その下部には青色を吸収して緑と赤を透過するイエローフィルタを配置してあります。このイエローフィルタ層は現像過程で取り除かれ透明になります。
【カラードカプラー】
カラーネガティブフィルムには現像処理した際に全体がオレンジを帯びた仕上がりになります。これはマゼンタ発色カプラー(緑感度層)が黄色でシアン発色カプラー(赤色感度層)が淡紅色をしているため現像処理して未発色カプラーが残留してオレンジがかった色になります。予め色を付けておくカプラーのことをカラードカプラー(colored coupler)と呼んでいます。緑感度層と赤色感度層になぜカラードカプラーを使用するかというと、両者のハロゲン化銀は青色にも感度を持っており、両者の感度層では両者の光だけでなく青も若干吸収します。これを放置して現像処理をすると青色が強くなるので予め有色カプラーで青色成分を補正して色再現を鮮やかにしているのです。
■フィルム乳剤の種類 (2002.02.03)(2006.02.06追記)
フィルム感光材料は、ネガティブフィルムが中心でした。
銀塩感光剤は最初は陽画からスタートしましたが、プリントする必要からネガフィルムの需要が増えそれが一般的になりました。
我々の小学校時代に、理科の時間に青写真の実験を行ったことを思い出して見ましょう。
フィルムの感光原理はこれと極めて似ています。
青写真では、感光紙の上に植物の葉や切り紙を置きその上にガラスをおいて30分ほど太陽下にさらします。
その後、感光紙を現像液につけると光が当たった所が反転して青色に染まります。
その原理がフィルム感光剤にも当てはまります。光が当たったところが黒くなります。
普通の感覚では、光が当たると明るくなるので白くなりフィルムでは透明に抜けなければなりませんが、ネガティブフィルムの場合銀が反応して黒くなるのです。
つまり、ネガティブフィルムでは濃淡像が反対になります。
そのフィルムをさらに印画紙に焼き付けて再度反転させて正しい陰画像を得ます。
これが一般的なフィルム、つまりフィルム現像とプリント作業なのです。
我々がお店でフィルムを買うのはほとんどの場合がネガティブフィルムであり、現像と一緒にプリントを起こしてもらいます。
カメラフィルムに使われている銀塩感光剤は、青写真と違って光に対して感度が良いので、
・ 短時間露光ができる
・ 銀塩の粒状性、感光特性(濃度)がよいので画質の良い陰影が得られる
・ 得られた反転画像(ネガ画像)は透明支持体に定着できるので印画紙にプリントする際に便利
・ 銀塩の記録像は記録性が良い
という多くの特徴がありました。
【銀】
光を定着させるのに(感光剤として)銀が使われるようになったのは興味深いものがあります。
銀は昔から高価なものでした。
中世ヨーロッパでは金よりも銀の方が価値があった時代があったと言われています。
もちろん日本も明治になって開国を迎えるまで銀と金との相対価値は銀の方が高かったのです。
今でこそ貨幣は「金」を根本として一元化した金本位制をとっていますが、昔は、金と銀のそれぞれ独立した複本位制であったと言われています。
イギリスでは、貨幣の単位に「ポンド」(pound)という単位が使われ、重さなのか貨幣なのかわからない単位が使われていますけれど、その「ポンド」こそ、銀1ポンドの重さの価値だったのです。
イギリスでは、その銀1ポンドを240等分にわけ240枚の銀貨を作りました。
その一枚が1ペニー銀貨となりました。
(ペニー銀貨12枚が集まってシリングという銀貨も作られ、20シリングで1ポンドの時代がありました。
ちなみに1ポンド = 4クラウン、1クラウン = 5シリング = 60ペンスという貨幣単位もできたり、ハーフクラウンという貨幣も1ギニー = 21ペンスという単位も使われていました。歴史のなせる技でしょうか。)
その後、イギリスは1813年に金本位制をとるようになりましたが「ポンド」という名前だけは残りました。
いずれにしても銀は今も昔も貴金属だったのです。
銀は、青白い美しい光沢をもった金属でその光沢の美しさから食器や装飾具に多用されました。
ただ、金と違って銀は酸化しやすく酸化すると黒い酸化銀を形成します(正確にはオゾンと反応して酸化銀となるそうです。水と酸素に対しては安定しているそうです)。
酸化した銀は磨けばまたもとの青白い美しい光沢を得ることができます。
銀は金の次に延性に富み、電気伝導率は金属中最大です。
こうした特徴に加えて、銀は光によく反応します。
その光に対する反応を見抜いたいにしえの人達が、陰影像を残す材料として銀塩材料を発展させました。
現在では銀の消費量の約半分が写真工業用として使われているそうです。
銀は極めて安定した金属ですが、光に反応し、そしてハロゲンにはたやすく侵される性質をもっています。
この二つの組み合わせによって、銀を光に反応させてハロゲンと銀をくっつけたり離したりし、光に反応した銀だけを遊離して定着させる写真技術を作り上げました。
【カメラ・オブスキュラ】
光の陰影を写し出して記録することが始められたのは、1500年頃のカメラ・オブスキュラ(camera obscura、ラテン語でdark chamber、つまり暗箱という意味)からと言われています。
このカメラは、暗い部屋の壁に小さな穴をあけ、外からその穴を通して入り込む光によって反対側の壁に外の風景を写し出し、写し出された像を中に入った人がナゾって風景を模写したと言います。
これがカメラの原型でその後ピンホールがレンズに代わり、ヒトが描く模写の代わりに感光物質で陰影を露光する技術が発達し、写真術の発達となりました。
【感光材】
光に反応する物質を発見したのは、1727年、ドイツのヨハン・シュルツ(J.H. Schulze、1687-1744)と言われています。
彼は光によって硝酸銀が黒化することを発見しました。
彼は、暗いところで硝酸銀溶液と白亜(石灰岩)の粉を混ぜてガラスびんに入れ、ビンの回りを文字を切り抜いた黒い紙で被い日の当たるところに置いたところ、日のあたった所だけ黒くなり、残りの部分は白いままであったのを発見しました。
この材料を使って英国人のトーマス・ウェッジウッド(T. Wedgewood、1771-1805)がカメラ・オブスキュラの焦点面にこの材料を使いました。
しかし、これはうまくいきませんでした。
彼は、そこで硝酸銀や塩化銀を塗った紙(感光紙)を使って絵を描いたガラスをおいて数分間日光に当てて絵を写し取ることに成功しました。
このときの感光紙に写った陰影は絵とは逆の陰画(ネガ)でした。
【ニエプスによるヘリオグラフィ】
1822年、フランスのニエプス(Joseph Nicephore Niepce: 1765 - 1833)は、アスファルトを石油(テレピン油)に溶解してスズ板、銅板、石版上に塗布したものをカメラ・オブスキュラに入れて像を写し取ることに成功しました。
これは、ウェッジウッド(T. Wedgewood、1771-1805)の陰画とは逆の陽画(ポジ)の撮影法でした。
彼はこれをヘリオグラフィー(heliography)と呼びました。
感光剤にアスファルトを使ったというのも奇妙な取り合わせです。
アスファルトには、光を当てると固くなるという性質があります。
その性質を利用して、写真術が開発される以前は印刷用の原板がこの方法で作られました。
グラビア印刷、網目凹版印刷の原型です。
これを写真術に応用したのです。
彼は、銀メッキした金属板にアスファルト溶液を塗布し、レンズを使って物体像を何時間もかけて感光板に結ばせました。
物体の白い部分はたくさんの光を反射しレンズを通した像にもたくさん光があつまるのでアスファルトは固くなります。
暗い物体は光をたくさん反射しないので、その像には光はたくさん集まらずアスファルトは柔らかいままです。
感光を終えたアスファルト感光板を油で洗い流した後、ヨード蒸気にさらしました。
そうすることにより、柔らかいアスファルトは流れ落ちて明るい物体像のアスファルト部はそのまま残ります。
光が当たらなかった部分は銀が露出し、ここにヨードが反応し淡黄色のヨウ化銀が生じます。
光が当たって硬化したまま残ったアスファルトは、その後アルコールで溶かして銀面を露出させてました。
こうして得られた画像は、濃淡が実際の景色と同じ陽画になったと言われています。
しかしながら、この感光材料は感度が悪く、撮影には10時間前後の露光が必要だったそうです。
【ダゲレオタイプ写真】
1839年8月19日、パリの科学アカデミーで、ルイ・ダゲール(L.J.M. Daguerre、1787-1851)がダゲレオタイプの写真(Daguerreotype、銀板写真)を発表します。
同国人ニエプスに遅れること17年のことです。
ニエプスとダゲレオは、当初一緒に写真の研究を行っています。
そののち、この研究を発展させて、さらに感度が良くて画質の良い銀塩写真法を発明しました。
ダゲレオタイプは、銀盤をよく磨いて、ヨード(沃度)蒸気を作用させて表面にヨウ化銀を生成させ、この銀板をカメラ・オブスキュラに入れて撮影しました。
撮影時間は20-30分と大いに短縮され、画質も驚くほど鮮明でした。
撮影した銀板は水銀蒸気で現像され、食塩(後にハイポ = チオ硫酸ナトリウム)で定着されました。
ここに銀塩写真撮影・現像手法の原型が出来上がり、今日の写真の礎となりました。
ダゲールは、もともとは舞台の風景画家で、風景画に様々な色の照明を当てて臨場感を出す「ジオラマ」の発明者でもありました。
ダゲールが現代写真術の祖であるとするのに依存がない面白いエピソードがあります。
ダゲールが活躍した時代は、フランスで科学技術がさかんになり出した頃で、数学や光学も発達していました。
科学アカデミーの設立が科学技術の促進剤になっていたのは否めません。
ダゲールが写真術を発明した時、その発明をどういかそうかと天文学者アラゴ(Dominique Francois Jean Arago:1786-1853)に相談しました。
アラゴは、当時有名な学者で、フレネルなどりっぱな学者を発掘した人でも知られています。
アラゴは、彼の発明を特許として彼の所有にするのではなく、誰でも自由に写真作れるようにすべきだと提案しました。
そのかわりアラゴは、ダゲールやニエプスの子孫がフランス政府から年金をもらえるように取りはからったのです。
こうした経緯を経て、1839年8月19日、フランス学士院の科学および美術アカデミーの合同会議の席上でダゲールの発明が公表されたのです。
このエピソードは、その後の写真発展にはなくてはならぬ出来事でした。
【カロタイプ写真】
ダゲレオが銀板写真を発明した2年後の1841年、イギリスの発明家タルボット(William Henry Fox Talbot: 1800 -1877)がカロタイプの銀塩感光材料を発明します。
タルボットの写真法は、原画(ネガ)を作ってそれから多数の陽画プリントができる方法だったので、これが現在の写真の始まりだという説もあります。
ダゲレオタイプのものはプリントできませんでした。
実際のところ、ダゲレオタイプのカメラはタルボットの写真手法ができてのち廃れてしまいます。
カロタイプ(Calotype、タルボタイプ = Talbotype)は、繊維質である紙に硝酸銀の水溶液を塗布して乾燥させ、その上にヨウ化カリウムの水溶液をしみ込ませ、ヨウ化銀を生成させてたのち乾燥させ、さらに硝酸銀、酢酸、没食子酸混合水溶液に浸してから乾燥させたものです。
これで作った感光紙をカメラオブスキュラに入れて使用しました。
撮影後は、硝酸銀、酢酸、没食子酸混合水溶液で現像して臭化カリウム液で定着を行いました。
カロタイプは白黒反転したネガ画像でしたので、これをもう一度カロタイプ紙にプリントしてポジ写真を得ました。
ネガ・ポジ法はカロタイプの感光材料から始まったと言われています。
写真の始まりであるダゲレオタイプの写真が全盛期を含め15年ほどでした。
ダゲレオタイプの写真術は写真の複製ができなかったのです。
複製ができる写真術は、イギリス人のタルボットが発明しました。
タルボットは、カロタイプの写真感光材料を発明した3年後の1844年に、世界ではじめての写真入り書物「写真の鉛筆」を出版しました。
これは、写真出版書物の先駆けとなったものです。
【コロジオン湿板写真】
1851年、イギリスの彫刻家スコット・アーチャー(Frederick Scott Archer: 1813 - 1857)がコロジオン湿板法を発明して発表しました。
この写真はダゲレオタイプより高感度で調子も良好でした。
コロジオン湿板法というのは、ヨウ化カリウムをコロジオンに溶解してガラス板に塗布し、これを乾燥した後に硝酸銀水溶液につけて濡れたままで撮影し現像する方法です。
感度は良いかも知れませんが、濡れたままでは取扱に不便だったと思います。
コロジオンは乾いてしまうと硬い膜を作ってしまうので乾燥してまう20分の間に撮影を終えなければなりません。
そして乾かない前に現像して定着させなければならないのです。
コロジオン(collodion)は、半透膜の一種で強力な薄膜です。
硝酸セルロースをエタノール - エーテル混合溶液中で溶かしたもので、溶剤が蒸発すると薄い被膜となります。
この被膜がコロジオンと呼ばれるもので、これには半透膜の性質があるためコロイドの研究に使われました。
コロジオンは、爪に塗るマニュキアの材料としても使われます。
コロイド : コロイドとは、牛乳や、墨汁、エアロゾールなどの比較的大きな粒子(媒質)が媒体ので安易に沈殿しない状態のことを言います。
学術的には、イオン化したものより大きな微粒子(10-7 〜10-9 m)が物質中に分散したとき、溶液と同じように凝集、沈殿することなく分散状態を保つ状態をコロイド状態と言い、これらを総称してコロイドと言います。
コロイドの一般的な特性としては、
1) ブラウン運動をする。
2) 濾紙は通るが半透膜は通らない。
3) チンダル現象を示す。
という性質があります。
コロジオン湿式法は、使い勝手が悪いというので、1864年サイスとボルトンによって乾燥コロジオン(コロジオン + 臭化銀)が考案されてネガや印画紙の乾板製造に使われましたが、湿式に比べて感度が著しく低かったので普及をみることはありませんでした。
【ハロゲン化銀ゼラチン乳剤】
1871年イギリスの写真家マドックス(Richard Leach Maddox: 1816 - 1902)が発明したこの乳剤こそ、現在の写真の基本となるものです。
ゼラチン乳剤は、銀をハロゲンと化合させて活性化した銀として、その銀塩粒子を極めて安定でかつ溶解も容易なゼラチンに混ぜてたものです。
これを、支持板に塗布したものがゼラチン乳剤乾板で、これが写真感光材料の主流となって行きました。
こうしたハロゲン化銀ゼラチン乳剤が発明された当初は、カメラマンが自ら調合して使用していました。
1873年、バージェス(Burgess)が臭化銀ゼラチン乾板を商品として販売しました。
しかし、彼の商品は品質が不揃いで人気がでず、商売として成功しませんでした。
これが、1878年イギリスのリバパール乾板会社のベネット乾板によって成功し発展を見ます。
臭化銀ゼラチン乳剤は、その後改良が加えられて高感度化され、1873年のドイツの写真家・写真化学者のフォーゲル(Hermann Wilhelm Vogel: 1834 - 1898)による分光増感色素の発見によって、それまで青色領域にしか感度がなかった銀塩乾板が緑色領域に感度を持つオルソ乾板になり、さらに赤色に感度を持つパンクロ乾板に成長していきました。
最も一般的なフィルム。
反転像のためプリント必要。
濃度階調はリバーサルフィルムより巾広い。
●フジフィルム ネオパンSS
●コダックT-MAX T400CN
最も一般的なフィルム。
反転像のためプリント必要。
濃度階調はリバーサルフィルムより巾広い。
●写ルンです(富士写真)
●フジカラーSuperia 100
(デーライト)
●コダック Gold 100
(デーライトフィルム)
スライド映写用。広告用。
色再現性が高い。
濃度階調はネガティブフィルムより
狭いので、露出設定がクリティカル。
プロ写真家が好んで使用。
●フジクロームProvia 100F
(デーライト)
●フジクロームプロフェッショナル
64T タイプII(タングステン)
●コダックエクタクローム ダイナ
EX100(デーライトフィルム)
一般的なインスタントフィルム。
撮影したその場で写真が見られる。
●フジインスタントフィルム
FP-3000B(白黒剥離タイプ)
●フジフォトラマ FI-800GT
●フジフィルムInstax(チェキ)
●ポラロイド779
●ポラロイドSX-70TZ
(米国ポラロイド社は2001年10月
会社更生法を適用、受理)
* 代表的フィルムは、一般向け35mmフィルム(135タイプ)をリストアップ (2001年時点での資料)
●ゼラチン(Gelatine)
エマルジョン(乳剤)に使われる材料にゼラチンがあります。
いわゆる「つなぎ」材料です。
銀塩をゼラチンに混ぜてセルロースのフィルムに塗布したのがフィルムです。
銀塩材料になぜゼラチンが使われそれが現在まで生き残ってきたのでしょうか?
写真は前にも述べた如く、初期(ダゲレオタイプ)のものは銀の板にヨウ素を使ったハロゲン蒸気を吹きつけ、銀を活性化(ハロゲン化)させて光と反応させていました。
この手法は、撮影の直前に処方する必要があり、事前に作ったものでは感度がなくなり撮影はできなくなります。
そのハロゲン銀をコロジオンにして、撮影が終わるまで湿らせた(膜を作らないようにした)コロジオン湿式法が編み出され、最終的にゼラチンの中に銀塩粒子を混ぜた銀塩感光剤ができあがり、これが現在まで生き延びました。
湿式はいかにも使い勝手が悪い感じがします。
ゼラチン銀塩剤は、使い勝手が良くて感度、解像力、階調が優れたために生き残ったのだと想像します。
乳剤としてゼラチンが使われるまでには、今述べたコロジオンや、卵白が使われました。
ゼラチンは、動物の骨や皮などから得られるコラーゲンを水とともに煮沸し、加水分解して生成するタンパク質の一種です。
生成したゼラチンはゼリー状になっていますが、乾燥して粉末として保存することができ必要に応じて水で戻してゼリー状にすることができます。
ゼラチンには以下の性質があります。
1) 液体状態でも浸透膜を通過することないコロイドである。
2) 適当な支持体上にセットされたとき、ゼラチン層は無色で曲げることができる。
3) 写真処理液やハロゲン化銀結晶とは反応しない。
4) 冷水溶液に浸しても溶けず、ゼラチン自体の重さの10倍までの水分を吸収する。
ゼラチンのこのような優れた特性は、写真感光剤の「つなぎ」として最適なものであり、ハロゲン銀の乳剤を作るのに最も適していたというわけです。
ゼラチンは、水分を吸収して柔らかくなり、膨張してもハロゲン化物質結晶が流出することもありません。
また、それが乾燥しても、元の大きさや形に縮んですべての結晶やそれに対応する銀、色素も元の位置に戻るため、画像が歪められることがありません。
さらに、ゼラチン乳剤は繰り返し湿らせたり乾燥したりしても、そこに形成された画像に影響を与えることはなく、乳剤表面をきめ細かくすることができるのです。
これが時代を超えて現代にあってもフィルム乳剤の「つなぎ」として使われている理由です。
●ハロゲン化銀(Silver Halide)
ハロゲン化銀は、感光物質の主流です。
現在の世の中に出回っているフィルムにはすべてこのハロゲン化銀が入っています。
白黒フィルムも、カラーネガフィルムも、カラーリバーサルフィルムも、すべてのフィルム感光剤にはこの金属塩粒子が入っています。
ハロゲン化銀は、銀と塩素、ヨウ素、臭素などハロゲンから構成される塩です。
しかし、ハロゲン化銀は、銀とハロゲンの直接結合によって形成することはできないので、硝酸に純銀を溶かして作った硝酸銀(AgNO3 )溶液と、臭化カリウム(KBr)や塩化ナトリウム(NaCl)のようなハロゲン化物の溶液を混合して作られます。
この化学式は以下の通りです。
AgNO3 + KBr → AgBr↓ + KNO3
この式で示された臭化銀沈殿物(AgBr)は微粒子であり、この粒子の大きさによって感度や解像度が決定されます。
ハロゲン化銀で注意していただきたいのは、銀は青から赤まで人間の目と同じような波長感度を持っていると思いがちですが、これは違います。
ハロゲン化銀そのものは紫外線から青色にしか感度がありません。
それでは困る、というので赤色に感度を持たせる技術革新が行われたのです。
ですから、写真の初期のものは「色盲」だったのです。
現在でも、色に関係がなく濃度だけのプリントをする白黒印画紙には、赤に感度を持たないハロゲン化銀そのものを使用しています。
ですから、暗室で現像をするとき、赤色ランプの下で現像処理を行ってもカブる事がないのです。
ハロゲン化銀がこのような波長依存をもった感光材料であるため、乳剤に染料や分光増感剤を添加して赤色領域まで感度を上げる工夫がなされました。
白黒ネガフィルムは、このような理由から、5種類ほどのフィルムが開発されました。
それをまとめると以下のようになります。
1. レギュラー(Regular):
初期の感光剤で、非感色性(non color sensitive)、非整色性、青感性(blue sensitive)、普通性、など呼ばれています。
このフィルムの感色領域は、紫外、紫、青、及び緑の一部です。
現在では、主に映画のポジフィルム、サウンドフィルム、一般複写用のプロセスフィルム、X線フィルムに使われています。
この感色性のフィルムは一般の撮影には不向きですが、暗室に明るい赤色安全灯を使用することができるので作業がしやすいというメリットがあります。
またこの感光剤は保存性がもっとも良好です。
2. オルソ(整色性、Ortho chromatic):
感色範囲は、紫外、紫、青、緑、黄色までで、赤色には感度を持っていません。
被写体で赤色領域を特に必要としない撮影では使われることがあります。
この感光剤を使えば、現像時に赤色安全灯を使うことができるので現像処理が安易にできます。
しかし、最近では製版用の乾板やシートフィルムを除いて使われることがなくなりました。
3. パンクロ(全整色性、Panchromatic):
紫外から赤色まですべての可視光にわたって感度を持つ感光剤です。
現在の白黒フィルムはすべてこのタイプのものです。
パンクロといっても初期にはA、B、Cと三種類を区別していました。
A型は初期のパンクロのことで緑色に対する感度が低く、赤に対する感度も低いものでした。
B型はパンクロの一般的なもので人間の感色にもっとも近いものです。
B型のことをオルソパン(Ortho Pan)とも呼んでいました。
C型は以下で述べるスーパーパンのことです。
4. スーパーパン(Super Panchromatic):
パンクロの中でも特に赤色部に感度が良い感光剤です。
従って電灯光(タングステンランプ)によって照明された室内や夜景の撮影に適していました。
市販のフィルムでは、富士ポートレートパンクロなどがありました。
5. 赤外用(Infra-red sensitive):
赤外(ピーク波長750nm)に感度をもった感光剤で特殊使用に使われました。
この感光剤の特徴は保存寿命が短く数週間から数ヶ月でした。
自動車の速度取締用カメラのフィルムとして使われました。
●リバーサルフィルム(Reversal Film、Negative Film)
写真フィルムの原点は白黒ネガティブフィルムでしたが、カメラ産業が発展していく過程でいろいろなタイプのフィルムが開発され市販されました。
撮影したフィルムをそのまま見たいという(わざわざプリントをせずにフィルムを直接見たいという)要求に応えたのがリバーサルフィルムと呼ばれるものです。
また、光を3色に分けて記録するとカラー記録ができることから、カラーネガティブフィルムが開発されリバーサルフィルムへと進展します。
■フィルムのタイプ (2001.01.09)(2009.11.23追記)
フィルムの基本は上記に述べた通りですが、そのフィルムの外装は実に様々です。
新しいカメラが出てくるたびにいろんなタイプのフィルムが現れました。
最初は、ガラス板であった銀塩乾板から扱いやすいセルロース系のフィルムに変わり、さらに一度にたくさんの写真が撮れるようにシート状からロール状のフィルムに変わりました。
現在では、パトローネ入りの35mm巾ロールフィルム、それに60mm巾の黒紙に被われたブローニー(Brownie)タイプのロールフィルム、4 x 5 インチのシートフィルム、APSカートリッジフィルムが一般的です。
■ フィルム番号
フィルムのタイプを番号で表す言い方は、ロールフィルムを世に広めた米国イーストマン・コダック(Eastman Kodak)社の影響が大きいようです。
銀塩感光剤は、乾板の時代は米国よりもイギリスの方が盛んであったようですが、1891年、イーストマン・コダック社からロールフィルムが発売されて以来、コダック社が主体となって大衆向きに力を入れたロールフィルムカメラが発売されるようになりました。
コダックというと、フィルムメーカというイメージが強くありますが、この会社は写真撮影のためのカメラとフィルム、それに現像プロセスのためのケミカル材料を扱ってきました。
コダックは新しいビジネスの試みとして、まずフィルムを詰めたカメラを客に販売し、客が撮影を終えたらそのカメラを送り返してもらい、フィルムの現像とプリント処理をして、さらに新しいフィルムを詰めてユーザに送り返すというサービスを世界で初めて行い、米国で急成長を果たします。
また、いろんなタイプのカメラを作って、その都度そのカメラに使うフィルムを供給してきました。
コンシューマ向けのカメラは、映画用フィルムを短く切ってパトローネに入れたライカサイズのカメラが1925年にドイツで作られ、その成功と共に、カメラの流れがドイツに移り、戦後日本に移って現在に至っています。
コダックはカメラ、フィルム、現像、プリントを一手に引き受けていましたが、ドイツのカメラが世界的に売れるようになると、分業のビジネスになって行った感じを持ちます。
パトローネ(patrone)というのはドイツ語であり、英語ではfilm cartridgeと言います。
1895年、コダックがフィルム番号101番を与えて以来年ごとに1-3種類のフィルムが新しく作られ、20年間に約30種類のフィルムが発売されたと言います。
面白いことに、たくさん出されたフィルムの種類は、フィルムが最初にできたのではなく、カメラが最初にできてそれを合わせるようにフィルムができていった感じを与えます。
それほどフィルムの開発番号とサイズにはなんの脈絡もありませんでした。
▲ フィルムのサイズ (2009.11.23記)
フィルムのサイズは、写真がイギリスとアメリカを中心にして1986年代から1960年代までリーダ的な役割を果たしてきたので、インチでの寸法となったのはよく理解できます。
しかし、規格のあちこちにメトリック(ミリ寸法)が見え隠れするので混乱します。
銀塩写真は、もともと1830年代にフランスで発明されますが、機械工業と光学工業が優れていたイギリスがカメラとレンズを作り上げます。
感光材料は、当時写真家が自分で作っていました。
写真材料を規格化してカメラに合わせて商品化したのは、アメリカのイーストマンコダック社です。
写真の大量消費を成功させたのは、コダックのロールフィルムのおかげでしょう。
■ アメリのインチ規格
世界的に最もよく売れたフィルムは、35mm巾の135というパトローネサイズのものだと思います。
35mm巾は、イーストマンがエジソン研究所のために作った映画フィルム1-3/8インチ巾( = 34.925mm)から来ています。
イーストマンには、当時、2-3/4インチ巾( = 69.85mm)のロールフィルムがあって、動画撮影をするときに、このフィルム巾では大きすぎるので半分の巾にしました。
それに加えて、両端にフィルムを送るための孔(パーフォレーション)を設けました。
パーフォレーションは、3/16インチ( = 4.763mm)間隔で空けられました。
4つ分のパーフォレーションのスペースに一枚の画像(フレーム)を収めるようにしました。
1枚の画面サイズは、縦3/4インチ( = 19.05mm) x 横1インチ( = 25.4mm)でした。
これが映画フィルムと映画サイズの規格となりました。
映画フィルムは、1フィート長に64個のパーフォレーションが空けられたので、4個分のパーフォレーションで1コマ作られるフレームは16枚となりました。
当時の映画は、16コマ/秒で撮影撮影されていましたから、フィルムの消費量と撮影時間は簡単に換算できました。
つまり、1フィートで1秒の撮影ができたのです。
古いカメラマンは、撮影時間のことを尺数(しゃくすう)と呼んでいました。
尺は、日本の尺でなく英国の尺で1フィートです。
映画フィルムは、100フィート巻(30.3m)と400フィート巻(121m)が主流なので、それぞれ100秒( = 1分40秒)と400秒( = 6分40秒)の撮影時間容量であったことがわかります。
■ フランスのメトリック規格
アメリカのエジソンと同時期、フランスのルイ・リュミエールが同じタイプの映画カメラと映写機を作りました。
フランスはメトリック提唱の国ですから、寸法はメートルです。
彼らが作ったカメラはメトリック規格で作られました。
フィルムは、当時米国のイーストマンコダックのものが品質がよくたくさん出回っていたのでこれを流用したと思われます。
しかし画面寸法は、メートルに直して縦18mm x 横24mmとしました。
こうした理由から、映画産業は、大所はインチでの寸法によって規格が決められながらも、細部の寸法規定にメトリックが使われたり、インチで作られた規格がメトリックで丸められたりしました。
35mm巾の映画フィルムを小型カメラに流用したのが、ドイツライツ社のオスカーバルナックでした。
このカメラの画面サイズは、8パーフォレーションで1画面を構成する縦24mm x 横36mm(ライカサイズ)としました。
このライカの成功で、小型写真機のフィルムは120ブローニーフィルムから135パトローネタイプのフィルムに変わって行きました。
▲ 危険なセルロイド(Celluloid)
ロールフィルムに使われたセルロイド(Celluloid)は、1862年に英国のパークス(Alexander Parkes: 1813 - 1890)がニトリルセルロース( = NC、Cellulose Nitrate)の製法を発明し特許を申請してParkesine(パーキシン)と名付けました。
化学樹脂の最初の製品と言われています。
1869年、米国の発明家ハイヤット兄弟(John Wesley Hyatt、Isaiah S.Hyatt:1837 - 1920)が、同種のものでセルロイドと名付け大量生産の道を開きました。
ハイヤットはビリヤード球を人造する懸賞に応募するためにセルロイドを発明したといいます。
英国人パークスの事業は2年ほどで失敗し、それを受け継いだ英国の実業家ダニエル・スピル(Daniel Spill: 1832 - 1887)の会社も1874年に潰れてしまいます。
結局ハイヤットがセルロイド工場経営に成功するわけですが、倒産した会社のスピルとの間で特許に関して裁判になったと言います。
セルロイドは、ニトロセルロース(良質の木綿繊維から作られる綿薬)を原料とし、これに可塑剤として樟脳を用いて硝化した熱可塑性プラスチックです。
寸法安定性が良いため、べっ甲や象牙の代わりに使われました。
私が子供の頃の1960年代、石油化学製品から作られるプラスチックの種類が潤沢になかった頃は、化学樹脂と言えばセルロイドかベークライトで、セルロイドは下敷きや筆箱、クシ、ピンポン球などに使われていました。
戦前から戦後を通して日本のセルロイド生産は世界一だったと言われています。
セルロイドは非常に良く燃えて、壊れた筆箱や下敷きを火にかざすと勢いよく燃えたのを覚えています。
▲ 最初のフィルム - Geoge Eastman
【ジョージ・イーストマン】
この新しい材料に目をつけたのがアメリカ人のジョージ・イーストマン(Geoge Eastman、1854-1932)です。
彼は、ニューヨーク(Watervile, New York)の貧しい家に生まれます。14才でロチェスターの公立学校を卒業して、保険会社と銀行に勤めだしました。
彼の教育は義務教育まででした。彼と写真の出合いは、ドミニカ共和国の首都サント・ドミンゴへの旅行を計画した際に、友だちから旅行の写真記録をとるようにすすめられたことがきっかけでした。
今なら量販店へ行ってデジカメを買ってくればことがすんでしまいますが、1870年代当時、写真を撮るというのは並み大抵のことではなく、キャンプセットと同じくらいのかさばる撮影機材と感光材料を調合する薬剤や現像処理剤などすべて一式を持ち運ぶ必要がありました。彼はそのことが契機で写真にのめり込んでいきます。
彼はまず、写真というものから勉強を始め、1時間5ドルの授業料を払って写真術を学びました。彼はがんばり屋でもあったようです。結局、写真にのめり込み過ぎ、旅行をするお金を写真の勉強に使ってしまったので、旅行は諦めざるを得ない状況になってしまいました。
イーストマンは、Rochester Saving銀行に簿記係として勤める傍ら、サイドビジネスとして銀行が引けた午後3時から翌朝の朝食時間まで写真材料の製造販売をしていました。彼は、ガラスにゼラチンを混ぜた感光乳剤を塗った乾板を製造して販売をするまでに写真にかかわりはじめたのです。1881年、彼が27才の時、銀行を辞めてEastman Dry Plate Companyを設立します。彼の乾板会社は繁昌しましたが、同業者が増えるにつれ将来に対する不安を覚えるようになりました。もっと使いやすい写真を作れば売れるに違いない。苦労人のイーストマンはそう考えました。
【カメラと抱き合わせのフィルム販売ビジネス】
そこで、当時脚光を浴びていた新しい人造樹脂のセルロイドに目をつけて、これをガラスや紙を使っていた感光支持体に置き換えられないかと考えました。セルロイドに感光材を塗布してロール状にしたロールフィルムを発案し、それに必要なカメラも作って1888年から販売を始めました。ガラスでできた感光板は持ち運びに不便で高価でした。高価なカメラと写真撮影を、ロールフィルムの発明によって大衆の持ち物に変えようとしたのです。
しかし、ロールフィルムの発明そのものでは、彼のビジネスはブレークしませんでした。彼はそこで、もう一工夫をしました。
彼は、100枚分撮影できるロールフィルムを詰めたカメラを販売し、撮影が終わったらカメラごと送ってもらい現像とプリントをして再び新しいフィルムを詰めたカメラと一緒に送り返すというシステムを考えだしました。
これは大いに当たりました。彼は、
"You press the button, we do the rest" - あなたはカメラのシャッタを押すだけ。後は私達がやります。
というスローガンをかかげて、「Kodak Camera」を大々的に宣伝し販売しました。
このカメラとフィルム現像・プリントサービス戦略は大成功し、コダックの名前が全世界に知れ渡るようになりました。
このカメラは親しみを込めて、「the Kodak」と呼ばれるようになりました。
【Kodakの社名】
このシステム販売戦略の際、彼は自分の会社をもっとも敬愛する母親の名前のイニシャルKを取り、親しみやすい名前の『Kodak』という商標にして、1892年ロチェスター(Rochester, New York)の地に Eastman Kodak Company を設立し、映画用ロールフィルムまで手掛けるようになります。
コダックの名声を不動のものにしたのは、1912年に売り出したベストポケット・コダック(右写真、Vest Pocket Kodak)でした。このカメラとフィルムの成功によりコダックの名前が全世界に知れ渡るようになったのです。このカメラには127番のロールフィルムが使われていて、このフィルムのことをベストフィルムと呼び、画面サイズが4cm x 6.5cmであったことからこのサイズをベストサイズ(ベスト判)と呼んでいました。
ベストカメラは、最良(ベスト)のカメラという意味ではなく、ベスト(チョッキ)のポケットにも楽に入るというので名付けられた名前です。このカメラによって写真の需要を一般のアマチュアまで広めたと言われています。
【特許争議】
コダックのロールフィルムは、当然のことながら特許を取得して販売していました。
しかし、面白いエピソードがあります。Eastmanの発明したロールフィルムは、実は1887年、牧師Hannibal Goodwinによってすでに発明されていて、特許申請もされていたのです。
コダックはその特許を知ってか知らずか、間髪を入れずに特許申請して、製造工場を立ち上げ、トーマス・エジソンから映画用のロールフィルム開発の注文まで受けて事業を拡大します。方やGoodwinは、ロールフィルム工場を作ろうにも全く資金がなく、当人も立ち上げ半ばで死んでしまいます。彼の死後、ニューヨークにあるAnthonyという会社が特許を引き継いでロールフィルムの製造を始めます。と同時に、コダックを相手取って1902年より特許権の訴訟を始めます。
この訴訟は、12年の長きに渡って続き、最終的には、Goodwinの特許申請がコダックより早く申請されていた事と、特許内容が極めて酷似していることからコダックの敗訴に終わり、500万ドルの賠償金の支払いを命じられました。
裁判に負けたコダックでしたが、その頃にはコダックは事業に大成功していて、ロールフィルムと言えばコダックと言われくらいの大企業に成長し巨大な富みを築き上げていたので、裁判に勝って賠償金を手にしたAnsco社がコダックのライバルになることはありませんでした。
【Kodakの成長】
大会社の社長となったイーストマンは、自らの会社を医療保険や退職年金、生命保険などの福祉体制をどこの会社よりも早く導入し、多くの財産をマサチューセッツ工科大学や病院に寄付しています。
さらに多くの育英事業にも多くの寄付を施し、自らが受けられなかった学校教育を多くの人に受けてもらえるようにしました。
彼は生涯独身のまま過ごし、健康の衰えを感じた77才の年、1932年に「自分の仕事は終わった。これ以上生き長らえて死を待つ意味がない。」というメモを残し、ピストル自殺で生涯を終えました。
▲ フィルムベースの変遷
セルロイドは、かなり危険な材料です。その危険なフィルムが何故長い間使われていたのでしょう。
映画フィルムは、現像過程を通った後、映写機にかけられ何百回となく使われます。
湿度や温度に対し、セルロイドは寸法変化が少なかったのです。しかし、着火性が強いため火災の危険がありました。
セルロイドの主成分であるニトロセルロース(75%)は火薬にも使われるほど可燃性が強く、可塑剤である樟脳(25%)も着火性が強く、100°C 以上の比較的低い温度で分解して、170-180°C で発火します。
火炎の伝播速度も速く、着火すると驚く程の勢いで火が回ります。
1984年9月3日(月)、東京都中央区の東京国立近代美術館フィルムセンター倉庫からの出火は有名で,330本にも及ぶ古い名画フィルム(セルロイドフィルム製)が焼失したのは記憶に新しいところです。
セルロイドはまた、条件によっては熱で分解した時に有毒な窒素酸化物が発生し、中毒の恐れもありました。
戦後、1955年になって、燃えにくい酢酸セルロース系フィルム(トリアセテートセルロース = TAC)が開発され、さらにポリエステル(ポリエチレンテレフタレート)となりフィルムベースによる発火の心配はなくなりました。ポリエステルは、強靱な樹脂で薄いフィルムにすることも可能です。音楽用のテープや、1980年代に急成長したビデオテープにも使われ、フロッピーディスクの材質にも使われました。
【60mmロールフィルム(ブローニーフィルム)】
60mm巾(正確には、2 1/2インチですから63.5mm巾)のロールフィルムは、一度にたくさんの写真を安価に提供する観点からガラス乾板、シートフィルムに代わって考え出されたものです。
歴史的に見てロールフィルムは、この60mm巾のものが最初のようです。
これを発明したコダックは当初、フィルム巾を2 1/2 インチ巾として3種類のタイプ(117番、120番、620番)を出していました。
117番は、画面が2 1/4 x 2 1/4 (いわゆる6x6判)、120番は2 1/4 x 3 1/4 (いわゆる6x9判)という具合です。
現在では、1901年に発売された120番が、中判カメラ用の代表的なロールフィルムとしてブローニー(Brownie)フィルムという名前で生き残っています。ブローニーという名前は、当時コダックがこのフィルムを売り出した時に宣伝に小人を使っていて、その小人の名前がBrownieであったことから名付けられたニックネームです。
現在、このフィルム(ブローニーフィルム)はハッセルブラッドやマミヤ、富士写真、ゼンザブロニカなどの中判カメラに使われるもので、120タイプ、220タイプの2種類があります。
我々がよく使っているパトローネ(patrone[独]、film cartridge)入りの35mm巾の135タイプのフィルムよりも細長の箱に入っています。
このロールフィルムは、巾62.75mmの細長い黒紙を裏打ちの遮光紙として、それより少し短めのフィルム(61.5mm)を一緒にしてきつくスプールに巻き付けた構造になっています。
ブローニーフィルムは、一方向の送りで撮影が終わると終わりの黒紙がフィルムを包むようにして巻かれ、裸になった供給スプールは次のロールフィルムを巻き取るために巻き取り側に入れ替えて使います。
単純な構造なのですが、この構造は遮光性がしっかりと保て、太陽光線の下でもカメラへの出し入れを行うことができます。
フィルムと一緒になって巻かれている裏紙の背には、番号がふられていて、カメラの背面の赤か緑の小窓からその番号が見えるようになっていて何枚のフィルムを撮ったがわかるようになっています。
最近のカメラは、操作者がフィルム巻き上げノブを回して、小窓からフィルム枚数が確認できるようになってます。
カメラのメカ精度も上がっているので、フィルムを巻き上げると自動的にフィルム送りがストップする機構になっています。
このフィルムには、35mmフィルムのようなパーフォレーション(孔)がなく、巻き上げのストローク機構でフィルムを送るようになっています。
初期の60mm巾のロールフィルムは、60mm x 90mm サイズが6枚撮れる1種類だけでしたが、その後、ブローニー判とよばれる120サイズに統合されるようになりました。
120サイズはフィルムの長さが825mmあり、これで60mm x 90mm サイズで8枚の撮影ができ、60mm x 60mm で12枚、60mm x 45mm では16枚が撮れる容量を持っています。220サイズのフィルムは、フィルムの前後だけに裏紙をつけてあとはフィルムのみとし、120サイズのフィルムの倍の長さのフィルムが巻き込んであるタイプです。220タイプは120の2倍のフィルム長さがあり、60mm x 90mm サイズで16枚、60mm x 60mm で24枚の撮影が可能になっています。
ハッセルブラッド(Hasselblad) 2005年
ブローニーフィルムを使用した中判カメラの代表機種。多くのプロカメラマンあこがれのカメラ。
アポロ11号が月に持っていったカメラとして、有名になった。
現在は、デジタルバックも手がけている。
【インチ寸法】
これらのフィルムサイズは、現在ではメトリック(ミリ表示)で言い表わしますが、規格を作った時にはインチでした。アメリカは、今に至るまで工業製品をインチサイズで作っている国ですから、1890年当時、メートルで規格を作ることはあり得なかったはずです。
フィルムの巾も60mmぴったりの規格とは考えづらく、2 1/2 インチ(63.5mm)ではなかったろうかと考えています。
古いものを調べる時に、インチの世界をすべてメートルに当てはめると、歴史を正しく判断することが難しくなります。なぜ、60mm巾のフィルムが登場したのかをメートルの単位系で考えても答えの出しようがないからです。こうして見ると、60mmフィルムというのは正しくなく、2 1/2 インチ(63.5mm)巾というのが正しい言い方のような気がします。
ロールフィルムができない以前のフィルムは、ガラス乾板が使われていて4x5インチ、8x10インチなどのサイズがありました。
フィルムは、多くの消費者に渡るものですから、規格が大切で切りのいいサイズが当然あったと考えています。
現在、ブローニーのフィルム巾の規格は、61.5mm+0/-0.2mmとなっています。61.5mmという寸法をインチに当てはめようとすると、切りの良い数値があてはまりません。メートル法は、10進法を適用しているので、10.123というように自由な数値を設定できますが、インチ寸法の使い方は、古来、1/2、1/4、1/8、1/16、1/32という具合に半分ずつで細かくわけていき、分母を2の倍数にして分子を分母の数まで足していくやり方をとっています。
つまり、1/8の系列ならば、1/8、1/4、3/8、1/2、5/8、3/4、7/8、1という数列になります。
従って10進法のような自由な数値表現は苦手のはずです。
このことから、私が想定している120ブローニーフィルム巾は、2 1/2 インチ(63.5mm)ではなかろうかと邪推しているのです。
ところが、JIS規格ではブローニーサイズのフィルムは61.5mm巾と決められていて、その差(2mm)がどうしてできたのか理解に苦しんでいます。
コダックの寸法規定では、120ロールフィルム巾は、2.41インチ〜2.45(61.24mm〜62.23mm)インチの範囲内で製造していると言われています。
この数値は10進法表記であるので、これを一般的的な2進数の分数表記に直すと2 7/16 インチ(61.9mm)となり、これが設計寸法なのかも知れません。しかし、それでも、現在の寸法と0.4mmの誤差が生じてしまいます。
また、ブローニーとは別に、35mm( = 1-3/8インチ巾)フィルムの原型ともなった70mm巾( = 2-3/4インチ巾)のロールフィルムが初期の頃にあったと思うのですが、この文献も今だ見あたりません。
●フィルムのカーリング(Curling)
ロールフィルムは非常に薄く、約0.1mm厚のアセテートベースに感光乳剤が塗布されています。このために、初期のフィルムでは、乳剤塗布面や反対側に湾曲するカーリングに悩まされ、特に現像後のフィルムのカーリングは頭の痛い問題でした。
このカーリングを防止するため感光剤面の反対側に透明なゼラチンを塗布して使用していました。
現在でも、ほとんどのロールフィルムにゼラチンを素材としたカーリング防止裏引き層が施されていて現像処理後でもほぼ平らな面を保っています。
【35mmロールフィルム】
写真カメラができた時のフィルムは、木でできた箱形のカメラに使う乾板フィルム(4x5タイプ、8x10)や、その後の60mmロールフィルム(ブローニー)が主流でした。
カメラは、その後木製の大きなカメラから持ち運びやすいカメラが作り出されました。フィルムは、映画用の35mm巾のフィルムを流用していました。映画用カメラは、100ft、400ftなどの専用のマガジンに入れて使っていたので、小型カメラにもそうした専用のマガジンが必要でした。初期のカメラにはフィルム詰替用のマガジンがいくつか用意されていて使用者は、長巻きフィルムを細かく切ってマガジンに詰め替えて使っていました。
1913年、ドイツ Ernst Leitz社の技師オスカー・バルナック氏が、映画用の35mm巾のパーフォレーション付きのフィルムを利用した小型カメラ「ライカ」を作りました。このカメラの撮影サイズが24mm x 36mmであったため、以後このサイズを ライカサイズと呼ぶようになります。このサイズで36枚撮れるカメラマガジンが一般的になってくると、フィルムをマガジンに詰め替える必要のないパトローネ(patrone[独]、film cartrige)入りのフィルムが販売されるようになり、18枚撮り、36枚撮りの白黒とカラーフィルムが売られるようになりました。それが135タイプのフィルムでした。現在一般的に使われている135タイプのパトローネ入りの35mmフィルムは、1934年にコダックによって作られて、型番に135が与えられました。このパトローネ入りフィルムは、35mmフィルムカメラの急成長に伴って1960年以降フィルムの代名詞になるほどに普及を見ました。その後、少量の撮影ができる12枚撮りも市販され、18枚撮りは20枚撮りに変わり、そして24枚撮りとなりました。
歴史的にフィルムの撮影容量を見てみますと、36枚撮りが最初でその半分の18枚撮り、36枚の1/3の12枚撮りが登場しました。結果的には、12枚撮りの倍数の24枚、36枚撮りに落ち着いたのは興味があることろです。フィルムメーカがこの枚数にこだわっていたのがよくわかります。20枚入りが24枚入りに変わった当時のことを良く覚えています。これは私が高校2年生のときですから1972年頃です。日本のフィルムメーカ、小西六(コニカ)が20枚撮りを24枚撮りにしてシェアを伸ばそうとしました。当時人気タレントであった萩本欽一(コント55号)が、「どっちが得か、よぉ〜く、考えてみよう!」というキャッチコピーを流行らせました。この宣伝に敏感に反応したのは富士フィルムで、すぐに24枚撮りを出し、当時王者だったコダックは趨勢を見ながら最後に24枚撮りを投入するようになりました。消耗品であるフィルムは、少なくして売った方が利幅がとれるのです。
●パーフォレーション(Perforation)
35mmフィルムは映画用に作られたものですから、フィルムを正確に送る必要上フィルムの両側にパーフォレーションと呼ばれる孔が設けられています。この孔のピッチは4.76mm(3/16インチ)と規格で決められているため、8パーフォレーション(38.08mm、1 1/2 インチ)で一枚の画面構成になります。つまり、35mm巾 x 8パーフォレーション(38.08mm)が一枚分の撮影スペースです。このスペースにライカサイズでは、24mm x 36mm (1インチ x 1 1/2 インチ)を割り当てています。つまり、35mm巾のうちの11mm( = 35mm - 24mm)がパーフォレーション部に割り当てられ、2.08mm( = 38.08mm - 36mm)がフレーム間のスペースとなります。こうしたパーフォレーションのおかげで60mmロールフィルムで使われていたような裏紙による枚数表示が不要となりました。
現在使用されている35mmフィルムは、映画用のフィルムのパーフォレーションより若干大きめに作られているそうです。映画用のパーフォレーションを採用すると、安価なカメラでは巻き上げスプロケットを精密に作ることができないので、巻き上げに誤差が出てうまく巻き上げられないなどの不具合がでてしまうからです。
●35mmフィルムのカーリング(Curling)
35mmフィルムは、60mmフィルムより面積が小さくカーリングの影響が少ないためカーリング裏引き層は施されていません。映画フィルムは現像後もロール状に巻かれて保存しますし、小型カメラも短く切って短冊状にし袋にいれて保存するためカーリングする度合いが少ないのです。
■ 35mmライカサイズカメラ (2005.09.04記)
エルンスト・ライツ社のエンジニア
オスカー・バルナックが製作した
35mmフィルムカメラ、Ur Leica。1913年。
写真カメラと言えばライカ、と呼ばれるほど有名になったライカサイズのカメラとはどのようなカメラでしょう。
ライカは、ドイツのエルンスト・ライツ(Ernst Leitz)社のカメラという意味で「Leica」と呼ばれています。ライカは、1913年にライツ社のマイスター(職人)オスカー・バルナック(Oskar Barnack:1879-1936)が開発します。当時、ドイツでのマイスターは、一つの職場に留まって年がくるまで(滅私)奉公するという日本のような徒弟制度はとっておらず、新しい技術を求めてドイツ国内を問わず近隣諸国を渡り歩いていました。バルナックは、1900年から1910年までの10年間(彼が21才から31才の間)カール・ツァイス財団で働いています。しかし、そこでの彼の働きは特筆すべきものはなく、"うだつの上がらない"職人だったようです。
その後、1年を経て1911年、32才の時にツァイス社よりも小さな会社であるウィッツラーにあるエルンスト・ライツ社に入社し、映画機械試験部長として働きはじめました。入社2年後の1913年に最初のカメラ、Ur Leica(ウル・ライカ。ウルというのはUrbild = 原初という言葉の短縮)を2つ製造しました。
映画機械の試験の仕事の合間に、映画フィルムを使ってカメラを自作した感じです。
バルナックは無類のカメラ好きだったそうで、そして小柄でした。小柄な彼が、当時の箱型の組み立てカメラ(9x12センチサイズの大手札判ガラス乾板を用いた蛇腹カメラ)を持ち運んで、撮影するのはとても大変だったようです。
その彼が、片手で持ち運べて簡単に撮影できるカメラに着目したのは納得の行く所です。
バルナックがカメラに採用したイメージサイズ(24mmx36mm)をライカサイズと呼んで、その後の35mmフィルムカメラの標準サイズとなりました。
バルナックは、最初、映画と同じイメージサイズ(18mmx24mm)(3/4インチx1インチ、メートル寸法と異なるが最初の規格はインチ)のカメラを作りましたが、画質的に良好な結果が得られなかったので2倍のダブルサイズ(24mmx36mm)(1インチ x 1 1/2 インチ)としました。カメラに装填するフィルムの長さは、彼が腕を伸ばした長さ(一尋 = ひとひろ)にしたため、36枚撮りの長さとなりました。
彼が作った2台のUr Leicaのうち、1台を社長のエルンスト・ライツ一世に渡したそうですが、ライツ社長はあまり興味を示さなかったらしく、折からの第一次世界大戦もあって忘れ去られていたそうです。
初代社長の死後、後を継いだエルンスト・ライツ二世が、彼のカメラを見てとても興味を示し、30台の試作カメラ(Null Leica)を作らせます。
これは、1923年のことでした。ヌル(Null)というのは、「0」という意味で、I型、II型のできる前、すなわち試作機を意味したものです。
ヌル・ライカの評判は悪く、社内では製品化に反対する声が多かったそうです。
その理由は、あまりにも突飛なカメラデザインにありました。今ではしごく普通でかっこ良いとさえ思える35mmフィルムカメラの撮影形態、すなわち、偏平のカメラの背面を顔に押し付けてファインダー越しに被写体を睨み、左手でカメラを支えながらレンズを回し、右手でカメラのブレを押さえながらシャッタを切る、という所作が奇妙に見えたのです。
ライツ社は、しかしこのカメラ、ライカI型を販売することに踏み切りました。
最初のデビューは、1925年、4月ライプチヒ・メッセの展示会出展でした。市場に出してみると、ライカの評判はおおむね好調でした。
一風変わったカメラが実は非常に実用的であり、簡便なカメラとして市場に受け入れられていったのです。
この展示会の後、ライツには500台の注文が入り、1年を経たない12月末には1000台の注文を受けたと言います。
以後、倍々と生産は伸びていったそうです。このライツの成功に引きずられるようにして、ライバルのツァイス・イコン社からは「コンタックス」が発売され、この他に、日本のカメラメーカもこぞってライカを模範としたカメラを設計、製作しました。
なぜ、ライカは80年の長きに渡って愛され続けているのでしょうか。その理由は、カメラ好きの職人が真心を込めて作った使い手の側に立ったカメラであったという事ができるでしょう。
ライカの基本構造は極めてシンプルだと言われています。
しかしそのシンプルさに、機械の神髄が隠されていると言います。
フィルムの巻き上げの感触と滑らかさはライカの前にも後にもない優れたものでした。
また、フォーカルプレーンシャッターの作動音、ショックの少なさ、操作ノブの質感、クロームメッキの重厚感、どれ一つをとっても持つ者の満足を与える品物であったそうです。
ライカは、なぜか一眼レフカメラを作っていません。
一眼レフカメラの台頭とともにライカの勢いは急速に衰えて、1970年代以降、35mmフィルムカメラと言えば一眼レフカメラと言われるようになり日本製カメラが全世界を席巻するまでになりました。
高級一眼レフカメラは、ライカのようなレンジファインダー方式でなく、ファインダを覗いたままの視野が撮影でき、交換レンズが自由に使え、近接撮影も自由にできるものだったので、ライカ式のレンジファインダーを駆逐していったのです。
一説によると1960年代まではライカがあまりにも性能で優れていたために日本のメーカがそれに追随するのを諦め、新しい方式である一眼レフレックスカメラに触手を伸ばさざるを得なかった要因があったとも言われています。
面白いことに、1977年のジャスピンコニカを皮切りとして1980年代からオートフォーカスカメラが台頭し、それが安価なカメラにまで拡大されると、ライカスタイルであるレンジファインダー方式のカメラがすごい勢いで普及していきました。
【2000年代のデジタルカメラに影響を与えたフィルムカメラ】 (2012.02.23記)
2012年、フィルムカメラの勢いはなりを潜め、代わってCMOS固体撮像素子を記録素子としたデジタルカメラが一世を風靡しています。興味あるところは、記録媒体は銀塩感光材から固体撮像素子に変わりましたが、それをとりまくカメラの形状や付帯装置の多くはフィルムカメラを踏襲しています。
例えば、シャッタを切るシャッタ音は、メカニカルシャッタを持たない電子シャッタのデジタルカメラには無いものですが、フィルムカメラ時代のメカシャッタに似せて疑似音を出しています。
カメラレンズは、フィルムカメラ時代のものが使われ、カメラの感度を示す表記もISO感度相当で表されています。
デジタル一眼レフカメラでは、フォーカルプレーンシャッタをそのまま採用し、レンズと素子の間にミラーを配置しペンタプリズムで光学像をファインダーに導く従来の方式を取っています。
このようにカメラの歴史を見てみても、新しい技術が編み出されたとき過去の一切を捨てるのではなく、過去の良いものを取り入れながら組み合わせていくという手法が取り入れられています。
しかし、当然ながら新しいものができたときに淘汰されていくものもあります。デジタルカメラの場合には、銀塩フィルムがまず淘汰され、それに伴い現像処理、紙焼きプリント工程も消えて来ています。
代わって、HDD、ICメモリやCD、DVD、BDなどの電子記録媒体に写真の保存が移り、液晶モニタで映し出して見るという形態に変わってきて、必要に応じてインクジェットプリンタやレーザプリンタで印刷するようになっています。この流れの中で、銀塩フィルムと銀塩紙を使った現像・焼き増しの手法は入る余地がなくなったのです。
タイプ
35mmフィルム
一般の35mmフィルムカメラ用フィルム
パトローネ入り12枚、
APS
IX240
ロールフィルム
カートリッジ入り、16mm巾、裏紙つき
インスタマチック用、12、20枚撮り
ブローニ判、61.5mm x 830mm、裏紙つき
6 x 6、12枚撮り
ブローニ判、6 x 6、24枚撮り
リーダー、トレーラー付き
828
616
116
大名刺(手札)
9 x 12
4 x 5
シート状フィルムを引き出し紙のついた裏紙に貼付し、12枚(10枚、16枚)をケースに入れたもの
大名刺
手札
4 x 5
キャビネ
八つ切り
8 x 10
四つ切り
62 x 88mm、名称 JS(2 1/2 x 3 1/2)
81 x 106mm、名称 JS(3 1/4 x 4 1/4)
100 x 125mm、名称 JS(4 x 5)
118 x 163mm、名称 JS(4 3/4 x 6 1/2)
165 x 215mm、名称 JS(6 1/2 x 8 1/2)
200 x 250mm、名称 JS(8 x 10)
251 x 302mm、名称 JS(10 x 12)
カートリッジ入り、16mm巾、裏紙つき
ポケットカメラ用、12、20枚撮り
カートリッジ入り、35mm巾、裏紙つき
インスタマチック用、12、20枚撮り
100ft、400ft
コア巻き、スプール巻き、両目、片目
100ft、200ft、400ft、1,000ft
コア巻き
100ft、200ft、400ft、1,000ft
コア巻き、パーフォレーションタイプI、II
【小型フィルムに対応したカートリッジフィルム】
●126サイズ
パトローネ(patrone[独]、film cartrige)入りのフィルムは、カメラに装填する際にフィルを巻き取り側に送り込まなければならなりません。この装填がご婦人や機械に不慣れな人にはかなりアレルギーを持たせる所作であることを知ったフィルムメーカ(イーストマン・コダック社)は、この煩わしさを開放すべく、1963年にカートリッジ式のフィルムを開発し、インスタマチックカメラとして発売しました。
このカートリッジは、35mm巾のフィルムを使用して片方だけに約26mm間隔のパーフォレーションが施されています。撮影画面の大きさは26mm x 26mm ですから一画面1パーフォレーションということになります。このカートリッジは、12枚撮りもしくは20枚撮りの2種類あって、操作が簡単なことから全世界に爆発的な売れ行きを示したそうです。
わたしは残念ながらこの126タイプのフィルムの存在もカメラも知りません。
●110サイズ
110サイズのカメラは1972年に発売され1980年まで売れました。126タイプの縮小版とも言えるもので16mm巾のフィルムを使ったカートリッジでパーフォレーションは片側だけに設けられていました。画面の大きさは13mm x 17mm でした。撮影枚数も126タイプと同じで12枚撮りと20枚撮りの2種類ありました。
「ワンテン」と呼ばれ親しまれたこのカメラは、ポケットにすんなり入る大きさと簡単な操作で大衆受けを狙ったもので、ある程度市場に浸透していきました。しかし、結果的には撤退を余儀なくされます。失敗の原因は、プリントされた画質があまり芳しくなく、このカメラが販売されたと同時期に、自動焦点、自動露出、自動巻き上げのカメラ(代表カメラ、キヤノン・オートボーイ)が急速に台頭してきてこのマーケットを食ってしまったのです。
私も何度かこのフィルムを使ったカメラの被写体に収まり、プリントをいただきましたが、粒状の荒い、コントラストのつかない画質に「簡便なものはこんなものかな」と思ったものでした。
●ディスクフィルム(Disc Film)
ディスクフィルムは、1982年にコダックが開発した2.5インチ径薄い円板状のフィルムです。フィルムがディスク形の花びら状になっていて、この花びらに15枚ネガフィルムが配列されていて、ディスクが回転しながら15枚の撮影ができるものでした。
薄いフィルムカートリッジを使うためカメラがコンパクトになり、持ち運びが便利になることを開発の狙いとしていました。また、現像処理の合理化が図られるメリットもありました。しかし、この規格のフィルムも、日の目を見ずに撤退を余儀なくされました。理由は、110サイズの所でも述べましたが135タイプのカメラの小型化と自動化によって画質の良い写真が手軽にできるようになったことです。ディスクフィルムのイメージサイズは、11mm x 8mmしかありませんでした。
また1990年代前半から市販化された紙パック形式の使い捨てカメラ「写るんです」(富士写真フィルム)の出現は、小型カメラ業界を一変するに足る出来事でした。使い勝手のよいコンセプトとそこそこに写る画質が受け小型カメラ市場を席巻していきました。ディスクフィルムは1998年に製造を中止しました。
●APS (2012.02.23追記)
APSは、Advanced Photo Systemの略のフィルムフォーマット規格です。こうした新しい規格はすべて米国のコダックで作られますが、これもコダックが提唱し、イーストマンコダック、富士写真フイルム、キヤノン、ミノルタ、ニコン各社が共同開発して、1995年4月からサービスを開始しました。
APSは何が新しいかというと、まず従来から一般的に使われているフィルムである35mmフィルムに代わって、約60%巾の狭くなった24mmフィルム(IX240)使っていることです。撮影枚数は、15枚、25枚、40枚の3種類がありました。
フィルムが高画質になって、プリントサイズもそれほど大きくしないことを見込んで装置のコンパクト化を狙い(材料を抑えて同じ値段で売るという実質的な値上げという穿った見方もある?)サイズを小さくしたようです。
記録媒体のフィルムも従来の35ミリフィルムに代わる新しいフィルムを採用し、フィルムサイズが30.7×16.7ミリとコンパクトで、日付やタイトルなどの情報を磁気情報という形で撮影と同時にフィルムに記録できます。
フィルムはプラスチックマガジンに入っていて、フィルムカートリッジをカメラに入れるだけの簡単確実な設計になっています。このカートリッジフィルムは、従来の35ミリカメラとの互換性はないので、間違って購入してもAPS用のカメラを持っていないと使用することができません。
APSのシステムには、画面の大きさがCタイプ、Hタイプ、Pタイプあります。撮影は、フィルムサイズ30.7×16.7mm(16:9)で撮影し、プリント時に以下 のようなサイズを指定してプリントを仕上げてもらいます。
Cタイプ:89×127mm (縦横比/2:3)
従来35mmと縦横比が同じ
Hタイプ:89×158mm (縦横比/9:16) ハイグレード
Pタイプ:89×254mm (縦横比/1:3) パノラマ
フィルムサイズは、本来Hタイプであるので、画質はHタイプが一番良好です。後のサイズは、撮影されたフィルム画像の横を切り落としたり上下をトリミングして引き延ばしてプリントするため、必然的に画質が落ちます。
APSには、もう一つ大きな機能が追加されています。それは、フィルムに透明な磁気層があって、ここに撮影データやコメントを記録する事ができるのです(これをIX情報といいます)。この情報は、後でコンピュータで追加情報を打ち込んだり、追加記録ができるようになっていてフィルムの管理が簡単にできるようになります。
期待をもって登場したIX240フィルム(APS規格)は、デジタルカメラの興隆に伴い販路の場を失って販売が思うように行かず、2011年をもって製造を終了しました。16年の歴史ということになります。
【インスタント写真】(Instant Film)
1948年、第二次世界大戦の3年後、ポラロイド社がインスタント写真とカメラを発明しました。発明したのは、エドウィン・ランド博士。博士はハーバード大学中退。学生時代偏光現象に傾倒し、中退後ニューヨーク公立図書館にこもり猛烈な独学自習のすえ、偏光に関係のある文献を片っ端から読破し「ポラロイド」偏光フィルタを商品化します。そんな中で、インスタントカメラは、自分の三歳になるお嬢さんの写真を写した直後に「いま撮った写真をすぐ見せて」とせがまれたことから、これを発想し企業化したそうです。当時このフィルムカメラは撮影して1分で写真ができるので「1分間写真」と呼ばれていました。ポラロイド写真は、最初セピア調のモノクロームでしたが1950年に一般の写真と同様の黒調になり、1960年にカラーを公表、1963年に発売を開始します。1972年には、これまで「ピールアパート式」(ネガとポジペーパーを剥がす方式)に代えてSX-70方式を開発します。1975年にはこの方式によるカラーを発売しました。
イーストマン・コダック社も1976年に同様のフィルムとカメラを発売します。これによりポラロイドという商品名から「インスタントフィルム」という言葉が一般名詞として使われるようになります。富士写真も1981年に同様のフィルムを発売します。
インスタントフィルムを巡っては、ポラロイド社とコダック社がパテントの問題で1976年に訴訟を起こし、激しい裁判攻防の末、1990年にポラロイド社が勝訴し、コダック社は1200億円の賠償とこの分野からの撤退を余儀無くされます。富士写真は、日本にこうしたパテント申請をしていなかったポラロイド社の法的効力をかいくぐって日本に限っての販売を行っています。
▲日本での不人気
インスタント写真は、米国はいざ知らず、日本においては家庭にあまねく浸透したとは言い難い製品でした。アメリカでは全家庭の半数がポラロイドカメラを持っていたのに、日本ではなぜアメリカほど普及しなかったのでしょう。私の感想では、以下の理由によるものと考えます。
1. (日本での)ポラロイドはフィルムが高かった。
1970年代〜2000年代、1枚150円から200円した。
それで、1500円から2000円を出して1パックを買っても10枚程度しか撮れない。
2. 焼き増しができず、集合写真などの利用価値が低かった。引き延ばしもできなかった。
3. 135タイプのフィルムのDPE(現像、プリント、焼き増し)のコストが年々下がって
1時間サービスも出回るようになり、ポラロイドの価値が下がった。
4. インスタントフィルムの画質が向上するのにかなりの時間がかかった。
これらの原因が日本でそれほど普及しなかった理由と思っています。しかしながらインスタント写真は、企業や公共の研究所などの試験・研究機関にはかなり広く行き渡り利用されていました。しかし、1995年以降、デジカメが急速に普及することによって、インスタントフィルムの需要が激減してしまいます。
▲ チェキ(Cheki、Instax mini)
1998年頃から富士写真フィルムで新しいタイプのインスタントフィルム「チェキ」が発売されています。チェキは俗称で、正式名はInstax mini(インスタックス ミニ)です。
写真サイズは小さいものの若者の間で受け入れられて良好な販売をしているとの事です。(2004年までの話。)
このインスタントフィルムは、デジタルカメラの台頭で使命が終わったと思っていたのですが、デジタルカメラで撮った画像を、このインスタントフィルムを利用してプリンタ用紙として使う需要を掘り起こしました。このプリンタはチェキプリンタと呼ばれているそうです。パソコンを使わずにプリントできるので簡単に取り扱いができることから女子高生の間で人気があるようです。我々計測の分野ではあまりみかけません。
▲ インスタントフィルム産業
インスタントフィルムは、現像を必要とする銀塩フィルムとは異なった性質を持っていたので、市場の一部を確保することができましたが主流とはなりませんでした。また、1995年頃より市場に投入され始めたデジタルカメラの興隆によって一気にその市場性が奪われてしまいました。
2001年10月、米国Polaroid社は会社更生法の適用を受けるに至っています。 デジタルカメラの技術革新によって、インスタントフィルムカメラが担っていた仕事をすべて請け負ってしまったのです。
インスタントカメラがデジタルカメラに何故駆逐されたのかというと以下の理由が挙げられると思います。
1. 2000年当時、1,000x1,000画素クラスのデジタルカメラが3万円台で入手できた。
2. インターネットの普及と相まって、家庭にコンピュータが入り込んで
デジタルカメラによる デジタル画像が簡単に取り込めたり、保管、読み出しができるようになった。
3. さらに、インクジェットプリンタメーカが写真画質以上の印刷ができるプリンタを
3万円台で供給するようになった。
【映画用フィルム】
●35mmフィルム
映画の第一歩を踏み出したのは、米国トーマス・アルバ・エジソンと彼の研究所の主任研究員ウィリアム・ケネディ・ディクソン(William Kennedy Laurie Dickson)だと言われています。彼らは1894年に「キネトスコープ(Kinetoscope)」と呼ばれる映写機を発明しています。これに使用するフィルムが、セルロイドベースに乳剤を塗布したロールフィルムで、パーフォレーションはほぼ現在と同じサイズのものがエジソン研究所の注文でさん孔されました。ジョージ・イーストマンが1885年に初めてロールフィルムを発明してから9年後のことです。エジソン研究所のディクソンは、実は1889年にイーストマンにロールフィルムの試作を出していました。そのフィルムの巾が1 3/8 インチ(34.925mm)で長さが200ft(61m)というものだったそうです。この規格は、コダックに70mm巾(2 3/4 インチ = 69.85mm)のフィルムがあったので、これを半分にして両サイドにフィルムを送るためのパーフォレーション(孔)を開けさせたものです。これ以降、映画フィルムの基本的な巾が35mmと決められ、小型静止画カメラ(ライカサイズ)にも適用されていくのです。現在、実用に供されるフィルムの巾は、70mm、35mm、16mm、8mmの4種類です。
私は、長年映画業界の片隅でフィルムの匂いを少しばかり嗅いで生きてきましたので、フィルムに対するカメラマンの神経の使い方が尋常でないことを知っています。映画を作るカメラマンや監督はフィルムに彼らの全生命がかかっているのです。高価な撮影セットや照明装置、俳優さんを揃えて取り直しのきかない撮影に入るわけです。ですから1秒24枚のコマを送るのに全神経を集中させます。フィルムの画面に傷が入らないだろうかとか、カメラはスムーズに回ってくれるだろうかとか、色バランスはロール毎に変わっていないだろうかとか、撮影現場は恐ろしいほどの緊張が走ります。ですからフィルムを供給するフィルムメーカもフィルムの製造管理や寸法精度についてかなりの神経を使っています。
とくにパーフォレーション(フィルムを送る孔)の寸法精度は極めて厳しいものです。パーフォレーションの孔あけ精度が0.1mm狂っていたらどうでしょう。18mmx24mm (3/4インチ x 1インチ)のシネサイズの画面を6mx16mのスクリーンに映す倍率は333倍。0.1mmのガタは33cmの揺れとなって撮影されるわけです。20m離れた観客からこの揺れを見ると0.47度(両ブレで0.94度)となります。人間の目は、1/2000度程度の分解能を持ちますから6mのスクリーンでは3mmの振れを認めることができます。この揺れを抑えるには、パーフォレーションの精度を18mmの1/2000、つまり0.01mm程度の精度に抑えないといけないことになります。フィルムにはかなりの寸法精度、孔あけ精度が要求されているのです。
35mm映画フィルムには、100ft容量、200ft容量、400ft容量、1,000ft容量、2,000ft容量が一般的です。映画フィルムの場合1枚の映像をコマと呼ぶことが多く、1ftあたり16コマの撮影を行います。1コマには4つのパーフォレーションが当てられていて1コマを送るのに4つ分のパーフォレーションがあてがわれます。従ってパーフォレーションの間隔は、1ft/(16コマ x 4パーフォレーション/コマ) = 4.7625mm/パーフォレーションとなります。
1ftのフィルムで16コマ撮影ができるということは、当時、カメラの撮影速度が16コマ/秒であったので1秒1フィートと言うわかりやすい尺数になったと考えられます。こうしてみると、100ftのフィルムは100秒(1分40秒)、400ftは400秒(6分40秒)、1000ftは16分40秒の撮影ができました。現在では1秒間に24コマが規格ですから、上記のフィルムでは、100ftで1分6秒、400ftでは4分27秒、1000ftでは11分7秒という計算になります。2時間の映画上映では10,800フィートのフィルムが必要になります。撮影時にはその2倍くらいのフィルムが必要でしょうから23,000フィートのフィルムを確保しておかなければなりません。フィルムの価格を100フィート5,000円程度とすると1,150,000円のフィルム代が必要です。
このフィルムを使った映画カメラとしては、ドイツのアーノルド・リヒター社のARRI Flexカメラ、米国のPANA Visionが有名です。劇場で見る映画のほとんどこれらの映画カメラで撮影されています。映画カメラは、古くは米国のMichelカメラ、米国Bell & Howellカメラが有名です。
●16mmフィルム
1923年にイーストマン・コダック社が開発しました。35mmフィルムでは高価であるアマチュアユーザ向けに35mmフィルムの半分の巾のフィルムを作ったのが始まりとされています。35mmの半分は17.5mmですが、16mm巾を半分と解釈した理由がよくわかりません。このフィルムはドキュメント映画やニュース用取材、高速度カメラ用フィルムに利用されました。このフィルムは基本的には両側にパーフォレーションが設けられていて、1ft当たり40コマの撮影ができます。後になってフィルム面にサウンドを入れるスペースを確保する関係上パーフォレーションが片側だけのフィルムも登場します。
このフィルムの果たした歴史的な役割は大変大きいものであったと私は思っています。このフィルムは、ドキュメント記録用に大活躍しました。第二次大戦の戦場での記録は小型で携行性に優れた映画カメラを必要としました。米国ベル&ハウエル(Bell & Howell)社は、この要求に応えるためFilmo(フィルモ)というカメラを開発します。このカメラは、3本式ターレットレンズ(カメラ全部に3本の単一焦点距離レンズを取り付けるリボルバーがついていて撮影目的に応じてレンズを回した。顕微鏡のレンズリボルバーのようなもの)付きで片手で持ち運べ、巻き上げ式のゼンマイでフィルム駆動を行うことができるものでした。1970年代のビデオニュースカメラ(ENGカメラ)が台頭するまで、テレビ放送局、報道機関で多く使われました。また、ドイツではアーノルド&リヒター社がArri 16STと呼ばれる携帯性の良い16mmフィルムカメラを開発し第二次大戦に使用されました。その他、報道用のカメラとしてスイスのBolex(ボレックス)、ボリュー、フランスのエクレール、日本ではキヤノンのキヤノンスクーピックがありました。
高速度カメラの主流は、この16mmフィルムを用いたカメラがほとんどで、このフィルムを高速で送りながら10,000コマ/秒の撮影を行っていました。代表的な高速度カメラとしては、米国フォテック社(現在はVisual Instruments社)のPhotec、日本のナック社のE-10(1975年以前は日立のHitachi 16HS、16HD)、米国Photo-Sonic社の16-1B、スイスワインバーガー社のSTALEXなどがあります。古い所では、米国Redlake社のHycam、Locam、Fastax、同国フェアチャイルド社ミリケン(Miliken)などがありました。
16mmフィルムは、100ft(30.3m)、400ft(121m)タイプが主流です。200ftタイプ、1200ftタイプもありますが特注的な扱いとなります。また、これらのフィルムは、スプール巻きとコア巻きの二種類があって、高速度カメラ用のフィルムは遮光のためのアルミ製のツバが付けられたスプール(日中装填)が使用されます。
●8mmフィルム
ビデオカムコーダの8mmではありません。フィルムの8mmです。このフィルムは、1932年にイーストマン・コダック社が開発しました。16mmフィルムではまだ高価であるとするアマチュアユーザ向けに16mmフィルムの半分の巾のフィルムを作ったのが始まりとされています。これはダブル8(とかレギュラー8、R-8)と呼ばれていました。当初は16mmフィルムをそのまま使い露光部のアパーチャを半分のサイズにして片側づつ2トラックにして撮影していました。現像処理後にフィルムを中央で切り離し、2本として8mm巾の映写フィルムとしました。16mmフィルムは両目のフィルムを使って二つに切り離すのでパーフォレーションは片側だけとなります。またパーフォレーションの孔寸法は同じでパーフォレーションの孔の数は倍(パーフォレーションピッチは16mmフィルムの半分)に増えていました。
ダブル8の欠点は、16mmフィルムの流用だったのでパーフォレーションが大きく有効寸法画面がフィルム巾の60%しか使えませんでした。そして、フィルム上のサウンドトラックを設けようとするとさらに画面寸法を小さくしなければならないという問題を抱えていました。
この問題を解決するために、1965年(8mmフィルムは33年間も同じ規格だったんですね!)、16mmフィルム巾に代えて8mmフィルム巾として、8mmフィルム専用のパーフォレーションを空けたものがコダックよりスーパー8という名前で発売されました。また富士フイルムではシングル8という名前で登場しました。このフィルムはサウンドトラック用のスペースが確保できたばかりでなく、有効画面寸法も大きくなったため映写画面の質と明るさが向上しました。このフィルムは予めカートリッジに入れられてこのカートリッジを8mmフィルムカメラに入れるだけで撮影ができるようになって簡便なものとなりました。コダックでは、この他にやはり16mmフィルムを用いて、パーフォレーション寸法や画像の寸法形状をスーパー8 と同じにしたダブルスーパー8というフィルムも市販していました。
●70mmフィルム
大型劇場用のフィルムです。35mmの倍の巾を持つフィルムです。大型劇場用の映画用フィルムとして使われています。
また、各種イベントなどでIMAX(アイマックス)、Omnimax(オムニマックス)と呼ばれる超大型画面による映画を見られたことがあるかと思いますがこれらの作品に使用されているのが70mm巾のフィルムです。
このフィルムを使用するカメラは特殊用途に限られているため全てに渡って高価で、フィルム現像もハワイに持っていって現像していると聞いています。
■ 小型簡易白黒現像機 (1998.9.7)
16mm映画フィルムの現像を自家現像するのはまことにやっかいな作業です。30m(100ft)もの長いフィルムを暗室で現像するのは結構骨の折れる作業でした。左に示す小型白黒現像機(写真は1985年当時のもの)はコンパクトで400ft(120m)までの白黒フィルムを自動的に現像してくれます。液漕は2リットルのタンクで、
現像タンク→水洗タンク→定着タンク→水洗タンク→乾燥
の4工程に別れています。電源はAC100V15A。水道のある近くにおいて現像処理ができます。現像タンクが2リットルと小さいので簡単に現像液を溶くことができます。現像時間は100ft(30m)で約1時間です。
トップに戻る
カラーフィルムは長期保存で退色する恐れがある
ネガティブフィルム(白黒及びカラー)は、金属銀が残っているため非常に安定して保存できますが、リバーサルフィルムは、定着工程で全ての銀がすべて洗い流され、イオン銀で2次反応した発色カプラだけが残ります。この発色カプラーは、紫外線などの強い光に弱く、太陽光などに長期間さらされると退色します。フィルムの長期保存には、湿気と温度を遮断し暗室で保存する必要があります。
濃度情報
フィルム像の記録濃度は、ネガフィルムで10ビット = 1:1000程度(例えば、100 ルクス〜10,000 ルクス)、リバーサルフィルムで7ビット = 1:100程度(例えば、100 ルクス〜10,00 ルクス)を記録することができます。記録媒体としては記録速度も速くダイナミックレンジも広くとれます。
フィルムでは、濃度を表す単位にD1.0と言う具合にログ(Log)関数表示で言うことがあります。DはDensity(濃度)の略です。
D濃度とフィルム上の透過率T(%)の関係は次の通りです。
T = 1/10 D x 100
濃度 D
フィルム上の透過率 T(%)
0.0
100
0.1
80
0.2
64
0.3
50
0.4
40
0.5
32
0.6
25
0.7
20
0.8
16
0.9
12
1.0
10
2.0
1
3.0
0.1
D0.0(濃度ゼロ)は、フィルムに何も濃度が無いことですから像が写っていない素抜けの透明フィルム(透過率100%)を表します。
D1.0は10%の光を透過する濃度を表します。
これは、濃度が1増す毎に透過率が1/10に減り、0.3毎に1/2ずつ減ります。
フィルム濃度は、フィルム濃度計を使ってD値を読みとります。
上図が、一般的なフィルム特性曲線です。図の横軸がフィルムに照射される光(白色光)の露光量E(照度と時間をかけ合わせたエネルギー量)を対数に直した値で、縦軸にネガフィルムの濃度を表しています。Eは、フィルム面に当たる照度と露光時間の積で光エネルギー量に相当します。これにLog対数を当てていますから、LogE = -3 は、1/1000ルクス・秒を表し、LogE = 3.0 は、1000ルクス・秒を表します。こうしてみますと、フィルム特性曲線は両対数曲線となります。上の表にγ(ガンマ)と書かれてありますが、これは、露光量に対するフィルム濃度の傾きを表していることがわかります。γ=1というのは露光量と濃度が1:1に対応している事になります。一般的なフィルムは、γが0.8になることをすすめ、フィルム現像などはγ=0.8を標準現像として、現像の仕方、フィルムの特性を紹介しています。γが0.8というと実際の被写体の濃淡に比べてフィルム像の陰影が0.8倍の柔らかいものに変わることになります。科学写真を取る場合には、露光量とフィルム濃度の関係が良くわかった方がよいので曲線の直線部分に露光が入るように露出時間、レンズ絞り、光量調節、現像調整を行います。欲しい露光が濃度が低くてカブリ濃度の近辺の「足」部や、濃度が濃い「肩」部を避けるのが一般的です。実際に被写体の明るさの範囲(これをラチチュード = latitute)と呼んでいます。ASA100のフィルムですと、光量比でLogEが3.0以上とれますので被写体の明るさが1:1000に及ぶ明るさの範囲をフィルム像に記録することが可能です。つまり、フィルムスキャナーが、フィルム像の濃度を1:1000まで読みとれれば、フィルム像は1:1000の情報を得ることができます。この階調をコンピュータ用語のビットで表すと10ビットまでの情報を持つことになります。ちなみに、フィルム像ではなくCCDカメラ(天体観測用のCCDカメラ)は、濃度が16ビット(1:65,000)階調あるものが市販されています。CCD素子の基板はシリコンで作られていて、シリコンは光に対して敏感で、熱による(CCD上の発熱などによる熱のばらつき)ノイズを十分に抑えれば1:100,000程度のダイナミックレンジを持ちます。
X線医学診断では、このフィルムを使ってX線写真を撮りこのX線フィルムから患者の診断を行っています。これを読影(どくえい)といいますが、X線光源、フィルム特性、患者患部のデータを予め頭に入れておき、患部の微細な変化をとぎすまされた経験と勘で発見します。特にガンの早期発見には、ほんのちょっとした異常をX線フィルムから読みとらなくてはならず、CCDカメラをはじめとした電子映像が発達した今日でもフィルム像の果たす役割は大きいものがあります。
【ASA感度(ISO感度)】 ASA(ISO)感度の定義について述べます。フィルムの歴史は古いので、今までいろいろな感度規格が用いられてきました。たとえば、ドイツではDIN感度、日本でもJIS感度。英国ではBSI、ロシアではGOSTと言う具合です。現在では、いろいろな規格たくさんあると何かと不便なので、国際規格であるISOに統一されるに至っています。ISO感度は、ASA(American Standard Association、この規格はANSI = American National Standards Instituteの前身であるにもかかわらず、なぜかフィルム感度だけは古いASAが生き残っている)感度がそのまま取り入れられました。従って、フィルム感度のISO表示は、従来のASA感度表示と同じです。ISO(=ASA)感度の決め方は、どのくらいの少ない光量でフィルム濃度が得られるかの目安を表します。つまり、被写体の暗部のディテールを少ない露出で記録できる感光剤を感度が高い、と考えて上図の特性曲線の足の部分の、カブリの部分より区別がはっきりする濃度、すなわち、ベース濃度 + カブリ濃度 + 0.1が得られる○印の点の露光量Eaの逆数で感度を表すことになりました。
フィルムによっては、光を与えてもなかなか反応せず濃度がのらないものがありますが、0.1D濃度になるときの光量がフィルム感度になるというのが面白いポイントです。
フィルムは、現像によって、露光に対する濃度(すなわちγ)が変わってくるので、このEaの点をもう少し厳密に定義する必要があります。a点がLogEaより1.3大きい点(これを仮にLogEb)とし、この点で濃度が0.8になるように現像します。こうしてγを一定にしておいてEaの値を特定し、ASA感度を求めます。ASA感度は、
ASA(ISO)感度 = 0.8/Ea ・・・(Rec -47)
で定義されます。 従ってASA100のフィルムは、Eaが1/125(=0.008)の時にASA100と呼ぶことができます。これは、0.008ルクス・秒を表します。つまり、ASA100のフィルム面に0.008ルクス・秒の光量を与えると0.1Dの濃度を得ることになります。
■ フィルムの解像力
フィルム自体の解像力は、100白黒本/mm 〜 200白黒本/mm程度の性能を持ちます。これは、1/200mm〜1/400mm(2.5μm)の分解能に相当し、フィルムを使用する最大の利点となっています。この解像力を求めるには精度のよいチャートをフィルムに密着させて露光させ現像します。現像したフィルムを濃度計で計測して細かいところをどこまで分解できているかを判断して解像力を決めています。また、特殊なものでは、ガラス板を使ったホログラフィ用の感光材では1,000白黒本/mm程度の性能を持っています。現実的にこれらのフィルムの持つ解像力を最大限引き出すことは困難で、レンズ性能やカメラのフィルム固定精度、フィルム移動機構の安定性、フィルム面の安定性を踏まえた総合解像力という言い方でフィルムカメラの解像力を決めています。
画像の解像力評価については、「レンズについて 」(http://www.anfoworld.com/Lens.html#Resolving Power )という項目にも詳しく触れていますのでここを参考にして下さい。
【MTF】(Modulation Transfer Function):
フィルムの解像力を表す現実的な方法にMTFがあります。解像力が100本あるといっても、細かい線がしっかりと記録されているかどうかが問題になります。フィルムによってはわずかに見えるか見えないかぐらいの薄くうつっているかも知れません。別のフィルムではしっかりときれいに写っているかも知れません。こうした黒と白の解像力をコントラスト(濃度)で示し、横軸に解像力の周波数、縦軸にそのコントラストを表した曲線をMTFと言います。一般に解像力が高くなると(周波数が高くなると)コントラストが低下するのが一般的ですが、フィルムやレンズによってその曲線が変わってきます。あるものは、高い周波数で急激にコントラストが落ちたり、べつものは徐々にコントラストが低下したりします。もちろん、解像力が高い位置までコントラストが落ちずに伸びているものもあるでしょう。
このように、画一的に周波数がいくつというよりも、MTFを用いればより詳しくフィルムやレンズの解像力特性がわかってきます。
■ 総合解像力
実際に良く使われている高速度カメラの総合解像力について触れてみます。
16mmフィルムサイズの高速度カメラは、自動車安全実験用に使われる500コマ/ 秒撮影ができる16mmフィルム掻き落とし式高速度カメラ モデル16-1PL(米国 Photo Sonics社)や、ガソリン・ディーゼル燃焼研究に使われる10,000コマ/ 秒のロータリプリズム式高速度カメラ(モデルE-10、ナック社)が良く使われます。解像力は、カメラ内部に光学部品が無い分フィルム掻き落とし式高速度カメラ(1PL)の方が有利で、TV本に換算すると横1,200本 x 縦840本程度になります。E-10は、カメラ内部に撮影を高速にするための回転プリズムやリレーレンズが入るため解像力が劣化し、横700本 x 縦500本程度になります。
35mmフィルム高速度カメラは、200コマ/ 秒まで撮影可能な米国 Photo Sonics社の35-4MLがあります。画質がきれいなことからテレビコマーシャルでスローモーション撮影に使われたり、映画撮影の特撮、宇宙衛星打ち上げロケットの追跡撮影に使用されます(1970年代〜2000年)。この種のカメラの解像力は、TV本に換算すると横2,200本 x 縦1,600本程度でハイビジョンの映像に匹敵します。もちろんこれは高速度カメラでの話であって映画用に使われる映画カメラ、ドイツ アーノルド&リヒター社の ARRI Flex 35 BLなどは、フィルムを高速に駆動しないだけフィルムの停止精度、面精度が良くハイビジョン以上の画質を提供してくれます。NikonやPentaxなどの35mmライカサイズのカメラは、最も手軽で最も情報力を持つものです。その解像力は、TV本換算で横4,300本 x 縦2,900本に相当し、16mmフィルムを使ったE-10カメラの36倍の情報力になります。
このほか、70mmフィルムを使った高速度カメラ 米国 Photo Sonics社の70-10Rは、イメージサイズが56mm x 56mmありTV本換算で5,000本以上に相当します。このカメラは、次世代ハイビジョンシステム評価用ソースとして使われています。
↑にメニューバーが現れない場合、
← クリックして下さい。
■ 光の記録原理 その4 - - - 光増幅光学装置(イメージインテンシファイア = Image Intensifier)
微弱光撮影には、高速度カメラに高感度光増幅映像装置(イメージインテンシファイア = Image Intensifier)を取り付け、約100〜10,000倍程度の感度増幅させる手法があります。イメ−ジインテンシファイア(通称I.I.=アイアイ)は、電子管の一種で光学像を電子像に変換し、電子像を蛍光面で再び可視光像に変換し、入射した光以上の光学像を取り出すものです。I.I.で行う光増幅は、基本的に以下の式で求められます。
光増幅率 = 光電変換効率 x 印加電圧 x MCP電子増幅 x 蛍光効率 ・・・(Rec -48)
▲ 光電面(Photo Cathode)
上式は、I.I.の光増幅が光学像を電子像に変える光電面の量子効率と電子が加速され蛍光面まで到達するための印加電圧、及び電子が蛍光面で可視光像に変わるための蛍光効率の積で決まることを表しています。光電面の量子効率や、蛍光面の蛍光効率は使用する材質によって異なり、光電面の材質も、蛍光面の材質も1940年代以降いろいろと開発されました。光電面の材質を表すS1やS20などは、元来アメリカEIA (Electronic Industories Associ-ation)に登録された光電デバイスの分光感度特性に付けられた番号であり、これが光電面分光感度特性の代名詞として世界的に使われています。光電面で最も良く使われるS20マルチアルカリ光電面は、アメリカのA.H.ソマー(Sommer)( = 1930年代より1970年代に活躍、数多くの光電面を発明)が1960年代に偶然に発明した光電面で、当時としては可視光に対し非常に高感度な性能を持っていました。高感度は主に長波長への感度の伸びによっています。この光電面は、使用する膜材にナトリウム、カリウム等アルカリ金属を多く使用したため、マルチアルカリ光電面と呼ばれています。S25マルチアルカリ光電面は、1971年アメリカRCA社で開発されたもので別名 ERMA(Extended Red Multi-Alkari)とも呼ばれています。これは、通常のS20面より膜厚が5〜6倍(約150nm)厚いもので、限界波長が900nmに達しているためI.I.のみならずレーザ光検出用光電子増倍管、ウルトラナック(イメージコンバータ式高速度カメラ)に使われるなど重要な光電面になっています。
▲ 印加電圧
チューブ内に印加される電圧は光電面より発生した光電子に力を与え電子を加速させます。加速された電子は蛍光面に衝突し蛍光を発します。蛍光は電子の速度によって輝度が変わります。従って、蛍光面輝度は同じ数の電子が当たる場合には加速電圧に比例します。通常のI.I.の加速電圧は15,000〜17,000V程度で、次に述べるMCP(マイクロチャンネルプレート)内蔵のI.I.で6,000〜7,000V程度になっています。電圧を上げれば電子増幅が高くなりますが、必要以上に電圧を上げてもチューブ内の真空の度合いを考慮しないとマイナス効果になります。つまり、チューブ内に残留している分子(イオン)にもエネルギーを与え、そのイオンが蛍光面に衝突して光電面に光が入射していないのに蛍光面がノイズによって発光する問題が生じます。これはチューブの寿命にも影響するのみならず得られる像のS/Nも悪くなります。この値を EBI(Equivalent Background Illumination)と呼び、蛍光面単位面積当りの光束(ルーメン/cm2 )で表します。EBI は、通常のI.I.で4 x 10-11 ルーメン/cm2 程度であり、チューブが大きいほどこの値は不利になります。
▲ MCP(マクロチャンネルプレート = Micro Channel Plate)
MCP(マイクロチャンネルプレート)は、I.I.チューブ内に組み込まれる0.5mm程度の薄いガラス板で、これにφ10〜12μmの孔が無数に空けられ(φ25mmで数百万個)、両端に100V〜900Vの電圧をかけ光電面からの光電子を1,000倍程度の2次電子に増やすものです。MCPは、比較的新しい技術で初期のI.I.にはこれが内蔵されていませんでした。MCPの導入で光増幅が飛躍的に向上し外観もコンパクトにできるようになりました。また、第3世代のI.I.は、形状が非常に薄くなっていて内部に電子レンズが構成されないため像歪みがありません。MCPの欠点は、蛍光面輝度がそれを使わないI.I.よりも高くならないことと、MCPが内蔵されている分だけ解像力、階調 = ダイナミックレンジが低下することです。蛍光面輝度は、基本的にブラウン管(CRT)の蛍光面程度の明るさ(10,000ルクス程度)を出すことが可能ですがMCPを内蔵すると1/300程度の30ルクス程度に減ってしまいます。これは、MCPの2次電子が蛍光面を10,000ルクス程度まで明るくするだけ放出できないことを示しています。従って明るい光を要求する高速度カメラにMCP内蔵のI.I.を接続しても撮影はできません。MCPを内蔵した場合の解像力は、MCPから放出される電子がMCPの開口率で発散して蛍光面に到達するため、MCPと蛍光面の距離をできるだけ近付けないと蛍光面像がボヤけてしまいます。ただし、余り近づけると高い電圧がかかっていますので絶縁不良が起きてしまいます。高電圧がかかっている蛍光面とMCPを1/100mm程度の精度で製作する技術が確立した1970年代になって解像力のよいI.I.ができるようになりました。
▲ 蛍光面変換効率
蛍光面は、蛍光灯やテレビ受像機のように電子が蛍光面に衝突して光を発光するもので発光輝度、発光の色、発光のレスポンス(反応)等でいろいろな蛍光体が開発されています。通常蛍光面の材質を呼ぶときは、EIA (Electronic Industrial Association)に登録されている番号を使い、P11とかP20という呼び方をします。I.I.によく使われる蛍光面は、P20と呼ばれるものとP11です。P20は黄緑色の蛍光体で、数ある蛍光面の中でも高輝度で残像も比較的短い特徴をもっています。P11は青色の蛍光体で残像が少なく肉眼では暗い感じがしますが写真撮影ではP20よりも感度が得られます。I.I.を高速度カメラと接続して使う場合、この蛍光面の輝度と残像が問題になります。高速度カメラは、10,000コマ/秒の撮影条件で、ウルトラナックを使う場合30,000ルクス、16mmフィルムカメラE-10では、150,000ルクス程度の蛍光面輝度が必要です。150,000ルクスの明るさは室内蛍光灯の明るさに相当します。従ってE-10高速度カメラは、蛍光灯のような明るさをもつI.I.を使わなければ撮影できないことになります。蛍光材は、明るいものほど残像が多い傾向があります。残像とは蛍光面に電子が当たらなくなってもしばらくの間蛍光を発している現象のことで、レーダなどはこの特性を積極的に利用していますが、高速度カメラでは、次のコマ(映像)に前の像が持ち越されてしまうため的確な映像を得ることができず大きな問題になります。特に、定格以上の電子が蛍光面に当たったときは残像が極端に長くなるため、この症状を引き起こす明るい被写体での撮影では注意が必要です。逆に、蛍光面を短時間だけ光らせた場合の残像は、連続発光に比べ驚くほど改善できるため、第4世代のI.I.を使ってMCPを短時間シャッタリングしてP20の蛍光面残像を100μs以下に抑えることができます。ただし、第4世代のI.I.は先にも述べたように蛍光面が構造上明るくできないため、明るくできる第1世代のI.I.と組み合わせ、2段式として高速度カメラに接続します。
1996年、英国Imco(→英国Hadland社→DRS社)の開発し たILS(Intensified Lens System)は 、高速度カメラ用I.I.としては画期的な製品となりました。ILSが採用しているI.I.は基本的に第四世代のゲート式近接型イメージインテンシファイアを用いています。光電面・蛍光面の口径は双方φ40mmと世界最高クラスのイメージサイズを持ち、蛍光面が高速度カメラに耐えられる高輝度構造になっています。このコンセプトにより、ウルトラナックイメージコンバータカメラは勿論、ハイスピードビデオ(Kodak HS4540、MEMRECAM)、16mmフィルムカメラE-10での装着が可能になりました。
用途
レーダー
写真撮影
イメージ管
の蛍光面
カラーテレビ
オシロ
蛍光色
黄緑
青
黄緑
白
(R.G.B.)
黄緑
蛍光面最大輝度
(換算照度)
発光効率(K1)
(lumen/W)
520
137
480
520
230
発光体効率(K2)
(%)
5
17
9
6
22
エネルギー変換効率
(K1 x K2)
31
26
43
31
51
特徴
最も古い蛍光面
(スタンダード)
青色に感度あるため
写真撮影に効果。
P20の約2倍
イメージ管の
一般的蛍光面。
輝度、階調性
ともに良好
輝度最高。
残像長い。
蛍光色は白
オシロの一般的蛍光面。輝度最高。
残像長い
代表的な蛍光面材質の特徴
トップに戻る
● 一世代イメージインテンシファイア
第一世代のI.I.は、第二次世界大戦中の1940年代、夜戦用の暗視装置の要求から米国RCA社で開発されました。構造もシンプルで真空管 I.I. の入力に光電面、出力に蛍光面を配し、内部には電子レンズが置かれ光電面から放出された光電子が電子レンズ中央部でクロスして蛍光面に到達します。光電面像と蛍光面像は倒立像になり、対物レンズと組み合わせて正立像を得ます。光増幅率は、x 10〜x 200 で300ルクス程度に蛍光面輝度を高くすることができます。高速度カメラ用に設計されたものでは蛍光灯並の輝度を持つ高輝度I.I.も製作されています。近年のものは光電面と蛍光面に光ファイバーを使い内部を湾曲に処理して周辺の映像歪みと解像力を向上させています。I.I.の中では安価なため今でも暗視装置(ナイトビュア)として市販されています。
● 第二世代イメージインテンシファイア
第二世代は、第一世代のI.I.にMCPを内蔵させ光増幅度を飛躍的に向上させたもので1960年代から1970年代にかけて開発されました。φ10μmのファイバーを製造する技術が確立されてこのタイプのI.I.の完成を見ました。光増幅率は、第一世代に比べ1,000倍ほど向上し微弱な光を検出する道が開かれました。しかし、第一世代に比べMCPを使っているため蛍光面輝度が1/3程度と暗くなり、解像力も劣ります。
● 第三世代イメージインテンシファイア
1970年代になると、ミクロンオーダの製造技術と真空技術が発達し、光電面と蛍光面をできるだけ近づけて (近接させて)配置させる近接型I.I.が開発されました。MCP内蔵 近接型I.I.は、第二世代のI.I.の構成から電子レンズを取り除いた形のもので、非常にコンパクトになり増幅度も第二世代のままで、像の歪みが非常に少なくなりました。電子レンズが不用になったため光電面の像がそのまま蛍光面像となる正立像になりました。光電面から放射された光電子がMCPを通りそのまま蛍光面に到達するためMCPを含めた光電面-蛍光面距離をできるだけ短くしないと像がボケてしまい解像力に影響を与えます。コンパクトなため第四世代のI.I.と共に非常に良く使われています。蛍光面輝度は、第二世代の半分程度で10〜50ルクスと暗く、CCDカメラとの接続は可能なものの、35mmスティルカメラではISO 400のフィルムを用いても約1/2秒の露光が必要な明るさで、このI.I.単体で高速度カメラと組み合わせるのは不可能です。また、1,000コマ/秒以上の撮影では 600μs〜1ms 程度の残像が予想されるため注意が必要です。
● 第四世代イメージインテンシファイア
第四世代のI.I.は、第三世代のMCPの印加電圧をパルスモードにし希望する時間分のシャッタリングを行えるものです。このタイプの原理・構造は、第三世代のものとほとんど同じで、違いはMCPへの印加電圧がDC(連続)かパルスモードであるかだけです。1980年代よりMCP電圧をスイッチングするためのショートパルス高電圧スイッチング素子/回路が開発されて市販化されました。現在では、ナノ秒のゲートパルスがかけられる高圧回路や、2MHzの高周波ゲート発振が可能な高圧パルサーが開発されています。第四世代のI.I.は、CCDカメラと組み合わせシャッタカメラとして良く使われています。
↑にメニューバーが現れない場合、
← クリックして下さい 。
Anfoworld に戻ります。