|
||||
このコンテンツは、Adove GoLive6.0で制作しています。 | ||||
|
|||||
- ▲ スーパーカミオカンデ(Super-Kamiokande、Super-K)
フォトマルの使われている代表的な事例を紹介します。
- 小柴昌俊東京大学名誉教授(ノーベル物理学賞受賞)の研究で有名になったスーパーカミオカンデに使われているニュートリノ検出器には、大口径のフォトマルチプライアが使われています。(モデルR3600。設計製造は、浜松ホトニクス株式会社)
- このフォトマルは、口径が500mm以上あり、重量が約8kgもある大きなエチゼンクラゲのような形をしたガラス真空管でできています。形状が大きいのは、大きな光電面で非常に微弱な光を検出するためです。その光増幅率は、1000万倍と言われています。1000万倍の光増幅を達成するために、フォトマルにかけられる電圧は最大2,500Vとなっています。
- 光電面は、350nm〜650nm(ピーク感度波長は420nm、量子効率20%)の感度を持っていて、チェレンコフ光の青白い微弱な光を検出するために青色域に感度を持たせています。その材質は、バイアルカリ(Sb-K-Cs)であり、1700cm2(直径46cmの円状)の大きな光電面で受ける微弱光は、11段の増幅段(ダイノード)を経て2次電子を作り出し最大100uAの電流を取り出すことができます。
- この素子の光の反応は、10nsで応答し、光がフォトマルに入って電気信号として取り出すまでの遅れは95nsです。また、短いパルス光に関しては、5.5nsまでのパルス光を検出できます(Transit Time Spread [FWHM])。
- スーパーカミオカンデは、岐阜県の神岡町(岐阜県飛騨市神岡町池の山)の鉱山跡地に1995年に建設されたニュートリノを検出する巨大水槽と計測装置からなる設備です。初代の設備は、1983年に建設されたカミオカンデですが、スーパーカミオカンデの完成によってその役目を終えています。スーパーカミオカンデは、地下1000mに直径39.3m、高さ41.4mの円筒型水槽が埋設されて、ここに50,000トンの純水が満たされています。この水槽は、さらに内側と外側の2重構造となっていて、内側水槽(直径36.2m、高さ33.8m、容積32,000m3)はステンレス構造体で作られ、11,146本の20インチフォトマルが全水槽を覆うように配置されています(上面・下面各1,748個、側面7,650個)。外側水槽には、8インチ口径1,885個のフォトマルが内側水槽との仕切壁側に外向きに取り付けられています。
- これらのフォトマルは、宇宙から飛来するニュートリノが巨大水槽に入って減速する際に発光する青白い光(チェレンコフ光)を検出します。チェレンコフ光が非常に微弱であるのと、巨大水槽内で発光する光の空間位置と時系列を把握するために、11,000本の巨大フォトマル(20インチ)を配置してチェレンコフ光の発生をマッピングしています。8インチのフォトマルを外側に配置しているのは装置のバックグランド光を取り除くためです。
フォトダイオード(参考)。形状はいろいろなタイプがある。写真は左部の開口部の円形状がフォトダイオード部。右端子がBNCになっていて使いやすい。 | |||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
【CCD撮像素子の種類】
I. インターライントランスファー型(IT-CCD) - 現在、一般的なもの
II. フレームインターライントランスファー型(FIT-CCD) - 放送局用として使われているもの
III. フルフレームトランスファー型(蓄積部なし)(FF-CCD) - CCDの初期のもの
IV. フレームトランスファー型(蓄積部あり)(FT-CCD) - フレームトランスファ型の改良版
V. 全画素読み出し(プログレッシブスキャン)型 - インターライントランスファの改良型(インターレースを行わないもの)
- 512画素x512画素 / 100,000 Hz = 2.62秒 ・・・(Rec -4)
|
||||||
参考:Richard F. Lyon, Paul M. Hubel, Foveon, Inc. ,"Eyeing the Camera: into the Next Century", 2003 | Bayer素子が平面的に色情報を収集するのに対し、Foveonは垂直に色情報を収集する。従って、Foveonは色のにじみがない。 | |||||
- Sn ∝ √S ・・・(Rec -14)
- Sn: ショットノイズ
- S: 入射する光子数
【主な仕様】
■ カメラ
■ ビデオ特性
■ オプション
■ 寸法及び重量
- ・撮像素子が36mmx24mmと大きい(フルサイズ)。
- ・レンズは、ニコンのFマウント用レンズを採用。
- ・電子冷却を採用。ダークノイズ低減。長時間露光可能。
- ・メカシャッタに代えて電子シャッタ方式のCCD撮像素子を採用。
- ・インターライントランスファ方式にもかかわらず
- 12ビット濃度(4096階調)を達成。
- ・高画素で高速撮影(〜4コマ/秒)が可能。
■ カメラ
- ・撮像素子: インターライン
- プログレッシブスキャン型CCD
- (Kodak製 KAI-11000CM)
- ・ピクセル数: 10,709,376画素
- 4,008 (H) x 2,672 (V) 画素
- ・ピクセルフォーマット: 9.0um x 9.0um
- ・画素エリア: 36mm x 24mm(フィルムカメラのライカサイズと同じ)
- ・受光容量: 60,000 e-
- ・シャッタ: 電子シャッタ
- ・冷却: 電子冷却(室温より -5度の設定。ファン付きのものは室温より -15度)
- ・階調: 12ビット、66dB
- ・読み出しノイズ: 30 e-
- ・カメラレンズマウント: ニコンFマウント
- ■ 撮影操作
- ・カメラ操作及び画像読み出し: CameraLink もしくは IEEE1394a
- ・撮影速度: 最大4.63コマ/秒(CameraLinkにて30MHzでの読み出し時)
- 3コマ/秒(IEEE1394、白黒画像時)
- ・電子シャッタ露出設定時間: 192 us 〜 60秒(1us設定)(連続取り込み時)
- 19 us 〜 60秒(1us設定)(トリガーモード取り込み時)
- ・ゲイン調整: 0〜36dB
- ・ビンニング: 2x2、3x3、4x4
- ・ピクセル・クロック速度: 10MHz
- ・フレーム転送速度: 0.5フレーム/秒
- ■ 寸法及び重量
- ・寸法: 123.8(W) x 98.4(H) x 91(L) mm
- ・重量: 0.92kg
- ■ カメラ電源部(コンソール)
- ・接続カメラ台数: 4台(メガプラスIIカメラシリーズがすべて使用可能)
- ・カメラ-電源部ケーブル: 2m、5m、7m
- ・操作: 汎用パソコン(WindowsXP)にてIEEE1394もしくはCameraLink接続
- 操作ソフトウェア付
- カメラ認識、撮影速度、露出時間、ゲイン、ビンニング、ライブ画像モニタ、画像転送
- ・その他通信: Serialポート(オプション)、100Baseイーサネット(カメラファームウェアアップデート用)
- ・トリガ入力: デジタル信号(TTL、CMOS)による立ち上がり、もしくは立ち下がり信号。信号入力で決められた露出時間で画像取得。
- ・トリガ入力信号コネクタ: BNCコネクタ
- ・ストロボ出力: デジタル信号にて露出時間分だけ出力。
- ・ストロボ出力コネクタ: BNCコネクタ
- ・消費電力:15W/台(付属のACアダプタを用いてAC100Vから電源を供給)
- ・寸法: 157(W) x 50.8(H) x 157(D) mm
- ・重量: 1.14kg
- ・KAC-9618: VGA(648x488画素)、7.5umx7.5um、1/3"型、30コマ/秒
- ・KAC-9619: VGA(648x488画素)、7.5umx7.5um、1/3"型、30コマ/秒
- ・KAC-9628: VGA(648x488画素)、7.5umx7.5um、1/3"型、30コマ/秒
- ・KAC-00400: WVGA(768x488画素)、6.7umx6.7um、1/3"型、60コマ/秒
- ・KAC-01301: 1.3MP(1284x1028画素)、2.7umx2.7um、1/4"型、15コマ/秒
- ・KAC-05010: 5.0MP(2592x1944画素)、2.2umx2.2um、1/2.5"型、5コマ/秒
- ・KAC-3100: 3.1MP(2048x1536画素)、2.7umx2.7um、1/2.7"型、10コマ/秒
- ・KAC-5000: 5.0MP(2892x1944画素)、2.7umx2.7um、1/1.8"型、6コマ/秒
|
|
||||
|
|||||
|
||||||||||||||||||||||||||||||||
|
||||||||||||||||||||||||||||||||
|
|||||
|
|
||||||
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
||||||
|
||||||
- 1. 可視光以外の光を可視化することができる(紫外光、赤外光、X線)。
- 2. 電子レンズと偏向回路によって高速シャッタリングを行うことができる。及び複数枚の高速度画像が得られる(フレーミングで20,000,000コマ/秒、ストリークで数ピコ秒/mm)。
- 3. 電子レンズによって像強度の増幅を行うことができる(高感度)。
- 代表的なX線イメージャの外観。
- 入力面は球面形状でアルミ薄板か
- ベリリウムで覆われる。
- 大きさは対象物の大きさで決定される。
- 資料提供: 浜松ホトニクス(株)
- (1) シンチレータ(Scintillator)部
- X線は、量子エネルギーの高い光です。この光エネルギーを準位の低いエネルギー(可視光)に変換するのがシンチレータ(Scintillator)と呼ばれるものです。X線は紫外線エネルギー以上に量子エネルギーが高いので、いろいろな物質を励起させる力を持っています。しかしエネルギーが高いので励起させずに透過してしまうこともあります。従って、使用するX線エネルギーに対して効率よくエネルギーを吸収して可視光を発光するものが求められます。こうした物質の中で最も効率よく可視光を励起し、物質自体の粒子も細かくて、かつ使用環境で安定した構造を持つものが、ヨウ化セシウム(CsI)です。このシンチレータは、X線によって励起して420nmにピークを持つ青色の可視光の蛍光を発します。この発光は、転像管の光電面との相性がよく効率の良い電子変換ができます。また、ヨウ化セシウムは、沃素とセシウム双方の原子量が大きいためX線エネルギーを吸収しやすいという性質から理想的なシンチレータと言えます。従って、X線のシンチレータとしては、この蛍光剤が最もよく使われます。
- ヨウ化セシウム(CsI)がX線I.I.のシンチレータとして使われるようになったのは、1963年以降で、1972年から医療用として米国Varian社、オランダPhilips社、フランスThomson社、ドイツSiemens社が採用を始め、日本でも1974年に東芝、1976年に島津製作所が市販化しました。CsIがなぜこれほどまでに認められるようになったかというと、材質の原子量の重さやX線吸収係数、発光ピークの特性もさることながら、非常に緻密に(ぎっしりと)蒸着膜を形成できることにありました。CSIは基板上にほぼ垂直に結晶構造(断面が10um以下)を作ることができるので、それまでの沈殿法やスラリー法の膜状塗布よりも高密度のシンチレータ部を形成できるようになったのです。
- 入力部のシンチレータがなぜ曲面を描いているかというと、転像管部の電子レンズが凸レンズ効果だけなので、この電子レンズでは像面湾曲収差が取りきれないからです。そのためにX線像を受ける入力部(シンチレータと光電面)は曲面形状になっています。
- 入力窓は、窓材の保護のためにアルミニウムかベリリウムで覆われています。通常はアルミニウムの薄膜が使われますが、弱いX線光源を使う場合には、この窓材部分で吸収が起きてしまうので、アルミニウム材に代えてベリリウムが使われます。しかし、ベリリウムは高価なことと毒性が強い材料のため、弱いX線エネルギー用や小さい口径のX線イメージャー用に限って使われます。
- (2) 転像管部
- 転像管は、シンチレータ(CsI)によって青色(420nmピーク)蛍光像を背後で直接コンタクトしている光電面で受けて、電子像に変換し、蛍光面で再び可視光像に変換するものです。
- 転像管をなぜ使うのかと言えば、以下の理由によります。
- 1. X線像をカメラで撮影できるように光学像を縮小するため。
- 2. 縮小した画像を動画撮影を行うために、フィルムカメラや撮像管、
- CCDなどの撮像素子を取りつけるため。
- 3. X線が微弱なために(つまり、強いX線光源が作れない、または、
- 被爆が大きいため強い光源が当てられないために)X線像の光増幅を行う必要がある。
- 転像管は真空管ですから装置には高電圧がかかります。
- 転像管の撮影倍率は、シンチレータ部の入力窓の大きさと出力蛍光面の大きさの比で表されます。
- M = a / A
- M :撮像管の撮影倍率
- a :出力蛍光面の大きさ
- A :入力部(シンチレータ部)の大き
- X線イメージャの入力面径は、10cm〜57cm(4インチ〜22.5インチ)が市販化されていて、大型のものほど医療用(消化器、循環器)に製造されています。出力蛍光面の大きさは、φ60mmが一般的です。従って、X線イメージャの撮影倍率は、
- M = 1/1.7 〜 1/9.5
- となります。蛍光面はφ60mmと大きいので、CCDでこれだけ大きい素子はありませんから、直接ファイバーカプリングをせずにリレーレンズを使って縮小して撮影を行います。
- (3) 撮像部
- 撮像部は、転像管で形成された光学像を記録するためのものです。1990年代までは、フィルムカメラや撮像管カメラが使われていました。最近では、CCDカメラが使われています。転像管の出力部は可視光を発する蛍光面になっているため、ここで作られる光学像をリレーレンズによってカメラに導きます。
- リレーレンズに代えて光ファイバーで直接カメラとカプリングする方法もあります。この方が光の転送効率が良いので1桁以上も明るくなります。しかし、ファイバーカプリングの場合は、以下の問題がありますので、取り扱いには注意が必要です。
- 1. ファイバー繊維系の大きさとCCD撮像素子の画素サイズの選択を間違えると、解像力が極端に落ちる。
- 2. 両者の兼ね合いでモアレ(干渉縞)が現れる。
- 3. ファイバーカプリングでは、X線エネルギーの入射光路とカメラの撮像面が直線に並ぶために、
- X線エネルギーがシンチレータ部で十分な吸収が行われない場合、撮像面に直接照射される危険があり
- 撮像面にダメージを与えることがある。
- 52.7 us x 4.2 MHz x 2 = 442.7 TV本 ・・・(Rec -25)
|
||||
|
||||
- 1,000 画面 / 秒 x 525 走査線 / 画面 x 300 白黒本/走査線 x 1/2
- = 78.8 MHz ・・・(Rec -26)
|
|||||
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|
|||
- 1940年代後半から、現在までテレビ放送に長く君臨してきたNTSC規格は、一秒間に30枚の映像を4.2MHzの帯域で情報処理して送信することができました。この信号は、何度も述べますがアナログ信号でした。1990年までの技術では、同じ内容の映像信号をディジタルで送ることはできませんでした。その理由は、アナログ信号では、送信帯域の4.2MHzが解像力に相当し、信号の振幅成分がダイナミックレンジに対応するのに対し、ディジタル信号ではダイナミックレンジ8ビット分も周波数成分に直さなければならず、帯域が不足してしまうからです。
- 一枚の画像を、最も古い通信規格であるRS232C通信で転送することを考えてみましょう。この時、送信する画像は、512画素x512画素、 8 ビット(白黒)で量子化(ディジタル化)したものと仮定します。RS232Cは、1秒間に最大9,600ビット(= 9,600baud、9,600 bps)のデータを転送できます。これを単純に計算すると、
- 512画素 x 512画素 x 8ビット/画面 x 1/9600 ビット/秒 = 3分40秒 ・・・(Rec -31)
- となり、最高の転送速度でも、1枚の画像を送るのに3分40秒かかることになります。NTSC信号(アナログ画像)では、この時間に6,600枚の映像が送れました。実際のところ、RS232C信号では信号の転送を確実にするために、データの切れ目にストップビット、パリティチェック、Xパラメータなどが入り、これにより3 〜 5倍の転送時間がかかります。このことから、RS232C(FAX、コンピュータモデム通信も似たようなもの)を使って映像を送ることがいかに気の遠くなるようなことなのかが理解できると思います。
- アナログ信号による撮影と記録は、デジタル通信速度が遅い時代には、確固たる強い地位を築いていたのです。
- ■ RCAコネクタ/ケーブル
米国の音響・映像メーカーRCA(Radio Corporation of America)社が、1940年代に開発した音声信号の接続端末コネクタを、RCAコネクタ(右写真。使用周波数: 10M Hz)と呼んでいます。このコネクタは、蓄音機(レコードプレーヤ)の音声信号をアンプに接続するために開発されました。安価であることと、使い勝手が良いこと、性能が良いことから一般的になり、オーディオ機器にはすべてこのタイプの端子が使われていました。ビデオの時代になっても家庭用の信号ケーブルにはRCAコネクタケーブルが使われました。映像信号でも、家庭用のビデオ帯域であるならば十分な性能を確保できたものと考えます。しかし、放送局や周波数の高い信号を扱う分野では、性能が満足できなかったので、以下に示すBNCコネクタが一般的になりました。
- RCAコネクタは、比較的太い正極棒が中心にあり、その周りを「割り」の入ったグランドターミナルで囲まれています。「割り」が入っているのは、バネ効果を利用してプラグ装着時の接触性を良くするためです。コネクタのピン接続は、電気信号を通信する上でトラブルの多い部分です。ピンの接続は、微視的に見ると面で接触しておらず点で接触しています。そのためにバネ作用を利用して力を与えてコンタクト面をできるだけ多くしています。また、コンタクト面に金メッキを施して接触性を高める工夫もしています。
- 現在のRCAケーブルは、家庭用のアナログAV機器によく使われていて、右に示したような色分けしたケーブルで、映像信号(黄色)、音声信号右側(赤色)、音声信号左側(白色)という取り決めになっています。アナログ信号は、デジタル機器が主流になってきている現在にあっては使われなくなる傾向にあります。
- ■ BNCコネクタ/ケーブル、映像出力インピーダンス(75Ω)
- ビデオ信号を取り出してVTRやモニタに接続するときに、使用する接続ケーブルのことを、我々は何気なく「75Ω同軸ケーブル」と呼んでいます。また、ビデオ信号のコネクタは、BNCと呼ばれるワンタッチで接続できるコネクタと、RCAと呼ばれるピンジャック方式のコネクタを使用しています。BNCは、RCAに比べると高価なコネクタで、放送局用や計測機器などの高級な装置に使われます。ピンジャック(RCA)コネクタは、家庭用のオーディオ、ビデオ機器などの低い周波数(10MHz程度)のケーブル接続に使われています。
- 映像信号は、非常に高密度な(周波数が高い)信号ですから、ノイズに対して敏感に反応します。また、接合部(コネクタ部)で信号速度が変化し、高周波信号であるほどその問題は顕著になります。BNCコネクタは、映像信号を扱う帯域では、こうした問題をクリアする満足できるものでした。高周波信号を扱うコネクタとしては、今述べているBNCコネクタや、M型コネクタ、N型コネクタ、F型コネクタが使われてきました。こうしたコネクタは、通信分野で培われ発展してきました。
- BNCとは、Bayonet Neill Concelman connectorの短縮名称です。時に、British Naval Connectorとか、Bayonet Nut Connectorとも呼ばれていますが、いずれも誤りです。BNCコネクタが使われる前には、N型コネクタ(下写真参照)と呼ばれる高周波信号用のケーブル結線コネクタがありました。これは、BNCより一回り大きなねじ込み式の耐水型高周波対応(12GHz)のものでした。N型コネクタは、ベル電話機研究所のPaul Neillが1940年に開発しました。また、Cコネクタ(使用周波数: 12GHz)と呼ばれるものが、Amphenol社(コネクタで有名な米国の会社)のエンジニアCarl Concelmanによって設計され、放送局用のビデオ信号コネクタとして使用されていました。この二人(NeilとConcelman)の設計したコネクタの良い所をとって、より簡単に確実なコネクタを作ろうということで、1940年代に作られたのがBNCコネクタだったのです。BNCは、人の名前を取ってつけられた名前です。BNCコネクタの使用周波数帯域は、2GHzとなっていて、N型コネクタの12GHZよりも一桁も低い性能ですが、取り扱い勝手がよいので、周波数帯域の低いビデオ信号用に重宝されました。BNCコネクタは、イーサネットケーブルの初期のタイプの10Base-2 にも採用されました。また、デジタル放送の通信ケーブルであるHD-SDIにもBNCコネクタが使われています。
- 同軸ケーブルは、ケーブルの芯が銅線でできていて、その回りをポリエチレンなどの絶縁物で覆い、さらにその回りを網状のシールド線で覆っています。電気を流す時、ケーブルが長いと抵抗が増えて遠くまで流しずらいという性質があります。不思議なことに、交流を流す場合には、ケーブルの持つ直流抵抗(オーム)と、インダクタンス(誘導)、それにキャパシタンス(容量)を特定の値にしておくと、ケーブルの長さに関係なく、高周波数に対し一定のインピーダンス(交流の抵抗値)を示すようになります。つまり、(交流)インピーダンスの取れたケーブルを使うと、ケーブルの長さに関わらず電気信号(高周波信号)を損失なく伝えることができ、5mでも40mの長さでも良好な電気信号を得ることができます。
- 一般の同軸ケーブルは、現在、50Ωと75Ωの2系統あります。75Ωはビデオケーブルによく利用され、50Ωは、通信ケーブルや、コンピュータの初期のイーサネットケーブルに使用されました。
- BNCコネクタ。
- 「N」型コネクタと「C」型コネクタを組み合わせバヨネットタイプとした。両者よりも小型化した。
- 「N」型コネクタ。
- BNCの原型。ねじ込み式。
- 「C」型コネクタ。
- BNCの原型。メスのアースに取り付けられた2つの突起(stud)にひっかけて着脱する方式はBNCと同じ。
|
|||||
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
- パソコンに備わっている通信ポート群をよく見ると、COM(もしくは、|O|O|)と書かれた9ピン(もしくは15ピン)の端子がついているのがわかります。COMというのは、Communication(通信)の略で、通信ポートの意味です。このCOMポートが、実はRS232Cという通信ポートなのです。RS232Cは、電話回線を使った通信(モデム通信)を前提にして、1969年に作られた(40年も前です!)インタフェース規格です。「C」バージョンの原型であるRS232は、1962年にできています。1962年当時は、IBMの大型コンピュータがトランジスタ素子を採用してやっと軌道に乗った時代でした。また、この時期は、デジタル素子であるTTL(Transistor-Transistor Logic)が米国テキサスインスツルメンツ社から市販化されはじめた時期です。
- 1980年代にパソコンができてから、イーサネットが標準装備されるまでの15年間は、このRS232Cがパソコン通信の代表的な通信手段でした。音響カプラーと呼ばれる装置(電話の受話器にお椀のようなものを取り付けて、FAXを送る際のコール/アンサー信号のような音源でデジタル通信を行った装置)もこのRS232C規格を採用していました。
この通信手段は、名前からもわかるように、米国EIA(Electronic Industries Association: 米国電子工業会)が制定したもので、データ端末装置(DTE: Data Terminal Equipment)と回線終端装置(DCE: Data Circuit terminating Equipment)の両者について、機械的・電気的な仕様を定めたものです。信号は、±10V(ドライバやレシーバ回路電源は±12V)程度で、規格上の伝送速度は、20Kb/s以下となっていました。通信速度を示す9600ボー(baud、bit per second = bps、ビット/秒)が有名な数値と単位です。通信設定の際にちょくちょく目にした9600という数値は、RS232の規格上の半分の速度設定だったことがわかります。データは、不平衡信号であるためグランド線とデータ線で構成されていて、現在の主流である差動信号ではありません。差動信号は、その後のRS422で採用されました。RS232Cは、従ってノイズに対して弱く、データ転送の負荷容量CLが2500pF以下だったため、ケーブル長さは十数メートルに制限されていました。それ以上に長くすると、通信エラーが起きて性能を満足できなくなりました。ただし、コンピュータ同士のインタフェースとして使用する場合には、一般公衆回線よりも雑音が少ないので、もっと高速、あるいはもっと長いケーブルを使用しているケースもありました。
- 現在(2009年)でも、COMポートはパソコンに標準で装備されています。淘汰の激しいパソコンのインタフェースの中にあって、40年も採用され続けているのは驚きです。この規格は、簡単なリモート制御を行うにはシンプルでとても安定しているので、ちょっとした機器の接続に今でも使われています。しかし、画像を送ったりインターネットを見る目的には速度が遅すぎるため適合せず使われていません。
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
この規格は、1970年、米国Centronics Data Computer社が自社製品のプリンタに装備したインタフェースです。大型のD-subコネクタを使ったプリンタポートです。開発当時、同社がワイア・ドット・プリンタで大きなシェアを占めていたため、プリンタインタフェースの事実上の標準となりました。この規格は、後にIEEE1284として標準化されました。パソコンが普及するはるか以前から構築された通信規格です。
- 最初の規格では、Centronics社でプリンタ用に大量に余っていたアンフェノール社のD-Sub 36ピンのコネクタを使っていましたが、IBM社がIBM-PCにプリンタポートで採用したコネクタは、D-Sub 25ピンでした。従って、初期のセントロニクスケーブルは、36ピン - 25ピンのケーブルが必要でした。双方が25ピンのコネクタを使ったケーブルを使用し出したのは、プリンタメーカのHP(ヒューレット・パッカード)社です。1992年にHP社から発売されたLaser Jet 4 には25ピンのポートが採用され、これよりセントロニクスケーブルはより使い勝手の良いものになりました。この規格は、2年後の1994年にIEEEで採択されてIEEE1284規格となりました。
- この規格は、プリンタポートとして大きな普及を見て、2004年までのパソコンには大抵装備されていました。しかし、最近のパソコンには装備されなくなりました。セントロニクス装備のプリンタがなくなり、プリンタ接続は、USB2.0やイーサネット、あるいは無線のBluetoothに切り替わって来たので装備する意味がなくなったからです。
- このプリンタポートは、プリンタ機器の接続という本来の目的の他に、ソフトウェアのプロテクトキー(ドングルキー)を挿入するポートとして使われて来ました。しかし、それもUSBキーにとって替わられています。
- セントロニクスは、非同期式の8ビット・パラレル転送方式をとっていました。8本の信号線を使って各線1ビット、合計8ビットの信号を500k バイト/秒程度でデータ転送を行っていました。信号は不平衡信号でした。従ってグランドは共通にすることができます。パラレルなのでシリアルのRS232Cより25倍も高速に転送できました。しかし、パラレル転送は、クロストーク(混信)の問題があり、ケーブル長をあまり長くとることができませんでした。これは、パラレル転送の宿命とも言えるべきものです。
- 25ピンのセントロニクスの主な信号とピンアサイン及び機能を紹介します。
- * ピン1:STROBE:パソコンがデータを送信したことをプリンタに伝える同期信号。
- * ピン2-9:DATA1-DATA8:8ビットのデータ信号。
- ---------------------------------
- * ピン10:ACKNLG:プリンタがデータを受信したことをホストに伝える同期信号。
- * ピン11:BUSY:プリンタが次のデータを受信できないことを示す信号。
- * ピン12:PE:プリンタ用紙の終わりを知らせる信号。
- * ピン13:SEL:プリンタの選択信号。
- * ピン14:LF:プリンタの行換え信号。
- * ピン15:ERROR:プリンタのエラー信号。
- ---------------------------------
- * ピン16:PRIME:コンピュータの初期化信号。
- * ピン17:SEL:コンピュータの選択信号。
- ---------------------------------
- * ピン18 - 25:GND:8本のグランド信号線。
- 計測器メーカで有名な米国ヒューレット・パッカード(HP)社(現Agilent Technologies社、HP社より分離独立)が、1960年代に開発し規格化したデータ転送規格です。当時のHP社は、温度センサーやプロッタなど優れた計測装置を設計、製造していたメーカーで、こうした計測装置を有機的に結びつける必要上、機能的に優れた使い勝手の良いデータ転送方式を編み出しました。HP社では、これをHP-IB(Hewlett-Packard Interface Bus)と呼んでいましたが、他のメーカーがこのバスを使用するようになって、General Purpose Interface Bus(GP-IB)として知られるようになりました。このバスは、1978年にIEEEが取り上げて、IEEE-488として規格化されました。
- ■ パラレル信号ライン
- 当時、GP-IBの斬新だった所は、8本の信号線にビットをあてて8ビットとし、他に8本の制御信号線を設けてデータの入出力をコントロールしたことです。GP-IBでは16本の信号線と8本のグランド線の合計24本(24ピン)で構成されています。データ線は8ビットのため8本(DIO1〜DIO8)あり、グランド線は共通で1本が配置されていました。制御線は、3本のハンドシェークバス(DAV、NRFD、NDAC)と5本の管理バス(ATN、REN、IFC、SRQ、EOI)の合計8本からなっていて、RENとEOIを除いた6本はすべて個々にグランド線があてがわれてペアとなっていました。RENとEOIはデータ線と共通のグランド線となっていました。24ピンのうちの1つはシールド線に結線されていました。信号は不平衡信号です。
- ■ アドレス指定
- GP-IBを接続する装置には、アドレスが機械的に割り当てられていて(DIPスイッチと呼ばれる小さいON-OFFスイッチで装置番号を設定した)、アドレスを設定した相手にデータを確実に送ることができるようにしていました。従って、GP-IBでデータ送信する機器(トーカ)にはデータ列の前にどの機器に送るかを宣言する方式になっていました。リスナGP-IBでは、ケーブルを数珠つなぎ(デイジーチェイン)にしても、並列接続をしても、中継ボックス(Hubなど)を介さずに接続することができました。ただ、ケーブル長さは、すべての合計が20m以内でなければならず、接続する機器も合計で15ヶ以内という決まりがありました。(機械番号を認識するDIPスイッチが4つだったので、16個の装置までしか認識できませんでした。)ケーブル自体は、あまり長くなく1〜2mが多かったような記憶があります。そして太いケーブルでした。
- ■ 転送速度
- この規格でどのくらいの速度でデータが送れたかと言うと、1MHzのクロックで8ビットのパラレル信号が送れるので、理論的には最大1Mバイト/秒となります。この通信速度は、温度や圧力などのデータを送るのにはそれほど不便は感じないものの、画像転送に使うとなると非力になるのは否めません。例えば、512x512画素8ビットの白黒画像を送るとすると、1/4秒での送信が計算上可能です。実際の所、1990年代始めに行った我々の実験では、GP-IBの転送手順と同期の関係から30秒〜1分程度かかっていました。理論よりも100倍から200倍も時間がかかっています。当時は、GP-IB以外に信頼できる高速通信可能な手段がなかったので、こうした通信手段で画像を送っていました。しかし、これではあまりにも時間がかかるので、1990年代中頃には、SCSIによる画像通信が一般的になりました。これも、2000年を境にして次第に使われなくなりました。
![]()
![]()
- GP-IBケーブル。長さは70cm程度と短いものが多かった。ケーブルは8本のパラレルデータ線なので太い。
- コネクタは、重ねて接続できるようにメスとオスが双方にもうけられていた。
- 下の図は接続例。重ね接続でも芋づる接続でも接続可能であった。
- 接続機器にはすべてアドレス(4ビット)が割り振られ、アドレスにそって
- データの送受信が行われた。
- DMAは、データの転送をCPUを介さずに直接転送する方式です。CPUのクロックが数MHzと低かった時代、CPUのクロックに乗せてRAMメモリのデータをハードディスクに書き込んでいたのでは時間がかかりすぎるので、データ転送は専用のプロセッサに任せて行う方法が取られました。これがDMA転送です。この手法は、現在も形を変えてパソコン内部のデータ転送に生きています。
- VMEバスは、米国モトローラ社が1981年に自社のCPU68000用のデータ転送用に開発したバスで、Versa Module Eurocardの略から来ています。回路基板にユーロカード規格を採用したので、使い勝手の良さから広く使われるようになり、米国の規格IEEE1014-1987として登録されました。
- 初期のものは、16ビットバスでユーロカードDINコネクタをスロットに採用していました。現在では、64ビット対応になり、カードも6Uサイズになっています。
- SCSIコネクタ。
- この他に数種類のコネクタがあり、接続に注意が必要であった。
- SCSI(すかじー)は、1979年に米国Shugart社(Seagate Technology社の前身でフロッピーディスクの製造会社)が周辺機器(特にHDD)向けに作成したSASI(Shugart Associates System Interface)をベースとしたものです。これに機能の拡張や追加を行い、1986年米国規格協会(ANSI)がX3.131-1986として標準化パラレルインタフェースとしました。SCSIは、Shugart社でこの規格の開発に従事したLarry Boucherが1986年にAdaptec社を創設して製品の開発につとめ、SCSIの性能向上に努めました。
- SCSIは、イーサネットやUSBが普及するまでの間高速転送の主流でした。2000年までの多くのパソコンは、高速大容量データ転送用としてSCSIインタフェースボードをPCIボードスロットに差し込んで、これにハードディスクドライブやCDドライブ、プリンタなどを接続していました。当時としてはもっとも高速にデータ通信ができるパソコン周辺機器の通信規格でした。現在は(2003年〜)、RAIDなどのミッションクリティカルな高速通信目的以外ほとんど使われていません。その理由は、SCSIより使い勝手が良くて速度の速い通信方式(イーサネット、USB2.0、IEEE1394)が出現したためです。SCSIは、周辺機器を7台まで芋づる式(デイジーチェーン)に接続可能なインタフェースでした。接続の最後には必ず終端処理(ターミネータ)を施しておく必要がありました。
- 使用するコネクタのピンは50本で、データ用は9本(うち1本はパリティ)、制御用に9本の信号線を使っています。SCSIバスの電気的条件として、最大ケーブル長6mの非平衡型と最大ケーブル長25mの平衡型(差動型)が規定されています。非平衡型は負論理(LOWでアクティブ)の信号線とグランド線で構成され、その電位差でHIGHとLOWを決めています。一般には、非平衡型が用いられていて差動型との共存は不可能です。従って、SCSIケーブルは6m長が標準でした。SCSIの進化過程を以下に述べます。
- 1. SCSI-1 : 8ビットパラレル、5Mバイト/秒、1986年
- 2. Fast SCSI : 8ビットパラレル、10Mバイト/秒、1994年
- 3. Fast Wide SCSI : 16ビットパラレル、20Mバイト/秒、1996年
- 4. Ultra2 SCSI : 8ビットパラレル、40Mバイト/秒、1997年
- 5. Ultra3 SCSI : 16ビットパラレル、160Mバイト/秒、1999年
- 6. Ultra-640 SCSI : 16ビットパラレル、640Mバイト/秒、2003年
- SCSIはその後、安価で高性能なIDEの台頭と、使い勝手が良く高性能なUSBの出現で次第に存在価値が絞られてきています。
IDEは、SCSI に置き換わるようにして発展してきたもので、ハードディスク(HDD)の高速データ転送を目的にしていました。SCSIがハードディスクを初めて開発したシュガート(Shugart)社から作られたのに対し、IDEはライバルのウェスタンデジタル(Western Digital)社とクローンパソコンで台頭した米国Compaq Computer社(現在はHP社に吸収)の共同で開発されたものです。SCSIとIDEは、ライバル関係にあったのです。しかし当初は、SCSIの方が高速・高性能でした。IDEは安価なことがウリでした。IDEの開発は1986年ですから、パソコンが台頭し始めた初期からありました。IDEは、SCSIと比べてデータ転送速度が遅い欠点がありましたが、IDE規格のHDDが安かったため急速に普及していきました。SCSIが外部装置との接続ができるようにケーブルやPCIカードを整えたのとは対照的に、IDEはIBM PCATバスにハードディスクを直結するためのインタフェースに終始しています。したがって、IDEケーブルは右写真に見られるように、リボン(フラット)ケーブルになっています。価格を抑えた設計に終始しているのが理解できます。
- IDEが大きな普及を見たことにより技術開発も進んで、2000年を越えたあたりから速度的にもSCSIとほとんど遜色がなくなりパソコン内部のインタフェースバスとして揺るぎない位置を占めるようになりました。2009年にあっても、HDD、DVDを接続する主要のインタフェースバスとして使われています。
- IDEは、ANSI(American National Standards Institute、アメリカ規格協会)によって1988年に規格化されたために、その規格名からATA(Advanced Technology Attachment)と呼ぶこともあります。
- IDEのコネクタは40本の信号線から成り、接地線を除く34本の信号線でデータの転送や制御を行っています。データ転送用には16本の信号線(16ビット)が使われています。グランドラインは16本すべてにあてがわれていないので信号は不平衡信号になります。IDEに使われているケーブルは平べったいリボン状のもので、ケーブル長さは最大18インチ(45.7cm)と規定されています。これはケーブルとしてはすごく短いもので、コンピュータ内部でしか使えない長さです。ケーブルの形状からわかるようにIDEではツイストペア信号になっていないことがわかります。ケーブル自体もシールドされていません。
- ATA規格では、制定当初は3.3MB/秒の転送速度であったものが、最近のATA-7規格では133.3MB/秒の転送速度を持つに至っています。
- イーサネットポート。ツイストペアケーブルを使ったイーサネットは、4対(8本)の通信線で構成されている。
- イーサネットプラグ(8P8Cモジュラージャック)。
- これで1Gbpsの送信が可能!
- ラッチは、取り外しを頻繁に行うと折れやすい。
- インターネットやローカルエリアネットワーク(LAN)の普及とともに、よく知られる通信手段となったものにイーサネット(Ethernet)があります。イーサネットは、コンピュータ同士を有機的に結びつける通信手段として急速に発展しました。イーサネットによる通信は、RS232Cと同じように一本の信号線で行われていました。初期のイーサネットは、1本のBNC同軸ケーブルが使われていました。現在はモジュラージャックを使った4対(8本)の信号線になっています。イーサネット接続によるデータ通信は、非常にたくさんの通信機器と合流・相乗りができて、最大10Mビット/秒の転送速度の通信が行えました(10Base)。イーサネットの大きな特徴は、長い距離に渡ってたくさんの機器を機能的に結びつけられることでした。高速通信も1990年代当時としてはとても速いものでした。
- 私が10Baseのイーサネットを使って画像通信の実験した1999年当時、640x480画素の画像1枚(BMPフォーマット画像)を20秒程度で転送できました。
- 640画素 x 480画素 x 8ビット x 3画面 ÷ 20s = 368.64kbps ・・・(Rec-33)
- 上の計算が示すように、10Mビット/sの通信ラインで実効値0.4Mビット/sの通信速度をもっていました。これは、公称データの4%の速度にあたります。これが、当時最も早く画像データを転送できる通信手段の一つだったことを覚えています。その後、Ethernetの伝送速度は100Mビット/秒に高速化され、Fast Ethernet = 100BASE-Tに対応した製品が普及しました。この規格を使えば、従来よりも画像転送時間を1/10に短縮することができました。
- 2002年頃からは、ギガイーサネットと呼ばれる1000Mビット/秒の通信速度をもつネットワーク通信システムが市場に出回るようになりました。この規格は、100Baseの規格のさらに10倍の転送速度を持っていました。この規格で高速度カメラの画像をダウンロードをしているものに、米国Redlake MASD社のHG-100K(2002年、現IDT社)があります。デジタル画像転送では最も確実な高速転送を行っているものです。
- わたしの家庭のLAN(2004年〜2009年時点)では、デスクトップパソコンとノートパソコンのデータ通信を64Mビット/秒で転送しています(900MBのデータを約110秒で送ることができます)。デスクトップとノートパソコンが1000BASE-Tなので、そこそこの性能が出ているといえます。
- イーサネット通信は、社内LANやインターネットでも使われている非常に安定した信頼性の高い通信手段で、通信距離もHUBを利用すれば距離に関係なくデータを送受信できます。
- イーサネットの問題点は、ネットワーク内にたくさんの情報が入り込んできたときに情報の交通渋滞がおきて目的とする通信速度が達成できなくなることです。これは、イーサネットの成り立ち上、そして送受信の原理から致し方のないものです。使用者は、そうした原理をよく知ってデータの通信を上手に行わなくてはなりません。
- ▲ イーサネット開発の歴史
- イーサネットの開発は、1973年に始まります。随分と早い時期に着想されて開発されました。パソコン(IBM-PC、1981年)ができる8年以上も前のことです。この通信手段は、米国のゼロックス社の研究所、PARC(Xerox Palo Alto Research Center)で考え出されました。その中心人物は、ボブ・メトカーフ(Robert Metcalfe:1946.04.07 - 、1979年3Com社設立)でした。イーサネットのアイデアの原点は、米国が軍需用にデータ通信を構築していたARPANET(Advanced Research Projects Agency Network、1969年)に始まります。ARPANETは、現在のインターネットの母体でもあります。その開発の一貫としてARPAから資金援助を受けていたハワイ大学のノーマン・アブラムソン(Norman Abramson: 1932.04〜)が、ハワイに点在する島々を無線を使ってパケット通信を行うことに1970年に成功しました。この通信網はALOHAnet(アロハネット)と呼ばれました。ALOHANETは無線通信であったものの、複数の機器が同一ネットワークを簡単に構築できる特徴を持っていました。このネットワークでは、データ通信の周波数を一定にしてデータを細切れのパケットとして送信を行っていました。パケット通信は、現在のデジタル通信においては携帯電話や電話などすべての分野でつかわれているものです。この細切れのデータ(パケット)の送受信を確実にするために、受信した相手からデータを受け取ったとする確認の信号が返ってくる仕組みを作り送受信を確実にしました。また、複数の機器が同時にデータを送信した時に生じるデータ衝突を回避する機能も持っていました。この機能は以下に述べるCSMA/CD(Carrier Sense Multiple Access/Collision Detection)として発展します。
- イーサネットの初期構造は、一本の同軸ケーブルにコンピュータから接続線を延ばして結線していた。
- ハブ構造ではなかった。
- 1本の同軸ケーブルは、終端処理されデータの混信を防いでいる。データの送受信は、現在のネットワークに比べるとシンプルであった。反面、信頼性は低く、通信トラブルも多かった。
- コンピュータ同士が通信し合えるという画期的なものであった。
- ALOHAnet通信方式に興味を持っていたのが、当時ハーバード大学大学院生であったボブ・メトカーフでした。彼は、ハーバード大学院時代からARPANETの研究に従事していました。彼は大学を卒業した後、ゼロックス研究所(PARC)に就職します。PARCでのメトカーフの研究グループは、何台ものコンピュータ(Alto)とプリンタ間相互の通信速度を上げる方法を探していました。当時のコンピュータの通信というのは、パソコン同士ではなくて紙へ出力するプリンタへの通信が主目的でした。
- 彼らが1973年に開発したコンピュータのアルト(Alto)は、時代の最先端を行くもので、現在のパーソナルコンピュータの主流技術であるマルチウィンドウ(複数の画面を表示できる機能)を持っていたり、表示画面をビットマップ処理によって表示し、アイコンを備えてsmall talkという言語でゴミ箱やフォルダ操作を感覚的に行うことができました。また、パソコンの操作にはマウスを使い、コンピュータ同士が通信し合えるネットワーク機能を備えるまで進化させていました。現在のパソコン(Windows、マッキントッシュ)のほとんどの機能が当時のAltoに集約されていたのです。彼らが開発したマウスや、マルチウィンドウ、アイコンのアイデアは、30年の歴史を持つパソコンの世界で生き続けています。Altoは市販されませんでしたが、Altoの機能のほとんどを取り入れたパソコンがアップル社からLisa(リサ、1979年)として発売されました。Altoはアップル社とは別にゼロックスの研究所で進化し、1981年にXerox Starとしてワークステーションの位置づけで市販化されました。このワークステーションは、イーサネット機能を装備した最初のコンピュータでした。
- 当時、コンピュータもプリンタもそれ自体の処理速度はそこそこ速くなっていました。しかし、プリントに要する時間がとても長くかかっていました。プリントに長い時間がかかる原因は機器双方のどちらでもなく、二つのマシンをつなぐケーブルにありました。印刷するページ画像は、いったんコンピュータのメモリ上で組み立ててから、ビット単位でプリンタに転送されます。プリンタの解像度が600dpi(ドット・パー・インチ。解像度の単位で1インチ当たりのドット数を表す)の場合、ケーブルを経由して1ページあたり3,300万ビット(4MB)以上のデータを送り出さなければなりません。当時のコンピュータは、1ページ分の画像を1秒間でメモリ上に展開でき、プリンタはそれを2秒でプリントできました。しかし、問題はデータの転送であり、当時は高速だと考えられていたシリアル転送を使っても、このデータを全て送り出すのに15分近くかかったのです。
- ■ CSMA/CD(Carrier Sense Multiple Access/Collision Detection)
メトカーフは、データを通信する方式として電話の共同加入線(パーティライン)という概念を導入しました。パーティラインとは、電話会議に採用されている電話通話の方式で、一度に複数の人たちと会話(電話会議)ができるものです。パーティラインに参加する人たちは、通常、電話で話かける前に、受話器に耳を傾けます。そして誰も回線を使用していない合間を縫って話しをはじめます。また、パーティラインに流れている情報に対して、興味がなければ何もしなくてよく、自分に関係があることや情報を提供したいときにパーティライン上に話を持ち出せば興味のあるパートナーがそれを聞いてくれて反応してくれるという仕組みになっています。イーサネットも同じ方式を採用しました。つまり、回線の様子をうかがって、他で転送が行われているようならばランダムに時間をあけてもう一度かけ直す方式としたのです。電話回線の状況を見ながら話したい相手に情報を届ける方式を採用しました。こうすることにより、複数のコンピュータとプリンタは一本の同軸ケーブルで配線できるようになります。同軸ケーブルには、一秒間に267万ビット(2.67Mbps)のデータを転送できるようにしました。この方式によって、それまで15分かかっていた解像度600dpiで印刷する書類の転送時間を12秒まで短縮できるようになりました。
- データ通信の制御を行うこの方式は、CSMA/CD(Carrier Sense Multiple Access/Collision Detection)(キャリア検知多重アクセス/コリジョン検出)と呼ばれているものです。難しい名前がつけられていますが、仕組みは先に述べた通りです。つまり、イーサネットでつながったコンピュータは自由な発言が許される反面、他の相手が話しているときには発言することができない工夫を施し、相手が発言しているかどうかを見る機能を備えたのです。それがキャリア検出(Carrier Sense)機能です。もし同時に発言が出されて衝突が起きた場合は、これを回避する衝突検出(Collision Detection)機能も設けました。相手が発言している(データを送信している)と言ってもイーサネットの場合はデータを細切れ(パケット、データグラム)にして送り出しているので、他のコンピュータが入り込む余地は十分にあります。この細切れのデータはMACフレーム(Media Access Control Frame)という塊として扱われます(右上図参照)。MACフレームは、データの前に宛先アドレスと送信元アドレスのタグがつけられて相手に送信されます。データは、46〜1,500バイトを任意に選ぶことができ、データの大きさ(データグラム)が小さい設定では確実な送信ができる反面すべてのデータを送るのに時間がかかり、大きいと速く送れるかわりにデータの受け渡しに失敗する可能性が高くなります。複数のコンピュータが送信を始めて通信回線上に送り出されるデータが多くなると、各コンピュータはデータの合間合間を縫うようにして送り出すようになるので交通渋滞が起きている状況と同じになり、相対的な送信速度は遅くなります。
- ■ イーサネットのいわれ
- 2.67Mbps(メガビット・パー・セカンド)の転送速度を持つイーサネットは、とても魅力的なシステムでした。開発当時は考えても見なかったことで後でわかったことに、イーサネットはコンピュータとプリンタをつなぐだけでなくコンピュータ同士の接続も行えました。どのアルトにもイーサネット機能が付けられて、プリンタとネットワークで接続された環境では、各コンピュータにアドレスと名前をつけることになります。全ユーザが自分のアルト(ワークステーション)に名前をつけたときコンピュータ同士が認識できるようになり、互いにデータを通信し合えるようになったのです。ネットワークの母体が完成したのです。
- 2.67Mbpsのイーサネットは、頑丈で比較的単純な技術でした。コンピュータとプリンタは、一本の同軸ケーブルにT-BNCで芋づる式に接続するだけでよかったのです。これをPARC(ゼロックス研究所)は10Mbpsまで速度を上げました。不運なことに、3倍強の通信速度を上げた10Mbpsのイーサネットは、複雑な技術を必要としました。
- このようにして、1本のケーブル線で互いのコンピュータや周辺機器を接続したことにより、まるで光が宇宙を伝搬していくように高速で快適な通信ができるようになりました。イーサネットは、光を伝搬すると考えられていたエーテル(Ether=イーサ)をもじって、エーテルのネットワークという意味でエーテルネット(Ethernet = イーサネット)と名付けられました。イーサネットは、1982年、IEEE802.3で規格化されました。
- ▲ 半二重通信、全二重通信(Half Duplex、Full Duplex)
- イーサネットに限らず電話回線などを使ったシリアル転送は、たえず送り手と受け手の関係(転送手順)がつきまといます。つまり、コンピュータとプリンタのように話手がコンピュータで聞き手がプリンタのようにデータの通信方向が一方向のものであれば、一本の通信ケーブルを使っても通信は行えます(片方向通信、Simplex)。しかし、互いがコンピュータ同士であったり電話での会話の場合には、話し手が聞き手に回ったり、聞き手が質問に対して応えなければならないケースが多く出てきます。一本の通信線でこれを行う場合、例えばトランシーバや一本の糸電話を想定してみますと、話し手が聞き手に情報を伝達し返事が欲しいときに「どうぞ」と自身の話を終わる意志表示をします。そうして互いにトランシーバの送信ボタンを切り替えたり糸電話を口から耳に変えて情報伝達を逆向きにさせます。このような手法のことを半二重通信と呼んでいます。半二重通信は、一本の通信線で交互に送信と受信を切り替える方法でした。イーサネットでは初期の同軸ケーブルを使ったもの(10BASE-2、10BASE-5)が半二重方式を採用していました。これは当然の事ながらデータの通信が煩雑となりデータの衝突や交通渋滞を招きやすいものでした。このデータの衝突を監視して交通整理を行う機能が先に述べたCSMA/CDでした。この機能によって一本の同軸ケーブルでも多数の機器が相互乗り入れしてデータ転送を行うことができるようになりました。
- 全二重通信は、送信線と受信線が分かれていて送信と受信を個別に行える方式です。これは、電話回線やイーサネットのツイストペアケーブル(10BASE-T、100BASE-TX) で採用されているものです。全二重方式では、データの流れの方向性が一定でスムーズであり送信と受信が同時に行えるのが大きな強みです。この通信では2対のペアラインで送信(TxD)と受信(RxD)を行うのが普通ですが、必ずそうであるとは限りません。例えば、周波数を変えて送信するという方式では1本の信号線を使って全二重送信を行っているケースもあります。全二重通信ではデータの衝突という不具合が起きないので、データ衝突回避機能(CSMA/CD)を使う必要はなくなります。しかし、ケーブルを接続するハブがスイッチング・ハブではなくリピータ・ハブの場合は、このハブが全二重送信を行わないので、ツイストペアケーブルを使ったとしても半二重通信となります。全二重通信が行えるのはクロスケーブルを使ったコンピュータ同士の直接接続か、スイッチング・ハブを使った接続に限られます。
- ▲ 同軸ケーブルからツイストペアケーブルへ
- イーサネットが開発された当初、データを伝送するケーブルには同軸ケーブルを使っていました。1982年にイーサネット規格IEEE802.3が制定されたとき、ケーブルは10BASE-2という規格でまとめられました。この規格は、直径5mm、50Ω同軸ケーブルが採用されていました。コネクタは、BNCを使っていました。10BASE-2は、10Mbpsの速度で200mの伝送距離性能を持っていました。当時としては、かなり長距離で、かつ高速通信だったと言えます。BNCコネクタを採用したのは、使い勝手と信頼性が良いからだと思います。この方式は、10BASE-5というカテゴリーで500mの伝送性能を持つようになります。
ツイストペア式のケーブル(UTP = Unshielded Twisted Pair)は、4年後の1987年に登場し、1990年に10BASE-T規格となりました。なぜ、同軸ケーブルからツイストケーブルに変わったのでしょうか。その理由の一番大きなものは、価格であったと言われています。同軸ケーブルは、周波数特性が安定していて長距離伝送にも耐えられる性能を持っていましたが、価格が高かった。敷設費用を低く抑えたいという要求から、ツイストペア式ケーブルが開発されたと言われています。ツイストペアケーブルの原型は、電話ケーブルです。これは、電話回線を使った通信網を研究していたAT&TとIBMがトークンリング(Token Ring = IEEE802.5、通信速度4Mbps[1985年]もしくは16Mbps[1989年])という技術を開発したのに始まります。これは、一種の高速データ通信規格でした。この通信方式に、電話回線で使うツイストケーブルを使っていたので、その延長線上にあったイーサネットもこの技術を流用して10Mbpsの伝送速度を満足する仕様を構築しました。トークンリングは、イーサネットが開発された当時はライバル関係にありました。しかし、イーサネットの方が使い勝手良く伝送スピードも速いものが開発されて行ったので、ギガイーサネットが開発された1999年以降TokenRingの開発は停滞してしまいました。
- ツイストケーブルを採用したイーサネットは、高速通信は満足できたものの長距離伝送が難しく、10BASE-Tでは100mまでと規定されていました。伝送距離がそれほど長くとれない撚り線式ケーブルの10BASE-Tでしたが、伝送距離の短さをハブを用いることによって克服し、敷設費用が安くできることと、簡単な工事が功を奏して、以後、100BASE-Tや1000BASE-T規格としてTタイプ(ツイストケーブルタイプ)が普及することとなりました。
- 右の表を見てもわかるようにツイストペアケーブルでギガヘルツ帯域のデータを送ることがいかに困難であるかがわかります。同軸ケーブルや光ケーブルならたやすく達成できるこの速度もツイストペアでは困難であるために、以下のギガビットイーサネットでは巧妙な方法を用いてギガビットの速度を達成しています。
- ▲ モジュラージャック(Modular Jack)
- イーサネットケーブルに使われているコネクタは、電話で使われているモジュラージャックに形状が極めて似ています。電話のモジュラージャックは、米連邦通信委員会(FCC:US Federal Communications Commission)が制定したRJ-11(RJはRegistered Jackの略)という6ピンのものが一般的で、他にRJ-14、RJ-25、RJ-45、RJ-48などが取り決められています。イーサネットケーブルに使われるモジュラージャックは、RJ-11より大きい8ピンのものを使っています。形状が電話用に規定されたRJ-45モジュラージャックに極めて似ているため、RJ-45という呼び方が一般的になっています。しかし、本来、電話用のRJ-45はイーサネットで使われるRJ-45とは形状が若干異なり、配線も異なります。電話用RJ-45は、結線が中央部の2つのピン(No.4 + No.5)だけしか結線されておらず、残りのピンは抵抗器で短絡処理されています。またジャックの形状が片側の横部に出っ張りがもうけられていて(キー溝処理)、キーのついたRJ-45ジャックはイーサネットに接続できないようになっています。従って、イーサネットで使われるモジュラージャックは電話用のものと区別するために、「8P8C」という言い方をするようになっています。どうしても「RJ-45」を使いたい場合は、「イーサネット用RJ-45」と但し書きで使うことが望ましいと言えましょう。
- 8P8Cモジュラージャックは、100BASE-Tまでは、2対(4線)しか使用しておらず残りの4線は開放になっていました。つまり1番ピンと2番ピンを送信線(TxD)にあて、3番ピンと6番ピンを受信線(RxD)にあて全二重通信ができるようになっていました。
- ギガビットイーサネットでは、4対8線の信号線をすべて使っています。従って、100BASE-Tで使っていたUTPケーブルを1000BASE-Tで使う場合には、ピン配線がすべて結線されているカテゴリー5以上のものを使う必要があります。
- ▲ ストレートケーブルとクロスケーブル
- RS232Cやイーサネットケーブルなどのシリアル転送を行うケーブルには、2種類の配線処理を施したものがあります。ストレートケーブルとクロスケーブルです。どうしてこのような2種類のケーブルがあるのでしょうか。コンピュータを直接接続(ピア・トゥ・ピア = peer to peer)する場合を考えてみます。この場合、一方のコンピュータから送り出されるデータ(TxD)は相手の受信(RxD)ポートに入らなくてはなりません。コンピュータは自身で送受信の切り替えを行いません。従って、コンピュータ同士の直接接続をする場合送信データを受信側に持っていくクロスケーブルが必要になるのです。ケーブルは本来ストレートケーブルが基本です。コンピュータは多くの場合マスターになるものであり、コンピュータに接続される周辺機器はスレーブとなるので機器側には予め送受信を変換する機能、すなわち、ホストであるコンピュータから送られてくるデータを受信部で受けてホストコンピュータに送るデータはケーブルの受信ポートへ流す機能が備わっています。従って、この場合はストレートケーブルを使えば問題なく通信ができます。コンピュータ同士はお互いがホスト(主人公)なのでストレートケーブルでは通信がなりたたないのです。コンピュータ同士を接続する際に直接ではなくてハブを介して行う場合は、ハブ内部に送受信の切り替えがついているのでストレートケーブルを使うことができます。クロスケーブルは、コンピュータ同士の一対一の接続などの極めて限られた用途に使われるだけで、ほとんどの場合ストレートケーブルが使われます。
- 100BASE-Tまでのケーブルは、以下に示す2対(4本)しか使っていません。送信線(TxD)と受信線(RxD)の2系統です。クロスケーブルは、送信→受信という結線になっています。ストレートケーブルは当然、送信→送信、受信→受信という配線です。イーサネットケーブルのピン配置は面白い配線になっていて、ピン番号1から8まで順番通りになっていません。4番ピンと5番ピンを避けて配線されています。これは、イーサネットケーブルが電話線の規格と同じものを使っていて、電話線ですでに中央の4番ピンと5番ピンが使われているので、ここを避けてイーサネット通信に適用しました。従って、送信は1番ピンと2番ピンを使い、受信は3番ピンと6番ピンを使う取り決めになっています。ギガビットイーサネットでは、4対(8線)をすべて使わないと速度が足りないのですべて送信線になり、同時に受信線にもなっています。
- ▲ ギガイーサネット(Giga-bit Ethernet)
- 1999年に規格化された1000BASE-T(ギガイーサネット)では、8P8Cコネクタに結線されている8本すべてのピンを使って送信しています。1Gビット/秒のデータ通信をこれまでのツイストペアケーブルの延長で行うと帯域が不足してしまうため、4対(8線)すべてを使って目的とする通信速度を達成しています。この手法はもはやシリアルとは言い難くパラレル転送と言えなくもありません。また、1000BASE-Tでは4対8線のすべてのケーブル線を使って送信するので、通信は全二重とはならずに半二重通信になるのではないかと思いたくなります。しかし、ツイストペアケーブルを使うギガイーサネットではハイブリッド回路がもうけられていて、送信と受信を位相反転することによって混信を回避できるため4対8線すべてを使って同時に送受信が可能となっています。
- さらにまた、1対の信号線には従来「0」と「1」の信号しか乗せていなかったものを1000BASE-Tでは電圧を変えて5種類(+1.0V、+0.5V、0V、-0.5V、-1.0Vの5進数)の信号パターンを使っています。これを4対の信号ラインで同期を取って送るので、54 = 625種類のデータを一度に送ることができます。2進数で言うと10ビットの数字を扱うことになります。
- ■ 8B1Q4(8bit-1 quinary quartet)の導入
- 8B1Q4は、とても難しい言葉です。これは要するに1000BASE-Tでの信号を送る取り決めです。1000BASE-Tでは4対8線すべてを使って高速通信をします。このとき、4対の信号線に8ビットの情報を振り分けて並列に送る方式を採用しました。これが「8B1Q4」という規格です。この言葉の意味は、8ビットの情報を5進数(quinary)に直して4ライン(quartet)の通信線で送るという意味です。1000BASE-Tでは、4対の通信線で5種類の信号パターン(5進法のデータ)を送りますから、4桁の5進数情報となります。4桁の5進法は、10進法では54 = 625までの数値となります。元の情報は8ビット(256種類)ですので数が倍以上多くなりました。数を多くしたのは、高速通信でのエラーを防ぐために、元の8ビット情報にエラー検出ビットを1ビット加えて9ビット化しているためです。9ビットデータは512種類なので625種類ある4桁5進法表示で十分に対応できます。
- 話をまとめますと、
- 『1000BASE-Tでは、既存のツイストペアケーブルを使って高速通信をするために4対の信号線をすべてを使って送信し、信頼性のあるデータとするために8ビット情報を9ビットにし、これをさらに4ラインに9ビット情報を振り分けるために5進法データとした。』
- ということになります。
- この方式の採用によって、1ギガビット/秒のデータは4対の信号線で振り分けて8ビットの元情報を送ることになるので、1000Mビット/秒 / 8 = 125M ビット/秒の速度で送信すればよく、カテゴリー5のイーサネットケーブルを使ってもなんとか初期性能を達成できる数値となりました。
![]()
- ■ オートネゴシエーション(Auto-Negotiation)
- ギガビットイーサネットの普及に関しては、すべてを入れ替えるのではなく既存の設備を最大限利用して通信速度を上げるというのが基本構想にありました。ネットワーク社会に広く普及した100BASE-T環境のネットワーク設備を大きく変えることなくギガビット環境を織り込んでいくために、通信手順にオートネゴシエーションという機能が盛り込まれました。この機能は、通信を開始する前にネットワークがギガビットベースでできるかどうかを確認し、できない場合には100BASEで行うというものです。従って、イーサネットケーブルがギガビットで送信できる性能にない場合やハブにもその性能が満足できない場合、低速で行うことになります。
- この機能をオートネゴシエーションと言っています。この機能は1000BASE-T対応のスイッチング・ハブに装備されていてデータを通信する際にどの速度で通信をするかを決めています。
- ■ ハブ(Hub)
- ツイストペアケーブルを使うイーサネット接続では、機器はハブと呼ばれる中継器に接続されます。ハブの仲間には機能上以下に示すようなものがあります。
- 1. リピータ:
- ケーブルに流れる信号の中継を行うためだけのもの。
- 単純にデータを右から左で流すだけなので、
- 送信データの宛先を読み取って相手先に効率よく転送する機能はない。
- 伝送距離が長くなる場合、リピータを中継してデータを転送する。
- 2. ブリッジ :
- リピータの機能に加え、転送先のMACアドレスを解読して
- 適切なポートにデータを転送する(フィルタリング)機能が付加されている。
- 3. スイッチング・ハブ :
- 現在、もっとも一般的に使われているハブ。
- ハブと言えばこれを指す。
- 本来の目的は、4台から8台のイーサネット対応機器を接続して
- 送信されてくるデータの宛先を読み取り適切にデータを転送し、
- 配布しなくてもよい宛先にはデータを送信しない機能を持つ。
- 階層化したネットワーク(ハブが何台もつながれた構造)での
- 効率よいデータ転送を行う。
- それに加え、通信の手順(半二重か全二重かの判断)や、
- 接続されている機器が10BASE-Tか100BASE-Tか1000BASE-Tかの
- 判断を行う。
- 1990年代中頃までは高価であったが、低価格化と共に急速に普及した。
- 現在のスイッチングハブは多機能になリピータ機能やブリッジ機能、
- ルーター機能まで備えたものが市販されている。
- 4. ルーター
- ネットワーク群相互のデータ通信を効率よく行うための中継器。
- インターネットの開発で必要不可欠の技術がルータの開発であり、
- IMP(インプ:Interface Message Processorメッセージ転送装置)
- が開発された。IMPはコンピュータそのものである。1969年に1号機
- が完成した。当時のIMPはハネウェル社製のDD516というコンピュータ
- で、180cm(H) x 60cm(W) x 70cm(D)という大型のものであった。
- IMPを使って、ユタ大学の「PDP-10」→スタンフォード大学の「SDC940」
- →UCLAが所有している「シグマ7」の接続が行われた。
- ルータは、ネットワーク上で交通整理の役割を果たし、入ってきた
- パケット情報をどのルートに出してやるのが一番効果的かを判断
- して処理を行う。
- ▲ 二種類のツイストペアケーブル(UTPとSTP)
ツイストペアタイプのイーサネットケーブルには、性能別カテゴリーに分けられた種類の他に、構造上2種類のものがあります。ケーブルをシールド線で覆った構造のSTP(Shielded Twisted Pair cable)と、シールド線を使わないUTP(Unshielded Twisted Pair cable)の2種類です。右図にケーブルの体裁を示します。STPケーブル(図の右ケーブル)では各ツイストペアケーブルがシールドされているのがわかります。シールド線を使ったSTPの目的は、外部ノイズの侵入を防ぐためです。シールドタイプのものは、ノイズ発生の多い工場などで有効であるものの、日本での普及は低く、シールド線を伴わないUTPケーブルが圧倒的です。STPは、ヨーロッパで広く普及しています。シールドタイプケーブル(STP)は、1000BASE-CXというカテゴリーに属していて、日本の家庭やオフィスで使われる1000BASE-Tのカテゴリーは、シールド線のないUTPです。STPケーブルを使う場合は、これを接続するハブやルーターにアース対応のものを使わなければならず、これを怠ると効果が半減してしまいます。シールドというものは、そもそも、装置から発するノイズを外に出させなかったり、外からのノイズを遮断する目的ですから、装置全体を完全に密封する形でシールドを施さねばなりません。水道のホースや密閉容器と一緒で、穴が空いた箇所(シールド処理を施していない部位)があるとそこからノイズが容易に侵入するので、それがかえって大きな影響を及ぼします。シールドは、特にコネクタ部でシールド性が保たれない場合が多く見られます。STPは、シールドが施されている関係上取り回しが悪く、距離も25mと限られています。また、ハブなどの関連機器を含めたコストがかかるため、この規格が普及をみない大きな理由となっています。日本では、ノイズに対する配慮をしなければならない高速通信には、STPよりも光ケーブルを設置する傾向にあります。
|
||||
- ■ 開発背景
- FireWireは、IEEE1394という名前で知られているシリアル高速データ通信規格です。大容量ハードディスクや、DVD、カメラとの接続に使われています。この規格は、米国アップル社が当時高速通信の代名詞であったSCSIパラレル転送の置き換えを狙い、1980年代後半から開発を手がけて1995年に完成したシリアル転送方式によるFire Wireを標準化したものです。これが、IEEE1394として規格化されました。この高速データ通信インタフェースは、1998年になってソニーをはじめとした関連企業が採用を始めました(1999年1月15日、アップル社は新型G3Mac=GossamerにこのFireWire通信機能を標準でサポートしました)。ソニーは、この規格に i.Link という呼称を与えました。この高速通信インタフェースは、USB1.0とほぼ同時期に登場しました。両者が出始めたとき双方の性能はそれほどかぶってはおらず、両者の棲み分けはできていました。USBがマウスやキーボード、プリンタなどの比較的低速のデバイスをサポートしていたのに対し、IEEE1394は開発の目的を高速通信と使いやすさに置いていました。USBがコンピュータの一元管理で接続から解除、通信管理がなされるのに対し、FireWireはコンピュータの管理を受けなくても通信を行うことができました。接続も安定しており、通信時でのパソコン負荷がかからないため実効スピードはUSBよりも優れていると言われていました。FireWireのターゲットはSCSIであり、SCSIに比べると随分と使いやすいものになりました。FireWireは、通信ケーブルを長くすることができ、SCSIと同じようにディジーチェーンで機器を接続することができました。また電源も同一ケーブルで供給できるホットプラグ対応でした。
- ■ 通信速度
- IEEE1394の通信速度は、当初、12.5Mバイト/秒、25Mバイト/秒、50Mバイト/秒で策定されました。ケーブルは6ピンで構成され、2対4線の信号線と+8VDC 〜 +30DC、1.5Aまでの電源を供給するパワーライン2本で構成されています。4ピンの小さいコネクタは、パワーラインが無く信号線だけとなっています。ケーブル長は1本当たり4.5mで、リピータの使用により最大総延長72mとすることができ、ケーブル太さもφ6mmでSCSIのφ10mmに比べて細くなっています。また、接続できる機器は63台までという規格になっています。これもSCSIよりははるかにたくさんの機器を接続する仕様となっていました。
- IEEE1394a(2000年)の転送速度は、400Mbpsとなっていてビデオ画像を十分に送る能力を持っていました。また、2002年には800M bpsのスピードを持つIEEE1394bができあがり、さらに2006年にはIEEE1394c-2006という規格ができ、LANケーブル(カテゴリー5)を使って800M bpsの転送速度を持つようになりました。
- ■ USB2.0との比較
- IEEE1394は、製品が世に出されたタイミングが極めて近いUSB2.0とよく比較されます。USBは、そもそも高速通信を行う目的として作られたのではなかったのですが、USB2.0で高速通信ができるようになるとIEEE1394の通信速度が遅く感じられるようになって、USB2.0の後塵を拝する感じを受けるようになりました。現在のパソコンにはUSBポートがたくさんついているのに対し、IEEE1394はソニーのVAIOとマッキントッシュ以外はオプション扱いになっています。こうしたことから、IEEE1394b(2002年)では転送速度を800Mbpsと速くして、USBとの差別化を図るようになっています。
- Fire Wireは、1対1で使うことが多い応用(デジタルカメラをパソコンに接続するとか外部HDDを接続する目的)では、転送効率が良いために実質上のデータ転送がUSB2.0よりも優れていると言われています。
- ▲ i.Link
- デジタルムービーカメラの画像転送インタフェースとして使われているのがi.Linkと呼ばれる通信方式です。これは、パソコンのIEEE1394と同じもので、呼称を変えただけです。i.Linkで扱うテレビ信号には、i.Link(TS)(Transport Streamの略)と、i.Link(DV)(Digital Videoの略)とがあります。i.Link(TS)はデジタル放送で使われるMPEG-2 TSであり家庭用DVD機器との接続に使います。i.Link(DV)は家庭用デジタルビデオで使われているDV信号です。これらは、同じIEEE1394の仲間ですが互換性がないために、i.Link(TS)端子とパソコンのIEEE1394端子にケーブルを接続しても映像を取り込むことはできません。ただし、i.Link(DV)はIEEE1394と互換があるため、家庭用のデジタルビデオカメラの映像をIEEEE1394ケーブルを介してパソコンに取り込みことができます。デジタル受信機では、両者の信号を明確にするためにi.Link(TS)、i.Link(DV)が明記されています。
- 上に示したコネクタは、IEEE1394bに採用されている9ピンコネクタです。ピン配列を見てみますと、旧来の6ピンコネクタよりシールドラインが3本増えて9本になっていることがわかります。通信ラインは2対4線でツイストペアになっていて、一方の送信ライン(1ピンと2ピン)が他方の受信ライン(3ピンと4ピン)で結線されてクロスケーブルになっていることがわかります。
- 2008年に発表されたIEEE1394c-2006では、イーサネットで使われているカテゴリー5のLANケーブルの使用が決められています。これはFireWire 800Tとも呼ばれているもので、インターネットで実績を積んだケーブルを使うことによりより使い勝手のよい(そして安価な)通信網を構築しようとしたものと思われます。しかし、2009年現在、このケーブルを使った機器やカードが市販化されたという話は聞いていません。
- ■ 開発背景
- USBポート。取扱が簡単。管理された電源も供給される。
- USB2.0では480Mbpsの通信を可能にした。
- USB (Universal Serial Bus)は、名前が示す通りパソコンに接続されるさまざまな周辺機器の通信形態を統一した、シリアル転送によるインタフェース規格です。接続機器は、マウスからキーボード、プリンタ、ハードディスクドライブなどコンピュータに接続される機器すべてが対象となりました。
- USBは、1993年頃より、インテル、マイクロソフト、コンパック(現ヒューレット・パッカード)などの米国のコンピュータ関連企業と日本のNECによって共同研究が始められ、その後、デジタル・イクイップメント(DEC)、IBM、ノーザン・テレコムが加わって、3年後の1996年1月にRevision1.0として正式発表されました。
- このインタフェースは多目的に使われる通信方式であるため、Universalという名前がついています。USBは、2000年あたりから急速に普及し、2009年時点ではパソコンのインターフェースの中で最もよく使われる代表的なものとなっています。通信速度がそこそこ速くて使い勝手がとても良いというのがUSB普及の大きな要因でした。
- 1998年5月、マッキントッシュのiMacが発売されました。その驚異的な売上で有名になったパソコンに標準装備されていたのが、シリアル転送方式のUSBでした。iMacでは、マッキントッシュが従来使用してきたプリンタポート、ADBポート(RS422シリアル転送)、SCSIを廃止してこの新しい方式を全面的に採用しました。現在ではしごく当たり前の出来事と思えることが10年前では斬新的だったのです。また、USBの決定的な普及を見たのは、Windows98がUSBを標準でサポートしたことによります。
- ■ 機能
- USBは、マウスなどの低速データ通信からプリンタ出力へのまとまった量のデータ通信まで幅広い応用に活躍し、USBハブの使用によって最大127種類の機器との接続が可能です。USBでは、コンピュータなどのホストが接続確認からデータ転送の管理、電源の管理などをすべて行います。従って、この規格は単なる電気規格だけではなく、コンピュータ
(ホスト)による管理を必要とします。USBはホストを中心とした接続なので、頂点にホストが位置するツリー構造(木構造)となります(右図参照)。USB機器をケーブル接続してホストがデバイスを認識すると、ホストはデバイスにIDを割り振ります。割り当ては7ビットで行われるため「0」を除いた127の番号がデバイスに当てられます。ハブも一つのデバイスとしてカウントされます。ケーブルは1本あたり最長5mであり、ハブは5台までシリーズに接続することができます。従って、ホスト(コンピュータ)から末端のデバイスまでのケーブル総延長は、5m x 6階層 = 30mとなります。ケーブルは、データ線が1対(2線)しかない単純なものです。このデータ線は、一方通行の信号ですから互いの送信を行うときは、通信の切り替えを行う半二重通信となります。
- ■ 通信の4つのモード
- USBの巧妙な所は、転送モードを4種類に分けていることです。各デバイスにはこれら4種類のモードのいずれかが割り当てられ、データの交通整理を効率よく行っています。
- 4種類の転送モードは、以下の通りです。
- 1. コントロール(Control):
- USB接続や解除時のデバイス認識、パラメータ設定通信。
- 通信は半二重。
- 転送の周期は不定で、必要に応じて行われる。
- データ量は8バイトで、転送速度は1.5M bps。
- データを受け取ったかどうかの再送機能あり。
- 2. インタラプト(Interrupt):
- マウス、キーボードなどの低速通信。デバイスに決められている
- 転送周期(N = 1ms 〜 255 ms)で、デバイスからのデータを
- 転送する。
- データ量は、1 〜 64 バイト。
- マウスやキーボードは、いつデータがコンピュータに送られるか
- わからないので、コンピュータ(ホスト)は、1/1,000秒〜1/4秒
- でデバイスにアクセスしてデータを出しているかチェックしている。
- 転送速度は1.5M bpsと低い。
- データを受け取ったかどうかの再送機能あり。
- 3. アイソクロナス(Isochronous):
- ビデオ信号などの垂れ流し転送用。データ受信の確認を行わず一方的に
- データを送る。1ミリ秒毎に1フレームの転送。
- データ量は、1 〜 1,023バイト/フレームで、最高12Mビット/秒の転送
- を行う。
- 4. バルク(Bulk):
- プリンタ転送などの一括大容量転送用。データ受信の確認あり。
- データがうまく送れなかった時は再度同じデータを送る。
- インタラプトとアイソクロナスでの転送がないときを見計らって、
- 8/16/32/64バイトの4種類のいずれかで転送。
- 細かいデータ量であるが、12M bpsの最高の転送速度を持っている。
- これらの転送モードは、USBが低速から高速までのデータ通信を行わなければならない関係上、データ転送を効率よくおこなうために決められたものです。マウスやキーボードからのデータは、量的にそれほど多くはないものの、絶えずそれらの情報を監視してその情報でコンピュータを動かさなければならないので、インタラプトモードが指定されます。プリンタやメモリスティックなどへのデータ転送は、まとめて一気に行う必要があるのでバルク転送となります。ビデオ画像を表示する装置では連綿と大量のデータが送られるので、再送要求を行わないアイソクロナス転送となります。
- これら4つの転送モードで、どのモードの優先度が一番高いかというと、
- アイソクロナス転送 > インタラプト転送 = コントロール転送 > バルク転送
- という順番になっています。プリンタへのデータ転送(バルク転送)は優先順位が低いために、他のデータが通信ラインを占有しているとそれが空くまで待つ仕組みになっています。通信が空いた瞬間を狙ってデータを送り出し、合間を縫って再びデータを送り出す仕組みをとっています。一番優先順位が高いのはアイソクロナス転送で、すべての通信に優先します。この通信が行われているとき、これがマシンに負担をかけている場合、マウスもキーボードも動きがぎこちなくなります。私が使っているパソコンにはUSB接続のテレビアダプタがついていて、テレビをパソコン上で放映させながら他の作業をすると速度が落ちます。アクティビティモニタを使ってコンピュータのCPU稼働率を見てみると(下図参照)、USBテレビのアプリケーションでのCPUの負荷は109.2%を示しています。このことから、USBによるテレビ放映はコンピュータにかなりの負担をかけていることが理解できます。
![]()
- ■ 電源管理
- 従来の通信ポートは、コンピュータに電源が入っているときにケーブルを抜き差しすることはできませんでした。これを行うと機器との通信が途切れたり、認識しなくなったり、パソコンがフリーズしたり、コンピュータの基板が損傷する危険がありました。Windows PCの専用マウスとキーボードは、PCを立ち上げたままケーブルを抜いてしまうと再び挿入しても動かず、再度PCを立ち上げ直さなければなりません。SCSIケーブルを使った機器接続でもこの傾向が強く、1990年代、パソコンがSCSI周辺機器を認識してくれるかどうかいつも神経を使っていました。私は、SCSI機器を電源をいれたままパソコンに接続し、マザーボードを損傷させたことがあります。それほどデリケートな通信ポートだったのです。それがUSBでは、電源を入れたままマウスやキーボードのケーブルを抜き差しができ、ケーブルを再度挿入してもパソコンは都度接続した機器を認識してくれます。パワーマネージメントがしっかり管理された規格だと言えます。ただ、そうだからと言ってUSBのプラグを闇雲に抜き差しするのは危険です。HDDやメモリスティックなどでは大量のデータを保存しますからデータ転送中にUSBプラグを抜くとデータが壊れるおそれがあります。こうした機器では、ケーブルを外すときホストとデータのやりとりをしていないことを確認する必要があります。USBから供給できる電源は、初期のもので供給電圧が4.4VDC、供給電流は100mAでした。USB2.0では5VDC、500mAとなりました。これ以上の電源をUSBケーブルから供給することができません。
- USB1.1規格の特徴は、以下の通りです。
- ● フルスピードモードで、12Mbps(1.5Mバイト/秒)の高速転送が可能。(USB2.0では480M bps)
- ● USBハブを介して、SCSIのような数珠つなぎ(デイジーチェイン)ではなく
- ツリー状(階層状)の接続を行う。最大127台の装置の接続が可能。
- ● ケーブル長は、最長3m(USB2.0では、5m)。
- ● ハブの接続は、5ヶまで可能(ハブ経由で30mまで延長可能)。
- ● デバイスへの電源の供給: 4.4VDC、100mA以下(USB2.0では、5V、500mA)
- ● 取り扱いが容易:コンピュータの電源やUSB装置の電源が入った
- ままで、USB装置の抜き差し(ホットプラグ)が可能。
- また、USBインタフェースを採用した装置なら、その種類を問わず接続が可能。
- ● 4種類の転送モード
- 1. コントロール(Control): デバイスの認識、パラメータの設定。
- 2. アイソクロナス(Isochronous): 映像、音声などのリアルタイム転送。
- 1ミリ秒毎に最高1,023バイトのデータを転送。最高12Mビット/秒の転送。
- 再送がないために一方通行のデータ送信で確実性は保証されない。
- 3. インタラプト(Interrupt): マウス、ジョイスティック操作などの低速リアルタイム転送。
- 1.5Mビット/秒での転送。
- 4.バルク(Bulk): プリンタ、モデムなどの不定期的大量データ転送。
- 上記2つのモードを持つ機器のデータ転送が行われていないときに実行。
- D端子は、放送用に使われている映像端子です。コネクタの形が「D」の文字に似ていることからD型端子と呼ばれました。Digitalの意味のD端子という誤解を招きやすい名前のためデジタル転送と思われがちですが、アナログ信号です。従って、デジタル機器はD端子で出力する場合は、デジタル信号をいったんアナログ信号に直して受像機器に送っていることになります。
- 端子は、7ピンx2段の合計14ピンで構成されています。内訳は、輝度信号(Y信号)と色差信号(Pb、Pr)の3つの同軸ライン(6信号ライン)と3系統の制御信号(識別信号)(3信号ライン)、それに一つのホットプラグ検出信号(2信号ライン)の合わせて11信号ラインとなります。14ピンのうち、残りの3ピンは予備です。識別信号(3系統)にはグランドラインが割り当てられていないため、外被(FG = フレームグランド)がグランドになっています。
- コネクタの形状からわかるように、BNCやRCAのような同軸シールド構造をとっておらず、コネクタ部での電磁シールド効果が崩れています(ケーブルには同軸ケーブルが使われています)。このコネクタは、当然ノイズに対する配慮が弱いので長いケーブルでは信号が鈍ったりノイズが入りやすくなります。しかしBNCコネクタやRCAコネクタより取り回しが良いので、短い長さの映像信号ケーブルとしてこのタイプが普及しました。
- D端子は、JETA(社団法人 電子情報技術産業協会)によって映像コネクタ及び映像ケーブルの仕様が決められました。これは日本独自の規格であり、世界標準にはなっていません。日本で販売されている現在(2007年)のテレビにはすべて取り付けられています。
- 以下の表示にあるD1〜D5は、放送局用のデジタルVTRの規格(D1-VTR〜D5-VTR)と混同しがちになりますけれども、両者の関連性はありません。
- 表示
- 映像フォーマット
- D1
- 480i
- D2
- 480i、480p
- D3
- 480i、480p、1080i
- D4
- 480i、480p、1080i、720p
- D5
- 480i、480p、1080i、720p、1080p
- i はインターレース、p はプログレッシブを示す。
- 映像フォーマットの数値は、画像の縦の画素数を示す。
- 右上の写真は、我が家のテレビについているD端子です。D端子の外観はD1からD5まですべて同じなので、どの映像フォーマットに対応しているかわかりません。したがって、テレビにはどの映像フォーマットに対応しているかが明記されています。我が家のテレビは、D4まで対応しているので1080iか720pのハイビジョン映像をこの端子を通して見ることができます。従って、このテレビでは1080pは見られないことになります。プレイステーション3のような高級ゲーム機は、D5の出力を持っていてハイビジョン画質を提供しています。
- D端子は、以下に述べるHDMI端子の出現とともにその存在を危ぶまれています。その理由は、D端子ではアナログ信号のためセキュリティのプロテクトがかけられなかったり、画質が思うように向上しないという問題があるからです。また、高品位のアナログ出力を持つ映像機器の販売を中止するという動きも活発になってきているため、D端子を装備せずにHDMI端子の受像機器になっていく可能性も大きくなっています。
- HDMIは、家電向けAV機器向けに開発されたデジタル通信の規格です。日立、東芝、松下、ソニー、フィリップス、トムソン、Silicon Image社7社が中心となって2002年12月に規格化されました。HDMIは、コンピュータディスプレイ接続方式のDVI(Digital Visual Interface)規格をベースに、音声伝送機能や著作権保護機能、色差伝送機能を加えて拡張したものになっています。この端子が装着されたAV機器は、2006年以降から出荷され始めたので、それ以前のAV機器では装着されていないものが多く、2006年12月ソニーのPlayStation3(家庭用ゲーム機)で標準装備されて話題となりました。
- HDMIは、ケーブル1本で最大5Gbpsの伝送速度を持っていて、非圧縮のデジタルハイビジョンの伝送が可能です。HDMIで採用された高速データ通信方式は、TMDS(Transition Minimized Differential Signaling)というデジタル伝送技術で、1990年代後半にコンピュータ用液晶
- モニタに接続する映像信号(DVI)に採用されました。この信号伝送技術がHDMIにも採用されました。この技術は差動信号を使っているので長い距離を伝送させるのは不得意で、1.5m〜3m程度のケーブルが中心となっています。2007年には10m長のケーブルが発売されました。
- HDMIでは、信号ピンが19ピンあります。その内訳は、TMDSの映像信号線が3対(6線)とそれぞれのシールド線(3線)、クロック信号が1対(2線)とそれのシールド線、それに電源と制御線などから構成されています。3つの映像信号線は、RGBの映像信号であり、これをクロック信号に合わせてデジタル信号で伝送する仕組みにないっています。
アナログビデオ端子(上写真)とデジタルビデオ端子(DVI)(下写真) デスクトップパソコンではデジタルビデオ端子が普及しているが、ノートパソコンの付属モニタ出力や液晶プロジェクタの端子には依然として上図のアナログ端子が使われている。
- ■ TMDS(Transition Minimized Differential Signaling)
- TMDSは、高速デジタル通信を目的としたシリアルデータ通信です。信号は差動信号を使っています。TMDSは、シリコンイメージ社(Silicon Image Inc.)が開発したもので、デジタル映像分野で採用されてきました。これは同社がフラットパネル・ディスプレイとビデオカードを接続する目的で、PanelLinkという名前で1997年に開発したのに始まります。この技術がデジタル映像信号であるDVIに採用されHDMIにも採用されました。TMDSと同じ高速デジタル通信を行うものに、米国National Semiconductor社が開発したLVDSがあります。両者は、共通した部分(差動信号を採用)がいくつかありますが、TMDSは既存のCMOSデジタル素子を使った3.3V信号ルールなので、安価にできるメリットがあります。この技術を使ったHDMIは5Gbpsの通信速度を達成しているのでこの素子で1チャンネルあたり1.65G bpsの映像信号を送っていることになります。
- LVDSは、高速データ通信を目的に1994年に作られた信号規格です。LVDSは、それまで高速データ通信として一般的であった20MHz信号の送信ができるRS-422差動信号データ通信規格を拡張し、65MHzで30m長の転送ができるようにしました。この規格では、RS-422が±2 〜 5Vの信号電圧であったのに対し、その信号電圧の1/10、±250 〜 450mVの極めて低い電圧でデータを転送しています。1V以下の電圧で、よくもまぁ信頼性の高い高速通信ができるものだと感心します。低い電圧でデジタル信号を作った理由は、電圧の立ち上がり時間を短くできるために高速通信に適しているためでした。しかし、低い電圧ではノイズマージンが低く、ちょっとしたノイズでも信号を犯してしまいそうです。LDVSでは、低い信号電圧を採用した代わりにしっかり電流を流す(3.5mA)方式とし、尚かつ、2つの信号線を対としてペアの信号ラインに位相が180°ずれた、すなわち反転した信号を流す方式としました。これを差動信号(differential signaling)と言いノイズに強い信号とすることができました。多くの信号線は、1つのラインに信号を乗せて、もう一方はグランドに落として使うことが多かったのですが、LDVSでは2本の線がペアとなって一つの信号を送っています。
- ▲ 差動信号(Differeintial Signaling)
- 差動信号(Differeintial Signaling)の考えは、電話器ができた時代からありました。電話信号(アナログ信号)では、音声信号を送るのに2本の電気信号線を用いて、一つには正常の音声信号を送り、もう一方には正常の音声信号と全く反対の、180°位相のずれた信号を乗せています。2本の線には、従って、GND(グランド、接地)成分がありません。電話器は、数km離れた交換台まで信号を送らなくてはならず、通常の方法、つまり、一方に信号を乗せてもう一方をグランドとする方法では、歪みやノイズが乗りやすいという欠点があります。電話機の電話線では、音声信号に対して600オームのインピーダンスを持つようにケーブルが作られています(600オーム平衡ケーブル)。こうすることにより、電話線をどれだけ長くしても、理論上、電線間の抵抗(インピーダンス)が600オームに保たれるので信号の減衰を低く抑えることができます。そうした平衡状態を作って、さらに、両方の信号線に互いに反転した信号を送ることにより、耐ノイズ性を高めることができました。この差動信号は音響の世界にも取り入れられていて、マイクからの信号をアンプに接続する回路にも差動信号を使った平衡回路が使われました。
- コンピュータの世界でも、耐ノイズ性の高い差動信号はいろいろな所に使われています。例えば、マッキントッシュが使い始めたRS-422という信号や、USBケーブル、ツイストペア式のLANケーブル(10Base-T、100Base-T、1000Base-T)、SCSI、シリアルATA、PCI-Expressなどに応用されています。差動信号に対する信号として片側ラインだけ信号を送る方式をシングルエンド(single-end)信号と言っています。両者の言葉と平衡、不平衡は同じ対義語になります。
▲ ツイストペア(twisted pair)
- 差動信号を送るときに使うペアになった2本線は、互いに接触して撚った体裁になっています。イーサネットケーブルもLVDSケーブルで使われているペアの信号線は撚って配線されています(右写真)。なぜ、このように撚るのかと言うと、ノイズ成分を除去するためです(平衡ケーブルの項参照)。電線に電流が流れると、電流の流れる進行方向に対して右ネジの法則に従って磁力線が発生します。二本の信号線を離して配置すると、磁力線の方向が相乗されて強まります。しかし、ツイストペアにして信号線の配置を互いに入れ違いにすると、互いに弱め合って電磁ノイズを出さなくなります。また、外から入る電磁ノイズに対しても、2本の信号線が平行で離れていると電流として流れるようになりノイズが乗るようになります。ツイストペアにして信号線の配置を互いに入れ違いにしておけば電流が相殺されます。このように、信号線を撚り線にすることは、電磁ノイズを外に出さないことに加え、外からのノイズもキャンセルしやすい構造(EMI = Electro-Magnetic Interferene 対策)とすることができます。ツイストペアは、差動信号(平衡信号)だけでなく不平衡信号を送る際にもノイズ除去の観点から使われることがあります。
- ▲ LVDSの特徴
- 微小電圧による差動信号を使ったLVDSの高速データ通信の特徴は、以下の通りです。
- ・ 信号電圧が低い。信号電流が3.5mAで、終端抵抗が100Ωであるため、
- 信号電圧は最大350mVである。低い電圧ではあるが、電流をしっかり流すのでノイズには強い。
- ・ 実際のLVDSドラーバーでは、1.07V - 1.41V(電位差0.24V)のパルス信号を採用している。
- ・ ノイズマージンは、±100mVである。
- ・ 信号は差動電圧信号(differential signal)である。位相の反転した
- 信号をペアとして送受信するのでノイズに強い。
- ・ 低い電圧のため高速応答のパルスが作りやすく(電圧の昇降の時間が短い)、
- 消費電力が極端に少ない。
- ・ データ転送速度は、ツイストペア銅線で推奨655Mビット/秒。
- このデータ通信(LVDS)は、1990年代後半から一般的になり、スーパーコンピュータを使用する長距離高速大容量データ送信に使われ始め、高精細カメラ(メガピクセル、数枚/秒転送)の大容量高速画像通信にも使われるようになりました。この規格は、信号だけの規格なので、LVDSを取り入れたRS-644規格が作られたり、他に SCSI やFireWireにも採用され始め、大型液晶(1400x1050画素)の画像データ通信用にも使われました。
- LVDSは、計測カメラ用のデータ通信規格であるカメラリンク(CameraLink)にも採用されています。LVDSの特徴は、先にも述べたごとく、低い電圧での高速通信が行え、電力も低く、差動信号であるため信頼性が高いことです。但し、信号線は2本の線を撚り線にして、互いに反対方向になった信号(位相が180°ずれた差動信号)であるため、データ線の数だけのペア信号線が必要となり、グランド線が共通とならず、信号線が多くなるという欠点があります。下の図は、LVDSのサンプル回路です。ICメーカでは、LVDSドライバー/レシーバーをICパッケージで供給しているので、そうした素子を購入して回路を作ることができます。図では、左のドライバー部に信号が入力されると、1.41Vで互いに位相の異なる信号作り出して送り出し、これをLVDSレシーバーで受け取って、再び入力信号と同レベルの信号に変換出力しています。ドライバーとレシーバの間は、ツイストペアラインで30mまで延ばすことができ、65Mbpsの信号を送ることができます。ツイストペアラインはレシーバの手前で100Ωで終端させておく必要があります。これは、レシーバ部にはほとんど電流が流れないので(入力インピーダンスが高いため)、100Ωで終端させてしっかり電流を流す回路とし、信号波形が歪んだり遅れが出るのを防ぐ意味があります。LVDS素子は、CMOS技術によって作られています。
![]()
- カメラリンクは、一般的な通信規格ではなく工業計測カメラ専用のデータ通信統合規格です。従って、パソコンに標準で装備されるものではないので、コンピュータに接続するにはカメラリンクPCIボードやPCカードをパソコンに装備してカメラリンク出力を持つ計測カメラと接続します。
- 工業計測カメラは、規格の統一が図りにくい製品でメーカが独自に画像通信ケーブルやコネクタを採用して販売する傾向にあります。多種多様なケーブルやコネクタ、それに画像を取り込む画像通信手順が個別になっていたのではユーザが困るだろうということで、米国のカメラメーカであるPULNiX社(2003年4月よりJAI PULNiX社 → 現JAI社)の働きかけで、画像ボードメーカ、ケーブル・コネクタメーカ、ICメーカらが中心となって2000年10月に規格化されました。
- カメラリンクは、まったく新しい規格というわけではなく、従来、カメラメーカが個々に採用してきた最新技術をとりまとめて規格化し、メーカ(カメラメーカー、画像ボードメーカ、ケーブルメーカ)間での製品の互換性を良くしようというとしたのが主なねらいです。
- カメラリンクでは、転送信号にLVDSを採用しています。LVDSでは、2本の信号線(1対)で1つのデータを送るために、つまり、グランドを共通にした信号線ではないために、パラレル(並列)でデータを送る場合には、信号線の数が多くなるのが欠点でした。この問題を解決するために、パラレル信号を高速シリアル信号に変換する技術(チャンネルリンク = Channel Link)を採用して、伝送ケーブルの本数を少なくしました.チャンネルリンクは、米国National Semiconductor社が開発した技術です。このチャンネルリンクとRS-644(LVDS)の技術をベースにして、信号形態のみならずコネクタ・ケーブルのハーネスにいたるまでを規格化し、互換性を持たせるようにしました。
以下にカメラリンクの概略仕様を示します。
- ・伝送データは、28ビットのパラレル信号を8ビット単位をで一つにまとめた
- 3対のシリアルデータ(A/B/Cポート)と、4ビットステータスデータの
- 1対に変換。データは4対となる。
- ・上で述べた4対のシリアルデータに、1対のクロックデータを加えた5対
- のデータ線で構成される。
- ・ケーブルは複数使用が可能となっており、データ数の多い画像通信では
- 2本、もしくは3本での使用が可能。
- ・クロックは、66MHz(最高85MHz)が基本。パラレル伝送のためトータル
- データレートは、
- 1.93GHz(2.35GHz max.)
- = 1.93Gbps(2.35Gbps max.)
- となる。この転送速度は、28ビットのパラレル信号を基本としたBaseモ
- ードの速度であり、複数のケーブルを使った場合には、高速転送を可能に
- するMedium、Fullモード規格もある。
- ・コネクタは、3M社の26ピンコネクタ(MDR-26)を採用。
- 最近では、カメラの小型化に伴い、小さいコネクタ(ミニCLに従ったSDR)
- が規格化された。
- ・ケーブル長さは、推奨で10m。
PoCLは、上で述べたカメラリンクの派生規格で、カメラリンク自体にカメラに供給する電源を組み込んだ規格です。これは新しい規格で、2004年8月に規格化の動きが始まり、2007年2月に規格化されました。カメラリンクは米国のFAカメラ(計測用カメラ)メーカーが中心となって策定しましたが、PoCL規格は、日本のメーカが中心となって策定されました。
- Factory Automation(FA)分野で使われているカメラは、日本の場合、NTSC(RS170)規格に準じたアナログ信号による機器が圧倒的なシェアを持ち、米国で主流になってきていたデジタルカメラへの移行は簡単には進んでいませんでした。これはとりもなおさず、アナログカメラが安価であったこと、30コマ/秒での撮影、ストロボなどを使った同期撮影、データ取得、画像処理体系が整ってしまったこと(デジタルで30コマ/秒は高価であったこと)が上げられます。しかし、2007年頃よりでデジタルカメラから送られてくるデータの転送や処理装置の性能が追いついてくると、デジタル化への動きが加速されて行きました。
- デジタル化へ移行する場合、CameraLink規格は魅力あるものでした。しかし、アナログ信号でシステムを構築してきたユーザやメーカーにとっては考慮しなければならない問題がありました。すなわち、カメラリンクでは、カメラへ供給する電源が別になっていて、小さくなったカメラにカメラリンクコネクタとは別の電源コネクタを配置しなければなりませんでした。その点、アナログカメラには、ソニーが採用したヒロセの12ピンコネクタがついていて、ここには電源、ビデオ信号(アナログ信号)、制御信号などが組み込まれていて、1本のケーブルをカメラに接続するだけで配線ができました。従って、もしカメラリンクにカメラ電源を入れ込むことができれば、カメラ寸法も従来のアナログカメラと同じサイズを保つことができます。スペースに制約が多いFA検査装置では、カメラサイズが一定に保たれることは大きな魅力です。こうした素朴な要求がこの規格を生み出しました。
- また、カメラから送られてくる映像データは、ユーザが開発した画像処理ソフトによって処理されるために、画像処理装置は現行のものを流用したい要求があります。つまり、カメラをデジタルに代えた時、そのデータを受ける画像ボードが旧来のものと互換がとれるようなPCIバスボードである必要がありました。さらに、デジタル化される画像は、旧来のアナログ画像以上の画質を持つことが求められました。
- 新しいカメラリンクの規格PoCLは、2004年、FAユーザが画像ボードメーカー(マイクロ・テクニカ社)へ寄せられた要望から始まったと言われています。規格化への道のりは、カメラメーカーである(株)シーアイエスが中心となって、2005年6月に国内のボランティアワーキンググループ(Working Group Japan = WG-jpn)8社が賛同し活動を開始しました。WG-jpnには、画像ボードメーカ(マイクロ・テクニカ、アバールデータ、スタック)、カメラメーカ(シーアイエス、東芝テリー、日立国際電気)、ケーブルメーカ(住友スリーエム)、画像処理装置メーカ(ファースト)が参加しました。
- この規格は、現時点(2009年)でもっとも新しい規格です。
|
|||||
- TIFFは、静止画像として一般的なファイルフォーマット形式を整えた最初のものだと記憶しています。それまでの画像は、各自バラバラで生データフォーマットによる画像保存がなされていました。
- TIFFは、Tagged Image File Format の略です。このフォーマットは、高密度ビットマップ画像(ラスター形式)で、解像度の設定、モードコントロールを可能にしていました。TIFF画像は、最初にモノ画像(白黒画像)ができて、フルカラー(約1670万色)への対応がはかられてきました。TIFFファイルが開発されたのは1986年で、スキャナーの取り込むデータフォーマットとして米国Aldus社(DTPソフト『PageMaker』を開発した会社、現在はAdobe社に吸収)が開発しました。これをMS-DOS が採用したことから一般的になりました。
- Windows の世界で有名なBMPフォーマットと比べてみると、BMP(マイクロソフトがMS-DOSで標準でサポートした画像ファイルフォーマット)がどこに何を格納するかというファイル全体のレイアウトが予め決められているのに対し、TIFFではデータの格納場所が始めから決まっているのはファイルの先頭におく8バイト分のデータだけになっています。この部分には、TIFFファイルであることを確認するための情報と数値データの扱い方、それにファイルに格納されている情報の「一覧表」(IFD = Image File Directory)がおかれています。この一覧表を見て、アプリケーションソフトはファイルの中から必要な情報を引き出します。
- TIFF ファイルは拡張性が高かったので、1990年代は様々な「方言」ができあがりました。そこでTIFFでは、TIFFを扱うアプリケーションは最低限これだけの機能をサポートしなければならないという取り決め、つまり、「ベースライン」を設け、この他の機能は「エクステンション」としてまとめて互換性を高めようとしてきました。その「ベースライン」として、RGBモード、インデックスカラー、グレースケール、2値化白黒画像があります。
- 画像圧縮としては、ランレングス圧縮の一種である「Pack Bits」とG3ファクシミリで知られたハフマン系の「MH = Modified Huffman 圧縮」が使われました。このほか、エクステンション(予備)として、CMYKモード、YCbCrモード、「LZW圧縮」、「JPEG圧縮」、G3・G4ファクシミリの圧縮方式と互換のある「MH圧縮」、「MR圧縮」への対応が計られました。また、一つのファイルに複数の画像を格納できるのもTIFFの大きな特徴です。これにより動画を見ることもできました。このアイデアは、AVIファイルの先駆けとも言えるべきものでした。
- TIFFは、計測分野では大事なファイルフォーマットです。その理由の第一は、8ビット以上の階調が保存できること、第二の理由が、計測データがヘッダに格納でき、保管に便利なためです。現在(2009年)でも、16ビット濃度を持つ画像の保存にはTIFFファイルが使われています。
- TIFFはまた、EPS形式に比べ、プレビュー画像の解像度が低いので再描画が速いという長所があります。しかし、カラー TIFF は、DTP(Desk Top Publishing :コンピュータ印刷版下)には基本的には使えないので、「Photoshop」などでEPS(Encapsulated Post Script)フォーマットにコンバートする必要がありました。
- BMPは非常に有名なファイルです。平易な画像フォーマットであるため、現在でも計測分野で使われています。BMPは、Bit Map Fileの略であり、Windowsの標準画像データ・フォーマットです。1986年に作られました。MS-DOSの普及で一般的になり、ワープロや表計算、データベースといったさまざまなアプリケーションでサポートされてきたため、ビジネスやWindowsコンピュータを使う世界で一番普及した画像データ形式となりました。BMPは、読んで字の如く画素に階調(色情報)を割り当てたビットマップ(ラスター)形式の画像ファイルです。ファイルの拡張子は.BMPまたは.DIB、.RLEです。Windows3.0からは、デバイス独立ビットマップ(DIB:Device Independent Bitmap)という形式に拡張されました。したがって、正しくはDIBファイルと言った方が良いのですが、昔からの習わしでBMPファイルと呼ぶことが多いようです。
- このフォーマットでは、RGBモードで1600万色のカラーモードを持ちます。これは、Windowsの表示・印刷のためのメタ言語(GDI)によって構成されるファイル形式です。4ビットBMPと8ビットBMPではランレングス圧縮(RLE)が行えます。この圧縮を行ったBMPファイルの拡張子が.RLEとなります。ランレングス(Run Length)は、連続する同じデータを「個数 + データ」というかたちで表すことによって圧縮を行うので、同じ色や階調が続くべた塗り画像にはとても効果的です。
- Macintosh が開発された当初、描画方法を規格化したQuick Draw(くいっくどろー、マッキントッシュのグラフィックエンジン)が作り出されました。このQuickDrawを使って開発されたグラフィックフォーマットがPICT(ぴくと)と呼ばれるものです。1984年に出来上がりました。PICTの名前は、Pictureに由来しています。非常に有名なフォーマットでした。QuickDrawで記述された画像は、ビットマップ(ラスターイメージ)だけでなく、ドロー系(ベクターデータ)画像も扱うことができます。クリップボード、DA(ディスクアクセサリ)のスクラップブックの画像データはこのフォーマットで行っていました。『Paint』フォーマットと違い、扱える画面像の大きさに制限がありません。 このフォーマットを厳密に述べると、
- 『PICT』 → モノクロフォーマット
- 『PICT2』 → カラーフォーマット
- の二種類があり初期は4ビット(8色)でしたが、後に24ビット(約670万色)になっています。
- PICTの表現は豊かな反面、出力に難があり、印刷関係でのトラブルもちょくちょく発生しました。
- 特にPost Script とQuick Drawの相性があったため、取り扱いに注意が必要でした。Windows の世界ではあまり使われませんでした。
- PICTは、2009年にあっては、ドロー系のPDFファイルが主力となって、PICTの機能を網羅できるようになったためほとんど使われない画像フォーマットとなりました。
ファイルフォーマットによる画質の違い TIFF、BMP、PICTのビットマップ画像。圧縮されてないので容量は大きい。しかし、画質は良好。 圧縮率10%のJPEG画像。JPEG独特のノイズ(モスキートノイズ)が現れる。文字の隙間の背景色が白く褪せたようになっている。JPEGでは圧縮率を高めると、細かい情報がなくなる。 上の10%に圧縮したJPEG画像を拡大表示したもの。圧縮による画像の荒れが目立つ。モスキートノイズが出るのは、8画素x8画素で圧縮を行うため。 圧縮ファイルであるGIFの画像を拡大表示したもの。GIF画像は可逆圧縮であり、原画像の情報欠落はない。文字などは、GIFの方がJPEGよりもきれい。同じ圧縮方式にPNGがある。GIFは特許の問題があるが、PNGにはない。 EPSファイル。EPSは数式で画像を記述している。ビットマップと違って、スケーリングしても最適な画像を表示。従って画像を拡大しても滑らかに表現する。
- GIFファイルは、米国パソコン通信の大手企業Compuserveが1987年に開発したグラフィック用の画像圧縮ファイルフォーマットです。「ジフ」と呼んでいます。BMPがMS-DOSで採用されてから1年とたたないうちに圧縮画像画像が世に出たのです。通信利用(インターネット)を考慮しているためファイルのメモリサイズが小さく、どんなマシンでも読み込めるのが特徴でした。
- GIFは、本来は256色までの色数の少ない画像データを圧縮するために作られました。256色ですから写真画像は眼中になかったことになります。1987年当時は写真をインターネットで流すことは不可能だったのです。
- GIFでは、基本的に画像データに含まれる色のパターンを見つけだして効率よく圧縮するため、写真のようにたくさんの色がランダムに現れる画像は苦手です。また、可逆圧縮(もとのデータを壊さないような圧縮)のためファイルサイズはJPEGより小さくなりません。ちなみにJPEG は写真用に作られた圧縮ファイルで非可逆圧縮方式のため、画質を落としてでも画像を圧縮します。したがって、GIFフォーマットで絵などを効率よく圧縮したければできるだけ色数を少なくします。
- GIFは、1990年代前半、すなわちインターネットが画像を大々的に扱うようになってくると、一斉を風靡するようになりました。しかし、開発元のCompuserve社が特許を主張して、GIFを使うユーザに使用料を請求するようになると、GIFを使用するユーザが減り、代わって無料で使用できるPNGユーザが増えました。
- GIFの特許は、2004年で切れました。そのため、GIFを再度使うユーザが戻っては来たものの、その間にPNGやAdobe FLASHなどがGIFの性能を凌駕してしまったので、かつての人気を呼ぶほどにはなっていません。
- ▲ インターレース方式ができるGIF
- 一般的なファイル拡張子はgifです。インターレースGIF、透明GIF、アニメーションGIFがありホームページで最も代表的な画像フォーマットとなっています。ノーマルGIFフォーマットでは、画像を構成している一番上の行の左から右へ上から下へと1画素ずつファイルに書き込まれます。そのためダウンロードできた画素から順番に表示されるインターネットブラウザでは、この順番に表示されます。
- これに対しインターレースGIFフォーマットでは、上から下へ行を順番に1行ずつ書き込むのではなく、1行目、9行目、17行目といった具合に間引いて書き込みます。したがって早い時期に粗い画面を見ることができます。
- GIFの初期バージョンは256色しか扱うことができませんでした。これを解決すべくGIF24と呼ばれるフォーマットができてこれによってフルカラーのGIF保存が可能となりました。
- ▲ GIFが採用している圧縮方式
- GIFフォーマットの圧縮は、「LZW圧縮」方式を採用しています。LZW圧縮は米国で開発された歴史ある可逆圧縮方式で、辞書を用いた圧縮方式です。辞書を用いるとは、画像を保存する際に、画像データをスキャニングしていき、データ配列を逐次辞書に書き込み、同じ配列がデータ内にあるときは、書き込んだ辞書を参照するという記述にしています。この方法によってデータを圧縮しています。
- この圧縮方式は、最初の論文を書いた イスラエルのAbraham Lempel氏とJacob Ziv氏の頭文字を取って「LZ」と呼ばれるものがベースとなっていました。これを世界初のコンピュータ「ENIAC」を開発したSperry社のエンジニアTerry Welch氏がさらに改良して、1984年に現在の「LZW圧縮」を完成させました。この圧縮アルゴリズムは、TIFFの他にモデムの圧縮プロトコルであるV.42bisや画像フォーマットのGIF、ドキュメント用のファイルフォーマットPDF、ポストスクリプト・レベル2などで使用されています。Sperry社は、Burroughs社と合併してユニシス社となったため、「LZW圧縮」形式の特許は同社が保有することになりました。
- JPEGファイルは、Joint Photographic Experts Groupの略です。1986年に組織が作られ、1992年に最初の規格が制定されました。以後いくつかの変更を経て、2009年現在では、画像フォーマットの標準規格となるくらいに普及しました。静止画像の8割近くはこのフォーマットを使っていると言っても過言ではありません。JPEGの登場は、画像品質を一定に保ちながらファイル容量を軽減するという相反する要求をクリアしました。
- JPEGは、GIFと異なり写真圧縮用に開発されたフルカラー画像圧縮フォーマットです。画像は、1600万色まで対応します。圧縮は、非可逆圧縮をとるため一度圧縮すると元に戻りません。したがって、任意の圧縮率を選ぶことができます。圧縮率を上げるとファイルサイズを小さくできる反面、画像品質が劣化します。一般的な拡張子はjpgあるいはjpegです。規格策定の経緯から見てもわかるように、写真などに適したフルカラー画像フォーマットで、Internet Explorerも対応したことで、2000年代初頭はGIFフォーマットに次ぐ画像フォーマットになり、2009年現在は最も普及した画像フォーマットとなっています。
- ▲ 非可逆圧縮方式:JPEGでは、ピクセルデータを8x8のブロックに分け、一つ一つのブロックについてDCT(Discrete Cosine Transform = 離散コサイン変換)という手法を用いてデータを符号化します。この8x8ピクセルのデータの中で、非常に特徴ある情報(このブロックの画像情報を決定づける変化の少ない、重要な要素)だけを最優先に残し、どうでも良い要素をふるいにかけます。つまり周波数の高い情報(細かい画像)はここで消されてしまいます。JPEGでは、圧縮の度合いがユーザによって決められるので、圧縮率を高めれば細かい情報がどんどんなくなり、最後は8x8( = 64画素分)が一つの情報、すなわちモザイクになってしまいます。
- DCTによって変換された画像は、可逆圧縮の「ハフマン法」と「ランレングス法」を用いて圧縮されます。周波数の高い情報は、DCTによって消されていますから非常に高い圧縮が可能になります。
- ▲ ノーマルJPEGとプログレッシブJPEG: GIF同様通信利用を考慮して開発された画像のフォーマットです。国際電気通信連合とISOが共同で開発しました。GIFより画質が劣りますがファイルサイズをより小さくできます。ノーマルとプログレッシブの関係はGIFのインターレースと同じです。
- 【問題点】
- サイズの大きくなりがちなグラフィックスデータにあって、高圧縮を実現するJPEGは注目度が非常に高く、デジタルカメラの画像、パソコン通信やインターネットでは主流となりました。しかしながら、8x8ブロックによるふるいのかけ方からもわかるように、JPEGはあくまで写真のように自然画像に対して最適化するように作られていますから、イラストや文字ではシャープなエッジ部を殺して、鈍(なま)らせてしまいます。
- また、我々の用に画像から計測しようとするものにとっては、エッジをなまらせるJPEGは、誤差を拡散させる何ものでもなく、計測精度を劣化させるという不具合が生じます。計測用の画像ファイルは、TIFF、BMP、GIF、PNGが理想となります。
- ▲ JPEG 2000: JPEG2000は、JPEGの後継ファイルフォーマットです。2000年12月に勧告されました。 が、2009年現在、JPEGほどの普及を見ていません。この画像フォーマットは、JPEGフォーマットに比べて、高画質を維持したまま圧縮率を高める改良が施されていて、JPEGの欠点であったモスキートノイズやブロックノイズ低減に成功しています。JPEGが、固定の8x8画素で圧縮するアルゴリズムであるのに対し、JPEG2000では、処理画素を可変でき、最大256x256画素を対象として圧縮を行っています。処理対象画素が大きくなった分、圧縮率が上がり、しかもモスキートノイズが出にくくなりました。また、JPEGが、圧縮アルゴリズムに離散コサイン変換(DCT: Discrete Cosine Transform)を採用しているのに対し、JPEG 2000では、離散ウェーブレット変換 (DWT: Discrete Wavelet Transform) を採用しています。ウェーブレットとは、さざなみのことで、圧縮プロセスを一義的に行うのでなく、画像の細かい変化に対して柔軟に対応する方式です。このプロセスにより、ブロックノイズなどのアラがJPEGに比べて目立たなくなっています。
- このように、JPEG2000はJPEGの欠点を補ったフォーマットなのですが、WindowsのOSが標準でサポートしなかったのがつまづきの発端で、2009年現在においても普及率はかなり低く、多くのユーザは引き続きJPEGを使っています。従って、JPEG2000フォーマットの画像をWebに載せても、ユーザのコンピュータにあるブラウザソフトでは見ることができません。アップル社が販売しているマッキントッシュでは、MacOSでこのフォーマットを標準でサポートしているので、アップルが開発したブラウザソフト「Safari」では、この画像を見ることができます。また、アップルの開発によるiTunesや、iPodで普及を見ているQuickTimeでも、この画像フォーマットは標準で対応しています。WindowsでJPEG2000画像を見るには、プラグインをインストールする必要があります。また、JPEG2000フォーマットは処理が難しく、画像を作るのにJPEG画像処理の5倍から6倍の処理能力(処理時間)がかかると言われています。
- PNGファイルは、Portable Network Graphics ファイルの略です。インターネットで一般的になったGIF画像フォーマットには、ユニシス社の「LZW圧縮技術」が使われていますが、これには特許料が絡んでいて、1994年以降、同社がその特許料の徴収を始めました。これに伴い、「LZW圧縮技術」を使わない新しいグラフィックスファイルフォーマットの研究が始まりました。WWWの標準化を行っているグループW3C(World Wide Web Consortium)が、GIFに代わるWeb用の画像として1994年に次世代の画像ファイル形式として開発したのがPNGです。PNGは、GIFが無償で使えなくなったために作り出されたフォーマットと解釈すれば良いと思います。ピングと呼びます。
- PNGが開発された経緯からもわかるように、GIFが実現していたほとんどの機能を踏襲しています。扱える色は1ビットインデックスカラーから各色16ビットRGBまで幅広く、インターレース表示や高い可逆圧縮に対応しています。
- PNGフォーマットには、「デフレ圧縮」(Deflation Compression)と呼ばれる特許の制約を受けない可逆的な圧縮アルゴリズムを使用しています。「デフレ圧縮」はアーカイバソフト「PKZIP」の作者として知られるPhil Katz氏がデザインしたアルゴリズムです。
- 非常によくできた画像ファイルフォーマットで、非可逆(圧縮しても画像の劣化が無い)のために利用価値が高く、現在のパソコン(WindowsXP、MaxOSX)で全く問題なく閲覧することができるのに、JPEGよりは活発に利用されていない感じを受けます。
- Exifは、Exchangeable Image File の略です。ファイルCCD、CMOSなどの固体撮像素子を使った電子スティルカメラ(デジタルカメラ)の普及にともなってデジタル画像の統一を図るため、富士フィルムが発起人となり、日本電子工業振興協会(JEIDA = Japan Electronic Industry Development Association)が1995年10月に策定しました。これは、1997年10月にver.2.0が、そして1998年6月にver.2.1、2002年2月にver.2.2と改訂されました。この規格に参画している企業は日本のデジタルカメラを作っているメーカがほとんどです。
- デジタルカメラに採用されている画像フォーマットは、1998年12月、ISOでDCF(Design rule for Camera File system)という仕様が作られて、全てのデジタルカメラメーカーがこれを採用するようになっています。
- DCFはメディアに保存するときのファイルシステムまでを含んだ包括的な仕様ですが、画像ファイルフォーマット自体はExif 2.2に準拠し、それにいくつか変更を加えたものとなっています。
- Exif画像の構造は、基本的には通常のJPEG画像形式そのものであり(規格ではTIFFやHD Photoも含まれる)、その中に160x120画素JPEG圧縮サムネィルや撮影情報等のデーターをJPEGの規約に準拠した形で埋め込んだものです。従ってJPEG形式をサポートしているインターネットブラウザー、画像ビュアー、フォトレタッチソフト等を使えば、Exif画像ファイルは通常のJPEG画像として見ることができます。Exif画像フィアルでは、画像データそのものの他に、メタデータ(metadata)と呼ばれる撮影に関する事細かなデータも収録されています。
- 主なデータ情報は、以下の通りです。
- ・ ExposureTime: 露出時間。逆数値で表示。
- ・ FNumber: 撮影時のレンズ絞り。
- ・ ExposureProgram: マニュアル撮影、自動、絞り優先などのモード。
- ・ ISOSpeedRatings: 撮像素子感度をフィルムで使われているISO感度に換算して表示。
- ・ ExifVersion: ファイルのバージョン表示、Exif2.1ならば0210と表示。
- ・ DateTimeOriginal: 撮影日時、カメラに時計が内蔵されていない場合はスペース。
- ・ ComponentsConfiguration: 画素データ配列表示。
- ・ CompressedBitsPerPixel: JPEG圧縮率の表示。
- ・ ShutterSpeedValue: 露出時間のAPEX換算値。
- ・ ApertureVallue: レンズ絞りのAPEX換算値。
- ・ BrightnessValue: 被写体明るさのAPEX換算値。
- ・ ExposureBiasValue: 露出補正値。
- ・ MaxApertureValue: レンズの最大口径比。
- ・ SubjectDistance: 撮影距離、メートル表示。
- ・ MeteringMode: 露出測光モード= 平均測光、中央重点測光、等の表示。
- ・ LightSource: 使用光源、デーライト。タングステンなどの表示。
- ・ Flash: ストロボ使用、Auto設定などの表示。
- ・ FocalLength: 使用カメラレンズ焦点距離。ミリ表示。
- ・ FlashPixVersion: 画像ファイルがFlashPixである場合はそのバージョン表示。
- ・ ColorSpace: カラースペース。
- ・ ExifImageWidth: 画像サイズ巾。
- ・ ExifImageHeight: 画像サイズ高。
- ・ RelatedSoundFile: 画像データに音声を録音した場合音声ファイル名を表示。
- ・ FocalPlaneXResolution: 撮影した画像画素。部分読み出し撮影などのケースがあり撮像素子画素と必ずしも一致しない。
- ・ FocalPlaneYResolution: 撮影した画像画素。部分読み出し撮影などのケースがあり撮像素子画素と必ずしも一致しない。
- ・ FocalPlaneResolutionUnit: FocalPlaneResolution単位。インチかセンチメートルの単位を表示。
- ・ ExposureIndex: ISOSpeedRatingsに同じKodakのみがこのタグを使用。
- ・ SensingMethod: センサーチップ表示。ほとんどのカメラが"2"の単板カラーフィルタセンサー。
- ・ FileSource: 画像ソース。0x03はデジタルスティルカメラ。
- ・ SceneType: 0x01は、直接撮影。
- 上の画像は、デジカメで撮影したExif画像とその画像に入っているExifデータ。
- データの詳細を右に示す。
- このファイルから、撮影した年月日と時間、使用したカメラ、撮影条件、ファイル容量など事細かな情報を見ることができる。
- この画像は、マッキントッシュの画像アーカイブソフトウェア「Graphic Converter ver.5.9.5」を使用して閲覧した画面のコピーである。
- (2006.06)
- DICOMは、Digital Imaging and COmmunications in Medicine の略です。医用画像(医学で使用されているX線画像、CT画像、NMR画像)を広範囲に使用するために、通信で画像を扱うことを主目的とした統合規格です。フォーマットの拡張子は、.dcmです。
- 医学の世界では、X線診断の時代から(フィルム)画像が多く使われてきました。そうした画像の多くは、病院などで保管されることが多く院外に出ることはあまりありませんでした。しかし、CTやNMR画像、超音波画像、通常のビデオ画像、デジタルカメラによる撮影が普及しインターネットも普及するようになると、そうした画像データ及び診察所見データを共通のファイルとして保存閲覧できる要望が高まりました。インターネットで送受信したり、CDやDVDにコピーするという需要が高まってきたのです。
- DICOMは、米国放射線学会(ACR)と北米電子機器工業会(NEMA)が開発し、1993年に正式に承認されました。
- 日本では、1991年頃からJIRA(日本放射線機器工業会:医用画像機器業者の団体)が検討を開始し、1994年に採用を決定しました。日本のMIPS委員会ではDICOMに日本語が対応できるように規格を更新し、1995年にはlossless(画像圧縮によっても画像の劣化を伴わない)方式も制定されました。
- 欧州ではCENが中心となって規格化を推進しました。JIRAは、DICOM規格の実装技術の習得、相互接続試験の実施、および、利用者へのPRを目的として、JMCP95(名古屋、1995年4月)においてMIPS規格-94/DICOMデモを実施しました。JIRAの17社、および、日本医学放射線学会の数グループの参加により、日本でもDICOM規格が確立したことを示しました。
- DICOMフォーマットの根本は、共通化した「入れ子」にあります。X線装置などの診断装置で得られた画像を、できるだけ画像を劣化しないように、かつコンパクトな容量で保存し、併せて患者の履歴(カルテ)も保存して共通で閲覧しようというものです。DICOMで保存されたファイルは専用のViewerで開けて見ることができ、必要に応じて一般の標準画像フォーマット(TIFF、PNG、JPEG、AVI、MPEGなど)に変換保存できるようになっています。
- EPSフォーマットは、Encapsulated Post Script フォーマットの略です。EPSFとも呼ばれています。一般的な画像フォーマットではないので馴染みが薄いかも知れません。グラフィックソフト「Illustrator」(Adobe社、1985年〜)が扱うファイルフォーマットと言えばわかりが早いでしょうか。また、世界的に有名になっているPDF(Portable Document Format、1993年開発)ファイルも、下地はEPSフォーマット技術を使っています。このフォーマットの拡張子は、.eps、.aiです。一般の画像フォーマットであるWMF(メタファイル)やマッキントッシュのPICTがOS用言語で描かれたファイルであるのに対し、EPSはプリンタ言語(PostScript言語)で描かれているのが大きな特徴です。ポストスクリプト言語は、米国アドビ社が開発したプリンタ言語です。
- 同社は、過去にはマッキントッシュ用のレタッチ画像処理ソフト「Photoshop」(1990年〜)を開発しています。EPSファイルは、レイアウトに貼り込んで使用することを前提にしたフォーマットで、汎用性が高いのが特徴です。Encapsulated Post Scriptを日本語に直すと「カプセル化したポストスクリプト」ファイルという意味になります。このフォーマットは、精度の高い出力が可能で広告版下用に使われます。Aldus Freehand や Adbe Illustrator などのソフトウェアは、直接PostScript(アドビ社が開発した言語) データを操作するのでEPSファイルとして書き出すことができます。但し、EPS自体は、画像表示できないのでモニタにはPICTもしくはTIFFファイルにして表示させる必要があります。円を描く場合、キッドピクス(WindowsではPaint)などのペイント系ソフトではギザギザの円になりますが、Aldus Freehand (Adobe Illustrator)などのPost Script系の円はなめらかになります。このように、Post Scriptは精度が高い出力が可能となります。
- EPSファイルは、ASCII 形式のものと、バイナリ形式の2種類があり、バイナリ形式のものはファイルサイズが半分になります。カラーデータを4色分解するには、今のところEPSフォーマットでないと4色分解ができません。
- ポストスクリプト: ポストスクリプト(Postscript)は、PhotoshopやIllustratorと呼ばれる画像レタッチソフトで有名な米国Adobe社が開発したプリンタのためのページ記述言語です。同じようなものに、キャノンの「LIPS」、エプソンの「ESC/Page」、ヒューレットパッカードの「PCL」がありました。こうした言語と、ポストスクリプトの違いは以下の通りです。
- ・いち早く開発された。(マッキントッシュができた1880年代)。
- ・プリンタに依存せずにテキストやグラフィックが印刷ができた。
- こうした理由から、広告やイラストを扱う分野でポストスクリプトは広く普及していきました。1993年に登場したPDF(Portable Document Format)は、アドビ社のポストスクリプト言語をいかんなく発揮したファイルフォーマットであり、この言語技術によりパソコンによる文書統一という大改革に成功しました。
- ポストスクリプト自体は、ベクター、ラスター( = ビットマップ)の両形式と、テキスト(フォントの定義を行う所)という印刷に必要なすべてのデータが標準化され、グレースケールやカラーも扱えるようになっています。データとして興味深いのは、バイナリコードではなく、すべてテキストで記述されている点です。プリンタ自体をコンピュータとして見なしていて、プリント内容をテキストで送り、プリンタ側で最適なプリント出力を行うという考えです。この記述は、単なるオペレーションコードではなく、ハードウェアの制御や「if」などのプログラムの制御命令まで用意された完全なプログラム言語でした。
- イーサネットは、この通信のために開発されました。1980年代、パソコンが非力な時代になんとも広大な構想を練っていたものだと感嘆せざるを得ません。今では、世界的なコンピュータグラフィクス会社となったアドビ社(創始者:ジョン・ワーノック、John Warnock、1940.10.06〜)も、アップルの稀代の営業マン・スティーブ・ジョブズに会わなければ、これだけのやっかいなビジネスを成功させ得なかったと思わせます。
- やっかいだ、と言ったのには理由があります。1980年当時、ジョン・ワーノックが取り組んでいた言語「ポストスクリプト」は、気ちがいじみたという表現が当てはまるほど、現実離れした複雑なソフトウェアだったのです。ポストスクリプトは、1980年代後半のコンピュータでは、快適に、そして高速に処理することはできませんでした。それくらい当時としてはきわめて先進的で、複雑なソフトウェアだったのです。1980年代中期の多くのパーソナルコンピュータ用ソフトウェアに比べて、ポストスクリプトはけた違いに複雑だったのです。
- マイクロソフト社が売り出したMS-DOSの原型であるティム・パターソン(Tim Paterson、1956〜)が書いたQDOSは、開発に半年もかかりませんでしたし、ジョナサン・サクス(Jonathan Sachs、1947〜)は Lotus1-2-3を一年で完成させました。ポール・アレン(Paul Allen、1953.01.21〜)とビル・ゲイツ(Bill Gates、1955.10.28〜)は、マイクロソフトBASICを6週間で仕上げました。アンディ・ハーツフェルド(Andy Hertzfeld、1953.04.06〜)でさえ、 Macintosh のシステムソフトウェアにかけた時間は二年足らずだったのです。しかし、ポストスクリプトは、完成までに20人年もかかっているのです! はるかに大きな処理能力を持つメインフレームの世界なら、ポストスクリプトが生まれても不思議はありません。お金の投資も惜しまないでしょう。しかし、現実に成功したのは、当時まだまだ小さな会社であったアップル社とアドビ社の手がけていたパーソナルコンピュータの世界だったのです。これは驚くべきことであり、スティーブ・ジョブズ(アップル創始者)にとっては自分の信念が見事に花開いた歴史的な成果だったのです。
- (パソパソコンの文化 第16話 「パソコンを形作ったアプリケーションソフト(その1) - アドビ(Adobe)参照)
- ■ aiファイル:
- aiファイルは、Adobe社の描画ソフト「Illustrator」用のファイル形式です。DTP(Desk Top Publishing、広告宣伝、印刷物作成)を目的としており、ドロー系のグラフィックファイルとなります。描画をビット単位で行わずベジェ曲線を使った関数による記述を使っているため、ファイルを開いてそれを拡大してもジャギー(ギザギザ)は決して現れません。Illustrator自体は Macintosh 育ちのソフトですが、バージョン7.0からはWindows版が発売されました。これにより Macintosh と完全互換ができるようになりました。Illustoratorでは、ビットマップの画像も配置できます。
- 圧縮ファイル - 画像によるファイル容量の違い
- 以下に、画像と画像ファイルによるファイル容量の比較を示します。
- 下に示す左右の写真は、左がBMP(ビットマップ)ファイルで、右がJPEGの10%まで圧縮した画像ファイルです。画質は一目瞭然で、JPEG画像は粗さが目立ちます。BMPファイルは、非圧縮ですから画素数がそのままファイル容量となって、512x417画素@8ビット濃度では、
- 512 x 417 = 213.5k バイト
- となります。JPEGでは、10%に圧縮してますのでファイル容量は1/37の5.7kバイトです。ファイル容量がかなり小さくなった分画質が悪くなっているのが理解できます。この画像でPNGファイルを作ると、155.7kバイトとなります。BMPファイルの73%程度しか圧縮できません。このことからPNG(可逆圧縮ファイル)では写真のような細かい画像に対してはあまり得意ではないことがわかります。
- その下に示したサンプル画像は、白と黒がはっきりした単純なパターン画像です。この画像でファイル容量を見ますと、BMPファイルは、写真画像と同じ215.0kBとなり、JPEG10%圧縮ファイルは7.4kBと1/29の圧縮になっています。注目すべきは、PNGファイルで、2.7kBと驚異的な可逆圧縮になります。PNGはアニメは文字などのパターンが明確なものに対して非圧縮画像と変わらない品質で高い圧縮ができることがわかります。JPEGは、文字やグラフィック画像の圧縮では画が汚くなります(モスキートノイズが出る)。
- 最後に真っ白な画像について考察します。真っ白な画像でもBMPファイルは画素数ぶんだけのファイル容量(215.0kB)となります。JPEGは、8x8画素で画像のパターンを見ていきますので、1/(8x8) = 1/64以下にはなりません。しかし、PNGでは1.9kBと1/119の圧縮になります。パターンが単純化したものほどPNGファイルの威力が発揮できると言えるでしょう。
![]()
- 512x417画素8ビットの白黒写真画像のファイル容量を比較。
- ・BMPファイル:215.0kB - 上左の画像。
- ・TIFFファイル:215.0kB - 圧縮を行わないTIFFファイルはBMPと同じファイル容量を持つ。
- ・PNGファイル:155.7kB - 可逆圧縮ファイルなので細かい写真画像の圧縮率はよくない。
- ・JPEG90%圧縮ファイル: 51.9kB - ファイル容量は1/4程度になった。画質は遜色なし。
- ・JPEG50%圧縮ファイル: 18.6kB - ファイル容量は1/11程度になった。画質は若干荒れている。
- ・JPEG10%圧縮ファイル: 5.7kB - 上右の画像。ファイル容量は1/37。
- ・JPEG 1%圧縮ファイル: 4.0kB - ファイル容量1/53。画質はかなり荒れる。
- 512x417画素8ビットの白黒パターン画像のファイル容量を比較。
- ・BMPファイル: 215.0kB - 上左の画像。
- ・PNG圧縮ファイル: 2.7kB - 1/79の圧縮となる。画質の遜色はなし。
- ・JPEG90%圧縮ファイル: 16.0kB - ファイル容量は1/13程度になった。画質は遜色なし。
- ・JPEG10%圧縮ファイル: 7.4kB - ファイル容量は1/29程度になった。画質は遜色なし。
- ・JPEG 1%圧縮ファイル: 5.8kB - 上右の画像。ファイル容量1/36。画質は荒れる(モスキートノイズ)。
- パターンの大きな画像は、少しの圧縮率設定で大きなファイル圧縮ができる。その理由は、JPEGの8x8の圧縮アルゴリズムが、パターンのはっきりした画像では1/64にすることができるため。パターンの粗い画像はPNGが圧倒的に有利で高い圧縮率が得られる。
- 512x417画素8ビットの
- 白色画像のファイル容量比較
- ・BMPファイル: 215.0kB - 左の画像。
- ・PNG圧縮ファイル: 1.9kB - 1/119圧縮。
- ・JPEG 90%圧縮ファイル: 3.6kB - 1/59。
- ・JPEG 50%圧縮ファイル: 3.6kB - 1/59。
- 単純な白一色の画像でも、BMPファイルでは画素分の容量が与えられる。PNGファイルでは、1/119の圧縮を行い、JPEGより圧縮率が良い。これは、JPEGとは違う圧縮アルゴリズムを使っているため。JPEGは、8x8画素を一つのブロックとしているため、1/64以下には圧縮できない。単純な画像であればPNGの方が圧縮率がよい。
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
- AVIファイルは、Audio Video Interleaved Formatの略です。マイクロソフト社が1992年にPC用に開発したムービーフォーマットです。AVIは、Windows標準のDIB(Device Independent Bitmap = BMP)画像の連続したファイルシーケンス間に、WAVEデータ(音声データ)(WAVフォーマット)を挟み込んだフォーマットとして出発しました。
- Windws95で利用できたMicrosoft Internet Explorerは、AVIファイルがインラインムービーとして利用されていました。
- AVIファイルは、WAVE音声データと合体させている関係上RIFF(Resource Interchange File Fomat)という入れ物を利用しています。このRIFFの入れ物が、32ビットの文字の制約を受けるため、ファイルのサイズも32ビット(4,294,967,296 = 4Gバイト)までとなります。また、データ量にも制限が加えられ、16ビットのAVIで1Gバイトのファイル、32ビットのAVIで2Gバイトの制限となります。ファイルを圧縮して2GB以下にしても、AVIでは再生時に非圧縮と同等のメモリ領域を確保するようで、このときに2GB容量を超えるとエラーとなり再生ができなくなってしまいます。多くのマルチメディアデータにおいて、1Gや2Gは十分な容量ですが、ことムービーに関しては、この限りではありません。ビデオ並のクォリティで扱おうとすると、あっという間にメモリの壁に突き当たってしまいます。
- 最近の(2000年以降の)高速度カメラでは、カメラに2GBから4GBのメモリを搭載していて、撮影した画像をパソコンに転送してそのまま画像ファイルとして保存しようという傾向にあります。AVIファイルは、とても古い規格で継ぎ足し継ぎ足しで存続している規格ですから、4GBのような膨大なデータでAVIファイルを作ろうとするといろいろな障害がおきます。
- それに、開発元のマイクロソフトは、1997年(12年以上も前)にサポートを中止してしまいました。
- AVIでは、どうにも拡張性がないということのようです。マイクロソフトは、1996年にAVIに変わるフォーマットとしてASF(Advanced Streaming Format)を登場させて普及をはかりますが、芳しい結果になりませんでした。
- そこで、マイクロソフトは、WMV(Windows Media Video File)ファイルを2000年に登場させ、WindowsOSの標準動画ビュアであるMediaPlayerの標準フォーマットにしました。WMVをサポートする現在のMediaPlayerでは、もちろん旧来のAVIファイルを読み込むことはできます。しかしながら、OSやAVIそのものの規格から外れた2GB以上の容量を持つAVIファイルに対しては、ユーザーの責任において処理しなければならない問題として残っています。
- そうは言っても、計測分野での動画処理では2009年現在でもAVIは圧倒的に主流です。
- 多くの計測用動画処理ソフトが、現在もAVIファイルを主ファイルフォーマットとし、MPEGやWMVファイルには対応していないのが実情です。DVDなどの映画がMPEG2の規格で動画像を保存しだしているため、AVIを扱うのは計測を目的とした分野に限られるようになってきました。その理由は、AVIは、一枚一枚の画像を分離して保存できるものだからです。しかし、AVIのコーデックには、MPEGや、H.264などの時間圧縮方式も出てきたので(この方が、圧縮率が高くて画質が良い)、こうしたコーデックを持ったAVIを計測に使う場合には、従来の常識である「AVIは一枚一枚が独立した画像」という考えができなくなり、画像処理上では問題になることがあります。
- 【AVIファイルの圧縮 - 圧縮コーデック】
- AVIでは、データの圧縮メカニズムがシステム(OS)そのものと関係なく独立しているので、圧縮コーデックドライバがインストールされていれば、いろいろなタイプの圧縮が可能です。逆に、適切なドライバがインストールされていないと、圧縮されたデータが読み出せず映像部が再現されません。使用している圧縮コーデックに関する情報は、ビデオストリームのヘッダに4文字のIDのかたちで記録され、再生時に指定されたドライバを読み出して映像を再現するようになっています。
- コーデックで有名なものでは、インテルが開発したIndeo(1992年〜)、SuperMac社が開発したCinepak(1992年〜)、マイクロソフト社が開発したMicrosoft Video1(1992年〜)、MotionJPEG圧縮、MPEG圧縮、H.264圧縮などがあります。
- AVIは、今や古いタイプのフォーマットで、コンテナという異名を持つほど、つまり、単なる箱というほどになってしまいました。その箱にいろいろなコーデック(Codec)を仕掛けてAVIファイルとしています。ですから、ひとくちにAVIと言ってもどのコーデックで格納したかをしっかりと把握しておく必要があります。コーデックというのは、Codecと書き、Compression & Decompression の略です。圧縮と復調という意味です。
- 【2GB以上のファイルを扱えるAVI2.0】
- マイクロソフト社がサポートを中止したAVIフォーマットを箱だけいかして、現在でも使えるようにした規格がAVI2.0です。この規格には、マイクロソフト社自体は関与しておらず、1996年に画像ボードメーカのMatrox社が中心になって、OpenDML(Open Digital Media Language)という技術を作り、この技術を元にOpenDML AVI(AVI2.0)を作りました。このAVIでは、2GB以上のファイルが扱えるようになり、また、MotionJPEG動画をAVIフォーマットで再生できるようにしました。SonyのVAIOは、システムに「DVgate」と呼ばれる動画編集ソフトが同梱されていて、これで2GBを越えるAVIファイルを作ることができます。また、動画像キャプチャーボードを扱っているカノープス社もAVI2.0に保存できる動画像保存ソフトウェアを作っています。Adobe社の動画編集ソフトウェア「Premier」では、ver.6.0からOpenDML AVIに対応しています。これらの環境のあるパソコンでは2GB以上のAVIファイルを再生することができますが、多くのパソコンにはそのような環境を持ち得ない場合が多いので、それらの大容量AVIファイルを配布するときには、もらった相手が再生できることを確認する必要があります。
- また、2GBを越えるAVIファイル作成については、参照型AVI(Reference AVI)というものも存在し、複数のAVIフィアルを切り替えながら再生を続けて、見かけ上2GB以上の壁を越える方法を取っているものもあります。この方法を取るAVIも、配布先にこの種の動画ファイルが再生できることを確認して配る必要があります。
- 2GB以上のファイルを持つ動画像の場合には、JPEGなどの1枚単位の静止画を連番で一つのフォルダーに保存する方法が確実と考えます。AVIなどの一つのファイルにするは、多数の画像を一つにまとめられるため、データが飛散してしまわずに便利な側面がありますが、計測という観点からは、一つ一つの静止画で画像処理をするというのが基本なので、静止画の連番ファイルを薦めます。パワーポイントに貼り付ける場合には、このファイルから、必要な範囲を抜き取り、必要十分な画素サイズに変換してMPEG2などの圧縮ファイルで保存する方法がスマートだと考えます。
- マイクロソフト社が、AVIファイル及びASFファイルに代わる規格として2000年に発表したデジタルビデオの新しいプラットフォームです。AVIファイルの後継ファイルとして登場し、高い圧縮率と大容量化がはかられています。WMVファイルは、インターネット上で徐々に浸透しつつあります。Windows Media Player で標準の動画ファイルとして大々的に採用しています。AVIファイルが1997年にサポートを中止された後、幾多の変遷を経てこのフォーマットに落ち着きました。しかし、我々計測分野では依然としてAVIファイルの利用が多いのが実情です。WMVファイルは、計測用の動画処理ソフトウェアでは認識しないようです。計測分野になぜWMVが浸透しないのかというと、WMVの採用している圧縮方式(MS-MPEG4←MPEG4と若干違う)が計測分野にそぐわないからだと考えます。計測分野では動画は1枚1枚独立していたほうが計測をする関係上都合が良いのです。その意味でAVIは古い規格ながらその願いにかなったフォーマットなのです。
- QuickTimeは、コンピュータ動画の老舗的なもので、アップル社が1991年に仕様を決めたマルチメディアフォーマットです。マイクロソフト社が開発したAVIは、QuickTimeを過剰に意識して1年遅れでリリースされたものでした。QuickTimeの初期のものは、圧縮アルゴリズムとしてSuperMac Technologyが開発したCinePakを搭載していました。コンピュータで最初に動画を扱ったフォーマットとして、歴史に残るものです。このフォーマットは2009年現在も最強の動画フォーマットとして使われ続けています。
- 一般的なファイル拡張子は、movあるいはqtで、ムービー、サウンド等が取り扱え、また比較的簡単にムービーを作ることができるため、インターネットで代表的なフォーマットでした。
- QuickTimeは、ビデオデッキ等の制御、ビデオキャプチャ、データ圧縮、メディアの同期再生などの機能とそれを利用するためのツールボックス(システム)を提供しています。このデータのファイルを「QuickTimeムービーファイル」といいます。動画用ファイルフォーマットとしてあまりにも有名になってしまいましたが、実際には、静止画、テキスト、サウンド、MIDIといったさまざまなメディアを扱うことができ、これらのメディアを時間軸を追って制御することができるのです。
- クイックタイムは、開発当初、AVIと比較されましたが、マルチメディア環境を時間軸で同時刻性をを持たせている点ではAVIとは比べものになりませんでした。1993年には、Windows上で再生するための再生エンジンQuickTime for Windowsが発表され、Windows上でも再生可能となりました。さらに1998年には、Java版の「QuickTime for Java」も発表されました。
- QuickTimeムービーファイルでは、RIFF(Resource Interchange File Fomat)のチャンクに相当するものをアトム(atom)といいます。サイズ情報は、32ビットを符号付き整数として扱うので、管理できるのは最大2Gバイトまでです。これはAVIでも同じです。最近のファイルは、2GBのファイル容量をカバーするためにシームレスにファイルを読み出す機能を追加しています。
- QuickTimeは、非常に良くできたインターネット通信の動画ファイルで、映画用予告編(Trailer)でその能力をいかんなく発揮しています。ハイビジョン対応のQuickTimeの画質は、非常にキレイで音声もクリアです。またインターネット上で動画像を再生する際に、データ通信(ストリーミング)をしながら再生もできます。この機能は、QuickTimeとRealPlayerの二つが秀でています。
- アップル社は、2001年に発売を開始したiPodの成功により、iTuneの動画ファイルにQuicktimeを標準装備させたり、デジタル動画編集ソフト「Final Cut Pro」でQuickTimeを標準形式としています。
- 現在のQuickTime(2005年でQuickTime7)は、MPEG4に加えH.264/AVCを標準フォーマットにしているため、互換性の高いものになっています。
- 歴史的に見ますと、QuickTimeは以下のような進化を遂げています。
- 1991 QuickTime1 コンピュータで動く最初のビデオファイル。CD-ROM動画像の再生。Cinepak圧縮技術。
- 1994 QuickTime2 フルスクリーンビデオ。Windows対応。MPEG-1対応。
- 1998 QuickTime3 リアルタイム表示(インターネット対応)、Java対応。H.261、H.263対応
- 1999 QuickTime4 ストリーミング技術拡張。QuickTime TV。Macromedia Flash対応。
- 2001 QuickTime5 Sorenton Video3、拡張DV、Macromedia Flash4対応
- 2002 QuickTime6 MPEG-4対応、3GPP、3GPP2対応、MPEG-2再生対応、JPEG2000対応、
- iTunesに装備。Apple Lossless codec。
- 2005 QuickTime7 H.264対応。フルスクリーン制御。
- 2008 QuickTime7.5.5
- 静止画像フォーマットであるJPEGを高速で伸張処理し、連続して再生することで動画に見せかける方式です。専用のハードウェアを使えばデータ圧縮を行いながらリアルタイムでの動画取り込みが可能なため、パーソナル向けのビデオキャプチャ・カードなどに圧縮/伸張方式ができるこのフォーマットが採用されています。Motion-JPEGは、MPEGデータなどと異なり1コマが静止画像として存在するため、任意の箇所での編集が容易です。圧縮率は1/5から1/20程度であり、圧縮をかけすぎると粗い画像となります。開発当時、この圧縮画像を使って画像計測を行おうとしたところ、圧縮されたデータが誤動作を起こして正確な位置情報が得られませんでした。
- Motion JPEGとMPEGは、名前が似ていますが、フォーマットが違います。画像計測用にはMPEGは不向きです。MPEGフォーマットでは画像を静止させても正しい画像になりません(そうした要求でフォーマットを作っていないので)。JPEG画像でも圧縮の度合いによっては計測は苦しくて、読み取り値が正確ではなくなるという指摘も多くあります。画像計測にはあまりおすすめできないフォーマットです。
- MPEGは、Motion Picture Expert Group の略です。このフォーマットは、1988年に設立されたグループが開発した動画の符号化技術の研究から生まれました。一般的な拡張子は、mpg、あるいはmpegです。Quick Timeと異なり、ISO標準化機構が仕様を決めています。DVDやデジタル放送の圧縮フォーマットに採用されて、2009年時点ではもっとも一般的になった動画圧縮ファイルフォーマットとなっています。
- MPEGの大きな特徴は、一連の動画像を一枚一枚独立した画像として保存せず、間引きした静止画像に動きのある部位だけを補間データとして保存する方式になっていることです。こうすることにより、画像間の圧縮を達成しています。もちろん、一枚の画像もJPEGと同じような空間圧縮が施されています。この方式にすることにより、圧縮を行わないAVIファイルよりも1/100〜1/200程度の圧縮が可能となりました。DVDによる映画やインターネット配信、デジタルテレビ放送に採用されたため、現在の動画ファイルとして主力になりつつあります。
- ・ MPEG-1: MPEG-1は、1993年に規格が制定されました。当初のMPEGは、転送速度が1.5Mビット/秒で、画像サイズは352 x 240 画素で30フレーム/秒の録画ができました。CD-ROMなどの蓄積メディアを適用対象としたものであり、Video-CDなどに使われました。
![]()
- ・ MPEG-2:
- 1994年に制定されました。HDTV(ハイビジョンテレビ)までカバーするデジタルビデオ用規格です。MPEG-1に課したビットレートの制限を外し、転送速度を4Mbps〜24Mbpsとしました。取り扱える画像は、720 x 480 〜 1920 x 1080です。DVDに採用されているのもこのMPEG2です。
- ・ MPEG-3:
- MPEG-3は、存在しません。プロジェクトは、1080本インターレース方式で20 Mbps - 40 MbpsによるHDTV映像送信用に規格化が始まりましたが、MPEG-2がそれらの性能を十分に持っているとして、1992年に吸収されました。ちなみに、音楽ファイルで有名な、MP3は、MPEG-3ではなく、MPEG-1のオーディオ規格として出発し、「MPEG-1 Audio layer-3」の略称です。
- ・ MPEG-4:
- 1998年に制定された移動体通信用規格です。画像フォーマットは176 x 120 〜 352 x 240 と小さく、通信速度も64kbps 〜 512kbpsと遅く、 QuickTime、ASFなどのマルチメディアが採用しました。
- この規格は、取り扱う範疇が広く、多くの派生規格が生まれました。2009年現在もこのカテゴリーに属した動画圧縮手法が主流として使われています。例を挙げると、1セグやQuickTime7、iPod、AppleTV、HD DVD、Blu-rayなどで、これらに採用されているのは、MPEG-4 AVC/H.264 という規格です。
- ・ MPEG-7:
- マルチメディア・コンテンツに関するさまざまな情報の記述方法を標準化して、検索したりファイリングを可能にする規格です。1996年にスタートし、2000年を目標に規格化作業が進められました。動画像に関する限りMPEG-7での役割はそれほど大きくなく、MPEG-4が主流です。
- ・MPEG-4 AVC/H.264:
- AVCは、Advanced Video Codingの略です。H.264規格をMPEG-4のカテゴリーの中に入れて(Part10)、ラインアップしたという位置づけが強く、2003年に制定されました。取り扱う画像の大きさは、320 x 240画素から1920 x 1080画素で、通信レートは320kbps〜10Mbpsと地上デジタル放送規格に当てはまるようになっています。動き補償を行うブロックサイズが16x16画素から4x4画素まで選ぶことができ、細かい画像まで補正処理ができブロックノイズやモスキートノイズの発生を抑える工夫がなされています。
- 2009年現在にあって、最も進んだ通信用の圧縮動画像ファイルフォーマットと言えるでしょう。
- ▲ H.264規格
- これも動画圧縮ファイルの規格です。MPEGがISOとIECの組織の下で規格化されたのに対し、この規格は、ITU(国際電気通信連合、International Telecommunication Union、前身がCCITT)の下部組織であるITU-TのVideo Coding Experts Group (VCEG)によって、2003年5月に策定されました。最初の規格であるH.261は1990年にできています。制作年月から言えば古い規格と言えます。それが進化を続けてH.264になりました。この規格がMPEGにも採用されることになり、MPEG-4のパート10として仲間入りして、MPEG-4 AVC/H.264となっています。
- DV-AVIは、Digial Video AVI の略です。デジタルビデオ規格のデータをそのままAVIという入れ物に入れたフォーマットです。先に述べたAVIがまさに箱になってしまったという典型的な例です。AVIという箱に入れればいろいろな動画ソフトで再生できるので便利であるという観点から作られ、デジタルビデオカメラで普及しました。Windows Media Playerで再生でき、Adobe Premiereなどの動画編集ソフトで編集できます。しかしながら、このファイルの根本はDV規格であり、DVはMotion JPEGを基本としているので、計測用の動画像処理ソフトでは対応していないことが多いのも事実です。
- DV(デジタル・ビデオ、ディヴィ)は、Digital Videoの略です。1995年に決められた民生初のデジタルビデオ規格で、従来のビデオカメラとは違い、テープに映像をデジタルデータとして記録するするために編集や複製に伴う画質の劣化がありません。
- この規格ができる伏線には、テレビ放送のデジタル化とパソコンの普及があげられます。テレビ放送がVTRの普及によりアナログビデオ信号によるビデオ機器が家庭内に広く行き渡るようになりました。アナログビデオ信号については、NTSC(Q23.NTSCって何?)を参考にしてください。
- このアナログのテレビ(ビデオ)信号をデジタル化したものがDVフォーマットと言うことができます。デジタル化したことによりコピーによる画像の劣化がなくなりました。それまで普及していた8mmビデオテープレコーダも、デジタルに替わっていくようになりました。
- DV規格での画面サイズは、720×480ピクセルで、フレームレートは30fps、圧縮率は約1/5となっています。画面サイズは、NTSC信号をデジタルにするために必要かつ十分な画素としています。30コマ/秒という録画・再生速度もビデオ信号の規格をそのまま踏襲しました。画像は、Motion-JPEGによるフレーム内圧縮を採用していて、MPEGとは違い一枚一枚の静止画を保存しています。音声は、サンプリング周波数48kHz、量子化ビット数16bitのリニアPCM2chか、32kHz、12bitのノンリニアPCM4chとなっています。録画時間は標準カセットで270分、ミニカセット(Mini DV)で60分か80分のいずれかの録画が可能です。
- DVには、上に述べた一般用のもの(SD)と、ハイビジョン用(HD)用のフォーマットHDV規格があります。
- ▲ なぜ、720x480画素がNTSC規格の4:3の画面アスペクト比になるのか? (2007.04.15)
- 720 : 480 = 4 : 3 になるかという疑問です。
- これはなりません。
- 720 : 480 は、3 : 2 であり、4:3になりません。
- それなのに、DV規格ではなぜ720画素x480画素になっているのでしょうか。
- この素朴な質問に答えるサイトはなかなかありません。この不思議な疑問は、NTSCの放送規格がデジタルに移行されていく過程での微妙なズレから来ています。
- まず、NTSCは、画面アスペクト比が 4 : 3 と厳格に決められています。そして走査線が525本であることも決められていて、これが縦の解像力を決定しています。縦の525本の解像力から換算して、アスペクト比から横の解像力を求めると700本となります。CCDカメラが放送局用に作られたとき、CCDメーカーは、この規格に併せた撮像素子を作ろうとしたはずです。しかし、最初からこのような高画素のCCDを作ることができませんでした。縦方向の画素は525本の走査線を考えれば525個の画素は必要だとしても、横方向はそれに相当する画素を配置するだけの技術がありませんでした。ソニーが1980年に最初に作ったCCDは、381画素x525画素(20万画素)だったのです。この配列でNTSCのアスペクト比を満足させるには、381個しかない横方向の画素を縦の画素サイズに比べて1.8倍ほど長くしなければなりませんでした。そうした経緯を経て、技術力が高まっていくと画素数をどんどん増やせるようになり、横方向の画素の多いCCDが作られるようになりました。縦の画素は525個と決められているので、横の画素を増やして水平解像力を高めて高画素化を果たして行ったのです。これは、詰まるところ、1つの画素のアスペクトレシオが水平解像力の増大(画素数が増えていくこと)によって変化していったことを物語っています。
- 画素が、最初は横長だったのに縦長になって行ったのです。
- CCDカメラが計測用に使われるようになって、画素が1:1のものができてくるようになりました。コンピュータの発達とともに、コンピュータ上で画像を扱えるようになると、コンピュータに合わせた画素数やCCDのサイズが求められるようになり、VGAに合わせた640x480画素の正方格子(1画素のアスペクト比が1:1)が作られるようになりました。VGAでの画像のアスペクト比は4 : 3 でした。コンピュータの世界では(VGAは)、アスペクト比とおよその画素数はNTSCを見習いましたが、1画素の大きさは正方格子としました。これがパソコンによるコンピュータ画像の始まりであり、放送の画面の成り立ちとは大きくことなる点でした。
- 放送品質を睨んだDV規格は、計測用(コンピュータ用)とは別の道を歩んでいました。つまり、画質を優先し1画素のアスペクト比を1:1とせずに、、画素数を優先して720x480画素としました。それにもかかわらず、画面のアスペクト比は4:3に保ちました。とすると、1画素の寸法の縦横比が1:0.889となります。
- この規格を計測用としてパソコンに取り込む場合、どのようなことがおきるのでしょう。DV規格での1画素を正方形とみなしてしまうとアスペクト比が変わり、横の寸法が実際よりも12.5%も長く表現されてしまいます。これでは、この画像から寸法や変位、速度、角度などを求めることができなくなります。これは、一般の映像機器を計測用に使うときに注意しなければならない重要なポイントです。
- 計測用には計測用のCCDがあり、放送用やアマチュア用のテレビカメラにはそれ向けのCCDがあったということです。
- DVD-videoは、DVDに採用されている動画ファイルフォーマットです。規格化の背景には、上で述べたDV(デジタルビデオ)をDVDに記録するという目的がありました。
- DVDは、CDと同じ直径で、CDの約7倍の情報を記録できるディスクです。片面1層で4.7Gバイトの映像(8MbpsのMPEG2ファイルの場合は約1時間分、4MbpsのMPEG2ファイルの場合は約 2時間分)を記録できます。読み出し専用のDVD-ROM、DVDプレーヤーで再生可能で、一度だけ書き込めるDVD-R、何度も書き換えができるDVD-RW、などがあります。
- DVDのアプリケーション規格では、 以下の3種類があります。
- 1)DVD-Video
- 2)DVD-VR(Video Recording)
- 3)DVD-Audio
- DVD-Video は、映像に MPEG-2 を採用した映像再生専用規格です。DVD-VR(Video Recording)は、DVD-RW や DVD-RAM を使用して映画などの映像を記録するビデオレコードの規格です。
- DVDビデオ(DVD-Video)は、動画圧縮にMPEG-2を使い、133分の映像と音声が収録されたビデオディスクです。画素数720ピクセル×480ピクセル、水平解像度約500本程度。音声はドルビーデジタル(AC-3)サラウンドとリニアPCMのどちらかで収録されます。そのほかにオプションフォーマットとしてとして、MPEGオーディオも認められています。
- DVDビデオ(DVD-Video)ファイルをPCで見ることができます。ドライブにDVDビデオの収まったDVDを入れ、エクスプローラで開くと、[AUDIO_TS]と [VIDEO_TS]というフォルダが確認できます。[VIDEO_TS]フォルダには、「IFO」「BUP」「VOB」の3種のファイルが入っています。「IFO」はメニュー情報やマルチアングルなどの制御情報が入っています。「BUP」は「IFO」内のファイルが破損した場合のバックアップで、「IFO」と同じファイルが入っています。「VOB」には映像や音声、字幕などの実データが入っています。
- この規格は、テレビ放送分野で規格化されてきたテレビ映像のデジタル規格です。デジタル放送規格は、各国様々なデジタル規格に乗り出して一見収集がつかないような様相を呈しています。
- 日本のデジタル放送規格は、ISDB(Integrated Services Ditital Broadcasiting、総合デジタル放送サービス)というもので、画像の大きさが4つの画像(と1つのおまけ)で選べるようになっています。4つの画像とは、以下のものです。
- 1. 480i: NTSCの映像サイズをもとにする720x480画素インターレース方式
- 2. 480p: 720x480画素プログレッシブ方式
- 3. 720p: ハイビジョン映像である1280x720画素プログレッシブ方式
- 4. 1080i: ハイビジョン映像である1920x1080画素インターレース方式
- (ただし、地上デジタル放送では、帯域の関係上1440x1080iで送り、受像側で1920x1080iに引き延ばしている。)
- おまけ5. 1セグ: 320x240画素分の映像
- この規格は、デジタル放送と液晶/プラズマテレビの台頭によってにわかに脚光を浴びてきました。なお、ISDBには、地上より送るデジタル放送(ISDB-T)と衛星から送られるデジタル放送(ISDB-S)があります。また、地上波による移動体通信向けのデジタル放送(ISDB-T SB)やケーブルテレビ向けのデジタル放送規格(ISDB-C)もあります。
- デジタル放送規格は、コンピュータ文化が育んできたAVIやQuickTimeなどの動画ファイルとは少し趣が異なっています。テレビ放送では、通信帯域と30フレーム/秒の制約を意識して、1945年に決められたアナログのNTSC映像信号が奥深い所で息づいています。 放送画像は、撮影・再生速度を維持しながら、いかに巧みに録画と再生を行うかが技術の粋を集める所であり、そのためにいろいろな圧縮技術が開発されました。
- コンピュータ動画では、静止画を動画付けする所から出発しています。テレビ放送が、2時間録画を視野に入れながら動画記録方式を決めているのに対し、コンピュータ動画はせいぜい10分程度を視野に入れていました。なぜ短いのかと言えば、コンピュータの再生能力、保存能力、転送能力が追いつかなかったからです。
|
|||||
|
||||
|
||||
|
|
||||
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
||||
- 【仕様】
- ・直径:12cm(または8cm)
- ・厚さ:1.2mm厚
- ・材質: ポリカーボネート
- ・線速度: 1.2m/s〜1.4m/s
- ・回転数: 500rpm(中心部)〜200rpm(外縁部)
- ・トラックピッチ:1.6um
- ・最小ピット長:0.87um
- ・読み取りレーザ:λ=780nm赤色半導体レーザ
- ・対物レンズ開口数:N.A. = 0.45
- 【仕様】
- ・ 直径:12cm
- ・ 厚さ:0.6mm厚のプラスチックの2枚張り合わせ(厚さ計1.2mm)
- ・ トラックピッチ:0.74um(CDは、1.6um)
- 最小ピット長:0.4um(CDは、0.87um)
- ・ 読み取りレーザ:λ=650nm赤色半導体レーザ(CDは、780nmの赤外レーザ)
- ・ 対物レンズ開口数:N.A. = 0.6(CDは、N.A. = 0.45)
- ・ ディスク回転数: 600 rpm 〜 1,400 rpm
- ・ 線速度: 3.49m/s
- ・ 記憶容量:4.7GB〜17GB(DVD-5、DVD-9、DVD-10、DVD-17)
- DVD-5 片面再生 信号層1層 4.7GB
- DVD-9 片面再生 信号層2層 8.5GB
- DVD-10 両面再生 信号層1層 9.4GB
- DVD-17 両面再生 信号層2層 17GB
- ・ 記録型
- DVD-R ライトワンス(一度だけ書き込み)片面3.8GB、両面7.6GB
- DVD-RAM オーバーライト(相変化方式) 片面2.6GB、両面5.2GB
- ・ 水平解像力:500本(S-VHS400本、LD400本)
- ・ データの読み出し:CD-ROMの10倍(4倍速の倍以上)
- ・ CDとの互換性:有り(CDは音楽を60-70分演奏できる目的で作られた)
|
||||
|
||||
|
|||||
- ■ 磁気コアメモリ(Magnetic Core Memory)
- 磁気コアメモリの拡大写真。
- 米粒大のフェライトコアをエナメル線で織り込んでメモり構造を作る。すべて手作業だった。
- クレイの製作したスーパーコンピュータ(1964年)に搭載された64x64ビット(4kビット)の磁気コアメモリ。中心部の網の目の中に米粒大のフェライトコアが詰まる。モジュールの大きさは、106mm x 106mm。
- 資料提供: Wikipedia commons
- 1950年代から20年間にわたって、コンピュータの主記憶装置として使われていた磁気コアメモリというのはどのようなものだったのでしょうか。磁気コアメモリには、記憶部としてドーナッツ状のフェライトコアが使われています。このフェライトコアを直交2線のエナメル線が交わる交点に配置し、両方の線に流れる電流によってフェライトコアを磁化させてコアに電気信号を保存するというものです。フェライトコアは、数ミリ程度から米粒ぐらいの非常に小さなもので、それに通すエナメル線も細いものでした。フェライトコア1ヶが1ビットの情報となるので、1kビットのメモリを得るには1,000固のフェライトコアが必要です。これにエナメル線を通すという一種の織り込み作業を行わなければなりませんでした。これらはすべて手作業だったそうです。従って、当然高価なものでした。磁気コアの製造には、東南アジア諸国の安価な労働力があてがわれて、市販化のメドがたち一定の普及をみたそうです。
- 1960年代に登場した1kビットの磁気コアメモリの大きさは50cm x 50cm x 20cm程度でした。この装置は、100Wの電力を消費していたそうです。大型コンピュータでは、主記憶装置として10BMB程度が必要だったので、この装置の設置スペースには15m x 15m程度、つまり、大きな会議室程度を確保しなければならず、電気設備も6,000kW(2,000家庭分の電力設備)という途方もない電力を必要としました。10MBのメモリを稼働するのに工場で使う電力が必要だったのです。
- 2009年現在のパソコンを見てみると、10MBのDRAMで動くものは見あたりません。カバンで持ち運ぶノートパソコンにおいても2GB程度(2,000倍程度)のDRAMが搭載されています。昔の観点から見たら小さなバッテリでとてつもなく大きなメモリを動かしていることになります。1993年に私が個人的に購入したパソコン(マッキントッシュLC III)は、4MBのDRAMが標準装備でしたがまともに使えなくて30,000円で8MBのDRAMを追加しました。それでなんとか動いた記憶があります。DRAMは、年を追う毎に大容量低価格化が進みました。DRAMメモリは、コンピュータの歴史を変えたと言っても差し支えないでしょう。このことは、逆に見ると、主記憶装置がコンピュータ発展の足かせとなっていたことを伺わせるエピソードです。
- インテルは、このメモリの大切さを知っていたので、半導体メモリを開発する会社として、1968年にFairchildセミコンダクター社の社員(ロバート・ノイス、ロジャー・ムーア、アンドリュー・グローブ)が集まって設立されました。
- インテルは、設立1年後の1969年に64ビットのSRAMを開発し、1970年にDRAM、1971年にUV-EPROMを開発していきます。お家芸のCPUは、1971年に4ビットマイコンを日本の嶋さんのリクエストで作り、それが引き金となって1974年に8ビットCPU 8080を開発します。半導体メモリは、その後、日本の東芝が秀逸なものを作るようになっていったので、インテルは軸足をCPUに移して行くことになりました。
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
高速度カメラの主流は、この16mmフィルムを用いたカメラがほとんどで、このフィルムを高速で送りながら10,000コマ/秒の撮影を行っていました。代表的な高速度カメラとしては、米国フォテック社(現在はVisual Instruments社)のPhotec、日本のナック社のE-10(1975年以前は日立のHitachi 16HS、16HD)、米国Photo-Sonic社の16-1B、スイスワインバーガー社のSTALEXなどがあります。古い所では、米国Redlake社のHycam、Locam、Fastax、同国フェアチャイルド社ミリケン(Miliken)などがありました。
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
お医者さんは、このフィルムを使ってX線写真を撮りこのX線フィルムから患者の診断を行っています。これを読影(どくえい)といいますが、X線光源、フィルム特性、患者患部のデータを予め頭に入れておき、患部の微細な変化をとぎすまされた経験と勘で発見します。特にガンの早期発見には、ほんのちょっとした異常をX線フィルムから読みとらなくてはならず、CCDカメラをはじめとした電子映像が発達した今日でもフィルム像の果たす役割は大きいものがあります。
- ASA(ISO)感度 = 0.8/Ea ・・・(Rec -41)
|
|||||
- 光増幅率 = 光電変換効率 x 印加電圧 x MCP電子増幅 x 蛍光効率 ・・・(Rec -42)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
- 第一世代のI.I.は、第二次世界大戦中の1940年代、夜戦用の暗視装置の要求から米国RCA社で開発されました。構造もシンプルで真空管 I.I. の入力に光電面、出力に蛍光面を配し、内部には電子レンズが置かれ光電面から放出された光電子が電子レンズ中央部でクロスして蛍光面に到達します。光電面像と蛍光面像は倒立像になり、対物レンズと組み合わせて正立像を得ます。光増幅率は、x 10〜x 200 で300ルクス程度に蛍光面輝度を高くすることができます。高速度カメラ用に設計されたものでは蛍光灯並の輝度を持つ高輝度I.I.も製作されています。近年のものは光電面と蛍光面に光ファイバーを使い内部を湾曲に処理して周辺の映像歪みと解像力を向上させています。I.I.の中では安価なため今でも暗視装置(ナイトビュア)として市販されています。
- 第二世代は、第一世代のI.I.にMCPを内蔵させ光増幅度を飛躍的に向上させたもので1960年代から1970年代にかけて開発されました。φ10μmのファイバーを製造する技術が確立されてこのタイプのI.I.の完成を見ました。光増幅率は、第一世代に比べ1,000倍ほど向上し微弱な光を検出する道が開かれました。しかし、第一世代に比べMCPを使っているため蛍光面輝度が1/3程度と暗くなり、解像力も劣ります。
- 1970年代になると、ミクロンオーダの製造技術と真空技術が発達し、光電面と蛍光面をできるだけ近づけて (近接させて)配置させる近接型I.I.が開発されました。MCP内蔵 近接型I.I.は、第二世代のI.I.の構成から電子レンズを取り除いた形のもので、非常にコンパクトになり増幅度も第二世代のままで、像の歪みが非常に少なくなりました。電子レンズが不用になったため光電面の像がそのまま蛍光面像となる正立像になりました。光電面から放射された光電子がMCPを通りそのまま蛍光面に到達するためMCPを含めた光電面-蛍光面距離をできるだけ短くしないと像がボケてしまい解像力に影響を与えます。コンパクトなため第四世代のI.I.と共に非常に良く使われています。蛍光面輝度は、第二世代の半分程度で10〜50ルクスと暗く、CCDカメラとの接続は可能なものの、35mmスティルカメラではISO 400のフィルムを用いても約1/2秒の露光が必要な明るさで、このI.I.単体で高速度カメラと組み合わせるのは不可能です。また、1,000コマ/秒以上の撮影では 600μs〜1ms 程度の残像が予想されるため注意が必要です。
- 第四世代のI.I.は、第三世代のMCPの印加電圧をパルスモードにし希望する時間分のシャッタリングを行えるものです。このタイプの原理・構造は、第三世代のものとほとんど同じで、違いはMCPへの印加電圧がDC(連続)かパルスモードであるかだけです。1980年代よりMCP電圧をスイッチングするためのショートパルス高電圧スイッチング素子/回路が開発されて市販化されました。現在では、ナノ秒のゲートパルスがかけられる高圧回路や、2MHzの高周波ゲート発振が可能な高圧パルサーが開発されています。第四世代のI.I.は、CCDカメラと組み合わせシャッタカメラとして良く使われています。
|
|||||
Anfoworld に戻ります。