「NTSC」の版間の差分

提供: Yourpedia
移動: 案内検索
(ページの作成:「'''NTSC'''とは'''National Television System Committee'''(全テレビジョン放送方式標準化委員会)の略称である。同委員会...」)
(相違点なし)

2015年5月22日 (金) 00:00時点における版

NTSCとはNational Television System Committee(全テレビジョン放送方式標準化委員会)の略称である。同委員会が策定したコンポジット映像信号(特に1953年に定められたカラーテレビ)とそのテレビジョン放送の方式(規格)を指して使われることが多く、規格の名称であるRS-170 (A) やSMPTE-170Mが使われる機会は、専門書以外ではあまり見られない。日本のアナログ放送も、NTSCを採用していた。

歴史的経緯

1927年フィロ・ファーンズワースが、サンフランシスコで全電子式テレビジョンの公開実験を行った。 その後1933年、のアイコノスコープが開発され、さらに感度を向上させてスタジオ撮影も可能とした1938年オルシコン撮像管開発といった要素技術の改良を受けて、1930年代末頃には研究室内での実験段階をクリアして、商業放送が可能なレベルへと到達した。しかし、当初は米国内でも、各社各様のさまざまな規格が乱立する気配を見せはじめていた。

そこで1940年、RMA(Radio Manufacturers' Association、後のEIA)によって、全米テレビジョン放送方式標準化委員会 (NTSC) が組織された。

NTSCによる標準規格策定には9か月ほどを費やし、幾度となく会合が開かれ、実験も行われた。その成果は、1941年3月に推奨規格としてFCC(Federal Communications Commission〈連邦通信委員会〉)へと提出され、同5月に商業放送が承認された。1957年、この白黒放送規格は、EIA(Electronic Industry Alliance〈全米電子工業会〉)によって、RS-170として編纂され、まとめられている。

1940年代末から1950年代初頭にかけて、カラー放送開始に向けての機運が高まった際にも同様の規格対立が見られたため、NTSCが再招集された。 その結果1953年RCA社が基本原理を開発したカラー放送方式を標準方式として採択し、規格の厳格化と定義の厳密化を経て今日に至る。

概要

ここでは、1953年にFCCによって商業放送が承認されたカラーテレビジョン放送全米標準方式(1977年に暫定規格 EIA RS-170Aとしてまとめられ、さらに1994年SMPTE-170Mとして厳格化)について主に記す。

1940年代から放送が行われていた白黒テレビジョンとの上位互換性を維持しつつ、明るさではなく光の三原色(赤・緑・青)の動画信号を伝送・表示するために1950年代の市販家電製品に採用可能な様々な技術が投入されている。輝度の変化に関しては小さく細かい変化まで判別できるが画像の中で色彩だけが変化している部分は網膜に映る面積がある程度以上広くないと変化の存在自体を認識できない人間視覚の特性を利用して、そのまま送信すると白黒放送の3倍の電波帯域幅が必要になるカラー映像信号を1/3の帯域に情報圧縮している。

撮像素子から出力された三原色 (R・G・B) の強さを表す信号を明るさを表す輝度信号 (Y) と色の座標を示す2つの色度信号 (I・Q) にマトリクス変換し輝度信号には白黒放送との互換性を持たせ、色差信号はローパスフィルターにより大幅な帯域制限(画像がぼやけるが、上述した通り人間にはこの劣化が認識できない)を行って色副搬送波(カラーサブキャリア 約3.58MHz)で直交振幅変調をかけてクロマ信号とし、輝度信号や音声信号との相互妨害を極力発生させないような形態に合成して放送する。

各家庭の受像機では視聴するチャンネルの放送周波数帯を選択増幅し、検波器でベースバンド映像信号に復調したものから輝度信号と色差信号を分離し逆マトリクス変換によって三原色の強さを表す信号を復元してカラーブラウン管(今日では液晶プラズマディスプレイを始めとする平面表示デバイス)に動画像を表示する。

NTSC委員会の策定したカラーテレビジョン放送方式を採用している国はアメリカカナダメキシコ日本台湾韓国フィリピン中南米諸国の一部、太平洋諸島の一部などである。採用国数と視聴可能人口ではインド中国も採用しているPAL方式の陣営が圧倒的に上回るが、アメリカが映像ソフトの供給大国であることから市場における各方式の地位・重要性は単純に比較出来ない。

詳細

白黒テレビジョンとの互換性

白黒テレビとの上位互換性を維持するため、以下の基本諸元を引き継いでいる。

表示画面の縦横比は縦3:横4
番組は生放送だけでなく、画面の縦横比は録画放送にも対応する必要があり、記録媒体の規格に合わせて縦横比が決められた。1940年代当時は動画を記録できる媒体がフィルムしかなく、映画フィルムのスタンダード比率と等しくされた。
走査線数は525本、2:1インターレース
水平走査フリーラン用発振を電源周波数逓倍で作れるよう、比較的小さな奇数525=3×5×5×7とした。60Hz×525=31500Hzを双安定マルチバイブレータで1/2分周した相補出力の矩形波積分器を通して相補出力の鋸歯状波を得て上昇ランプ側の波形だけを(すなわち、フリップフロップの出力が"H"の側の鋸歯状波を)選択し、放送波を受信していない時にも水平偏向系を駆動する。また525本という数字は後述する通り、当時の16mm映画フィルムと同等の画質を実現しようという目標に沿ったものでもある。水平走査線525本の全てが映像表示に使えるわけではなく、垂直帰線にともなうブランキング期間(各フィールド20本)を差し引いた485本のうちオーバースキャン率90%を考慮した436本あまりがブラウン管上に表示可能な走査線数となる。更に、画像を走査線の集まりとして描いている影響[1]がもたらすケルファクター 0.7を掛け合わせて、視覚上の垂直解像度は436×0.7≒305本程度まで低下する。画面縦横比3対4で水平方向に400ラインペアの解像度を要求すると、それにみあう垂直解像度300本以上をどうにか満たす数字となる。
インターレース(飛び越し)走査を採用した理由は、当時唯一の実用表示デバイスであったブラウン管の特性に依る。ブラウン管においては発光しているのは電子ビームが当たっている一点のみであり、例えば垂直走査の終わるまぎわ、画面の下部に有る走査線を描いている頃には画面上部の領域は蛍光体の残光も消尽して暗くなってしまい毎秒30フレーム程度の描画では視聴者にフリッカーを認識させてしまう事が分かっていた(映画が毎秒24コマなのに顕著なフリッカーを感じないのは画面全域が同時にシャッターで遮られるわずかな期間を除いたほぼ1/24秒近くの時間、輝度が変わることなく投射スクリーンが発光し続けている為である)。だからといって毎秒60フレームで走査線525本の表示を実現しようとすると後述する通りの計算をした場合、映像信号の帯域幅が9MHz弱、放送チャンネルは10MHz幅近くもの膨大な周波数資源を浪費してしまう。
そこで1枚のフレームを2フィールドに分け、第一フィールドでは1/60秒の間に1,3,5,7…本目の走査線を、次の第二フィールドでは同じく1/60秒間に2,4,6,8…本目の走査線を一本おきに描画して目の残像作用により1/30秒で1枚のフレームを合成するインターレース(飛び越し)走査が採用された。飛び越し走査により動きのある映像ではラインフリッカーが発生するため、テレビカメラにはこれを軽減する光学的ローパスフィルターが挿入される。垂直解像度はケルファクターによる低下に加えて更に減少するが、毎秒60フレームで表示したのと同等の滑らかな動きとフリッカーの少ない表示品質を限られた信号帯域で実現できる利点の方を重視した。
基準となるブランキングレベル 0Vを0IRE、輝度100%時の電位を100IREとしたとき同期信号のレベルは-40IRE
同期信号とは水平同期信号と垂直同期信号の総称で一続きになって送られてくる映像信号の水平位置と垂直位置の区切り、走査開始の基準となるタイミングを示すパルス状の電気信号である。受像機のブラウン管の水平/垂直走査駆動回路は水平同期信号を受信すると視聴者側から見て右端を照らしていた電子ビームを左端に戻し、垂直同期信号を受信すると下端の走査線を描いていた電子ビームを上端に戻す。戻しきった後は再び視聴者側から見て左から右へ、上から下へと電子ビームの偏向を開始する。映像信号と同期信号との明確な区別が付くよう、基準電位(ブランキングレベル)を0Vとしたとき映像信号は正電圧、同期信号は負電圧に振り向けている。垂直同期信号と水平同期信号との区別は、垂直同期パルスが水平走査線周期の3倍の長さを持っている事を利用して行う。
IREとは基準電位(ブランキングレベル)の0Vを0IRE、映像信号の輝度100%の時の電位を100IREとする相対値で同期信号の電位は-40IREと規定されている。つまり同期信号の底から最大輝度まで映像信号全体の振幅140IREを1V p-pとする場合、同期信号はブランキングレベル-286mV、映像信号の最大値は+714mVとなる。直流電圧を伝えられない伝送系を介する場合、また負電圧を扱えない単電源の増幅回路を使用する場合は同期信号の底のレベルもしくは水平同期信号直後のブランキングレベルを各々の機器で内部の基準とする電圧に揃えるクランプ回路を受信側に設けて限定的直流再生を行う。
表示に使うブラウン管の想定ガンマ値を2.2とし、送出側であらかじめ一括補正
ブラウン管も真空管の一種であり、制御グリッドに印加する電圧と表示光量とが直線比例していないという特性を持つ。増幅回路であればほぼ直線比例していると見なせる領域のみを使用し最も歪みの少ない動作点を選べば良いがブラウン管は最大輝度:電子ビーム電流最大から黒:電子ビーム電流ゼロまでの全動作領域を使用するため、どこかの段階で何らかの方法で補正してやらなければ画像が異様に暗く表示されてしまう。NTSCではブラウン管の発光輝度は制御入力電圧の2.2乗に比例すると想定して、カメラからの出力直後の段階で信号電圧を0.45乗してガンマカーブを補正してから放送を行っている。数億台分もの補正回路を各受像機毎に付けるより、放送事業者側で一括補正した方が受像機のコストダウンになる為である。
放送時の映像信号帯域は約4.2MHz(水平解像度にして約330本)
当時の16mm映画フィルムと同等の解像度、400ラインペア程度を目標として設定された。水平走査線一本分の時間<math>\frac{1}{15750}\fallingdotseq63.5</math>μ秒のうち、帰線消去期間等 (0.14H+0.02H)[2]を除くと映像表示に使える期間は約53.3μ秒となる。更にブラウン管のオーバースキャンによりそのうちの90%程度しか画面に表示されていない場合を想定すると、有効表示時間の最悪値は48μ秒ほどになる。ここに最大400ラインペア、200サイクル(白線1本プラス黒線1本で2ラインペアと数えるため)を表示しようとするとその周波数上限は<math>\frac{200}{48\times10^{-6}}\fallingdotseq4.2</math>MHzとなる。
なお、伝送路や録画再生機器の周波数特性上限を表す性能指標として使われる「水平解像度何々本」という文言は画面縦横比3:4に設定された映像領域を正方形で切り取った時の数字である。上記の通り、放送時の映像信号周波数上限は4.2MHzであり(オーバースキャンによるマスク分を含めた)有効映像期間 約53.3μ秒に最大で220サイクル、440ラインペアほど並べられることとなる。画面を正方形に切り出すという事は縦3横4比率である画面の横4ある長さのうち、縦方向と同じ横3の長さに含まれている分だけを評価するという事になるので<math>440\times\frac{3}{4}</math>=330(単位:TV本)が放送波で送られてくる映像信号の水平解像度上限となる。
映像信号は残留側帯波、負極性振幅変調で放送。音声信号は周波数変調
映像信号の4.2MHzという帯域は、そのまま両側帯波の放送電波に振幅変調すると8.4MHzもの広大な周波数帯域を占有してしまう。VHF帯 (30 - 300MHz) の利用が緒についたばかりの1940年代の放送業界において、そのような資源浪費を許容する余地は無かった。都合の悪い事に映像信号には垂直同期信号の60Hzが含まれており、そこから更に周波数の低い4.2MHzという信号帯域に比してほとんど直流に等しい領域まで同じ利得で伝送出来ないと画面の明るさが急激に変化するシーンで受像機の垂直同期がかからなくなったり画面の上部と下部で明るさが変わってきて(サグが発生して)しまうため、SSBの採用も出来ない(無理やり採用しようとすると搬送波周波数プラス数十Hz以下を極めて急峻に減衰し通過帯域は4.2MHzまでフラット、映像信号波形の歪みを防ぐ為に群遅延特性も平坦という非現実的な性能の中間周波数フィルターが送信側だけでなく復調を行う受像機側にも必要となる。そのような素子は当時仮に有ったとしてもコスト要求が厳しく、製造後は無調整で経年変化に耐えねばならない家電製品には採用不可能である)。
そこで搬送波周波数より低い側の側帯波も一部(搬送波周波数-750kHzまで)を送信して直流付近の信号まで確実に伝送する残留側帯波方式とし、遮断特性はゆるやかだが安価で大量生産に向くフィルターを使えるようにした。また変調は負極性、すなわち映像信号電圧の最も低い同期信号の底で変調波の振幅が定格出力100%になり最も明るい白を表示する時の変調波振幅は12.5%となるよう規定されている。これは、受像機側でのAGC(自動利得制御)を容易にするためである。水平走査期間63.5μ秒の間に電波の振幅が100%になるピーク期間が確実に存在するので、そこが規定のレベルになるようAGC回路を構成すれば良い。仮にこれが正極性の変調だと暗いシーンを映しているから電波の振幅が低いのか電波が弱いから振幅も低いのかを区別する為に、復調後の映像信号からもフィードバックをかける回路が余計に必要になる。
音声は周波数変調 (FM) とし、自局および隣接チャンネルの映像信号から受ける妨害を軽減した。FMラジオ放送は米国において1939年から開始されており、AMラジオに比べて占有帯域は広いものの歪みやノイズが少なく音域も広い上に良好な耐妨害特性を有している事が既に実証されていた。
映像搬送波周波数はチャンネル周波数帯下端から+1.25MHz、音声搬送波周波数は+5.75MHz、放送波の占有帯域は1チャンネルあたり6MHz
上記項目の放送波帯域を合計すると映像信号は搬送波周波数-1.25MHzから+4.2MHzまでを占有し、音声信号は映像搬送波周波数+4.5MHzを中心として±25kHzの変移、更にFM変調がもたらす側帯波(サイドバンド)の広がりを加えた合計6MHzが1チャンネルの帯域幅となる。映像搬送波はチャンネル周波数下端から1.25MHz、音声キャリアは同じく下端から5.75MHz高い周波数に設定されている。
放送バンドプランは各々の国で異なっているが日本においては例えば、チャンネル1(東京圏ではNHK総合)は90 - 96MHzを占有し映像搬送波周波数91.25MHz、音声搬送波周波数95.75MHzと定められている。

以上のような白黒放送の諸元に対し、カラー放送では水平同期周波数 fhと映像-音声搬送波周波数の差 faが整数倍の関係になるよう変更している。

  • <math>fh=\tfrac{fa}{286}</math>(なお、<math>fa=4.5</math>MHz〈白黒放送の fh=15.750kHz に比べて0.1%の差異〉)

これに伴って垂直同期周波数は60Hzから<math>\tfrac{60}{1.001}</math>Hzにフレームレートも毎秒30枚から<math>\tfrac{30}{1.001}</math>枚へと0.1%ずつ低下するが大部分がアナログ回路で構成されている垂直および水平偏向系にとっては製造誤差を見込んだ引き込み範囲内に収まる変更であり、既存の白黒テレビジョン受像機を改造調整することなくカラー放送の輝度信号部分を受信可能にしている。また、NTSC方式カラーテレビジョン受像機においても従来の白黒放送を受信可能としている。

色副搬送波(カラーサブキャリア)周波数の決定経緯

水平同期周波数と音声キャリア周波数を整数倍の関係にしたのはこれらと色差情報を付加する為の色副搬送波の周波数 fscとをインターリーブさせ、相互妨害が最小で済むような形で合成するためである。

  • <math>fsc=\tfrac{455}{2}fh</math> ゆえに、<math>fsc=\tfrac{315}{88}</math>MHz±10Hz(<math>3.579\dot5\dot4</math>…MHzの循環小数になる)

色差信号を解読しない白黒テレビ受像機では輝度信号に加算されたクロマ信号は単なる妨害信号(ノイズ)となり、非常に細かい波状の明暗ビートとして画面に表示される。色副搬送波の周波数を水平同期周波数の<math>\tfrac{1}{2}</math>の奇数倍、映像信号帯域上限(約4.2MHz)に近い数値にしたのはこの妨害ビートが出来るだけ細かくなるよう、さらに市松模様状に規則正しく並んで適正視聴距離[3]以遠まで離れて見ると模様が潰れて平均化されて目立たなくなるように考慮して設定された値であり、映像信号帯域の4.2MHzからクロマ信号側帯波の帯域を0.5MHz以上確保した3.579545MHzに定められている。家庭用テレビに接続可能な、ゲーム機、パソコンなどではこの周波数がシステム全体のクロックとして流用され、MSXや、SEGAのゲーム機など、CPUの規定周波数とは異なる、3.579545MHzで動作する機種が多く生まれた。

各色カメラの出力信号から輝度信号Yと色度信号I・Qを生成する

被写体で反射しビデオカメラレンズに入射してきた光はダイクロイックミラーによって赤・緑・青の波長毎に分光され、撮像管(近年はもっぱらCCDCMOSのような平面撮像板)に焦点を結ぶ。撮像面上に投影された光学像は光電効果もしくは微小フォトダイオードによって光の強弱を2次元平面上の電位の高低や抵抗値の高低へと変換され、水平および垂直走査によって走査線毎に分解された線順次(1次元の)電位信号として取り出されてくる。

輝度信号Yと色度信号I・Qはこの赤緑青各色のカメラから出力される色信号にガンマ補正を施し、重み付けを行って加算する事で生成する。ブラウン管等の表示装置に使用される三原色のISO/CIE 10527 色度図座標を

  • 赤 x=0.670 y=0.330
  • 緑 x=0.210 y=0.710
  • 青 x=0.140 y=0.080

と想定し、無色の「白」を意味する信号を送出した時に受像機側で表示される光をCIE標準光源Cの座標

  • 白 x=0.3101 y=0.3162

に設定して、これらの色に合致させた各色カメラからの出力色信号 赤:R 緑:G 青:B を0 (0IRE) - 1 (100IRE) の範囲に正規化したとき、

  • Er = <math>R ^{0.45}</math>
  • Eg = <math>G ^{0.45}</math>
  • Eb = <math>B ^{0.45}</math>

の様にガンマ補正を行い、7.5IREのセットアップレベル(最低輝度の「黒」を規定する信号レベル)を加算

  • E'r = 0.925Er + 0.075
  • E'g = 0.925Eg + 0.075
  • E'b = 0.925Eb + 0.075

したものを

  • Y = 0.299 E'r + 0.587 E'g + 0.114 E'b
  • I = 0.5959 E'r - 0.2746 E'g - 0.3213 E'b
  • Q = 0.2115 E'r - 0.5227 E'g + 0.3112 E'b

というマトリクスを実現する回路で変換を行う。受像機側では上記マトリクスの逆行列に相当する変換回路で輝度信号Yと色度信号I・Qから赤緑青の各色信号を復元し、表示装置を駆動する。

ただし上記三原色の色度図座標で発光する蛍光体は輝度が非常に低い物しか存在せず現実のブラウン管では別の色で発光する蛍光体で代用し、色再現の差異は受像機側マトリクスの係数を変更して吸収している。

また、SMPTE-170Mでは「白」の座標は標準光源D65のx=0.3127 y=0.3290に変更され三原色の座標もガンマ補正時の処理もセットアップレベルを加算する段階も1953年の規格制定当時の物とは内容が異なっている。詳細は当該規格参照。

I・Q信号の生成

オレンジから水色の色差を表すI信号は基準となる色副搬送波から57度遅れた位相を持つ搬送波で平衡変調し、青紫から黄緑の色差を表すQ信号は同じく147度遅れた(I信号から更に90度遅れた)搬送波で変調をかけて加算し、クロマ信号を生成する。クロマ信号は、簡単に言えば基準となる色副搬送波との位相差が色相を、振幅が彩度を表すベクトル信号である。受信側で色差信号の復調を行う際のよりどころとなる位相と振幅の基準信号は、水平同期パルス立ち上がり直後のブランキングレベル区間(バックポーチ)に挿入されている。このカラーバースト信号は、水平同期パルス立下り50%エッジ[4]から色副搬送波19サイクル(約5.3μ秒)後に始まる持続時間9±1サイクルの色副搬送波で構成され、振幅は垂直・水平同期信号と等しい40IRE p-pと規定されている。

I・Q信号を復調し、色(クロマ)信号にする

受像機側での復調時にはカラーバースト信号と同じ位相同じ周波数に同期させた連続波発振器(多くの場合、水晶振動子が用いられる)を駆動し、各々57度と147度遅らせる移相器を通した2種類の局部発振信号を得て映像信号から分離したクロマ信号を同期検波してI・Q信号を復元する。

尚、EI色度信号は色副搬送波信号3.579545MHzを中心とした下側波帯が1.5MHz・上側波帯が0.5MHzの周波数占有帯域幅であるが、EQ色度信号は下側波帯が0.5MHz・上側波帯も0.5MHzとなっており占有帯域幅が異なる。このため回路内で帯域幅が広いEI色度信号はEQ色度信号よりも僅かに遅れてしまう。これを補正するためにI復調回路の出力信号はディレーライン(遅延線輪)を通して時間補正し、更にディレーライン通過時の利得損失を補うEI色度信号増幅回路を経てからアーダー(信号加算回路)に入れる必要がある。

I復調回路からは極性が互いに逆の+EI色度信号と-EI色度信号が、同様にQ復調回路からは+EQ色度信号と-EQ色度信号が出力される。これら4色度信号は赤緑青用の各アーダー(信号加算回路)で比率制御された上で輝度信号+EY信号と共に加えられ、赤緑青の各色信号を再現する。</br> 1.00EY+0.96EI+0.63EQ=ER、1.00EY-0.28EI-0.64EQ=EG、1.00EY-1.11EI+1.72EQ=EBとなり色信号が再生される。

帯域フィルター

SMPTE-170Mでは色差信号として<math>U=0.925\tfrac{Eb-Y}{2.03}</math>と<math>V=0.925\tfrac{Er-Y}{1.14}</math>を合成しU信号は180度、V信号は90度遅れた色副搬送波で変調してクロマ信号を生成する方法を第一に挙げている。一方、I・Q信号でクロマ信号を生成する旧い1953年版規格の機器も継続使用が認められている。最終的に生成されるクロマ信号は両者の間に大きな違いは無いが、唯一Q信号の帯域制限を行うローパスフィルターの特性だけが0.5MHzで6dB減衰と狭くなっている(U・VおよびI信号は1.3MHzまで減衰量2dB以下、3.6MHzで20dB以上)。

そのため、受像機側では新旧どちらの規格で作られた映像信号が来ても問題ないように色差信号復調前後のフィルター特性はQ信号のそれに合わせて狭帯域 (0 - 0.5MHz) で実装するのが安全であると考えられている。実際、音声搬送波がクロマ信号に与える妨害ビート<math>\tfrac{117}{2}fh</math>約920kHzを回避するため同時にコストダウンの目的もあって市販受像機ではクロマ帯域のフィルターを狭帯域の物のみで済ませており、I信号を広帯域1.3MHzまで復調している例は稀有である。

色差信号による色(クロマ)信号の復調

I・Q復調方式によるカラーテレビ受像機は放送局から送信されてきた信号を全て利用し忠実な色を再現できるが、占有帯域幅が広いI信号を占有帯域幅が狭いQ信号の伝達速度に合わせるための遅延線輪(ディレーライン)及び、EI色度信号増幅回路が必要であると共に回路が複雑で高価になる。(1990年代に、三菱電機から「29C-CZ1」等CZシリーズとして「自然の色」を再現する機能を搭載したテレビが発売された。これがIC・トランジスタ化後、日本国内で販売された唯一のI・Q復調方式カラーテレビである。)

このため実際に市販された大半のカラーテレビでは色信号に関しては3.579545MHzを中心とした±0.5MHzのみを利用している。

真空管時代は、I・Q軸ではなくI軸寄りの位相のX軸、及びQ軸に近い位相のZ軸から成る2軸復調が主流であった。この方式は、X復調回路から出力されるEX信号をER-EY増幅管の第1グリッドに、Z復調回路から出力されるEZ信号をEB-EY増幅管の第1グリッドに送り出す。(EG-EY増幅管の第1グリッドはER-EY、EB-EY増幅管と同様にバイアス抵抗によりアースされているが、X復調回路、及びZ復調回路の出力とは繋がっては無く無入力となっている。)</br> 尚、ER-EY、EG-EY、EB-EYの各色差信号増幅管のカソードは一点結合しており3管共有のカソード抵抗(この抵抗の両端に生じる電圧をEKとする。これは各色差信号増幅管のグリッドに対して-EKとして加わる。)</br> 各色差信号増幅管の増幅率をAとすると。色差信号ER-EY出力管の出力電圧は、

-A(EX-EK)=ER-EY (真空管ではグリッドにはマイナス電圧で入力するが、プレートからはプラス電圧で出力されるため極性の逆転が起きる。このため色差信号増幅管の増幅率を「-A」とする。)同様に-A(EZ-EK)=EB-EY となる。</br> 一方、色差信号EG-EY増幅管の第1グリッドにはEX、EZのいずれの信号も入らず共有カソード抵抗により生じた「-EK」のみが入力され、-A(-EK)=EG-EYとなる。(ここで、EKの位相はEG-EYの位相と一致する必要がある。そのため-EXと-EZの合成ベクトル位相がEG-EYの位相と一致する様にX軸及びZ軸は設定されている。)

これら各色差信号はカラーブラウン管の赤緑青の各色差信号用グリッドに加わる。一方カラーブラウン管のカソードには輝度信号の極性を±反転させた「-EY信号」が加わる。これはブラウン管の各三色各色差信号用グリッドに対しては更に極性逆転して+EY信号として加わる。</br> これによりカラーブラウン管内部において、(ER-EY)+EY=ER、(EG-EY)+EY=EG、(EB-EY)+EY=EBの赤緑青の各色信号が再現されこれに基づいて三色の電子ビームの強さを制御しカラー画面をブラウン管上に再現する。


尚、IC・トランジスタが普及するとX軸・Z軸復調方式から次第に直接、色差信号のER-EY、EB-EYを復調する「ER-EY・EB-EY 2軸復調方式」が主流となる。</br> この方式では色差信号EG-EYを復調しないがER-EY、EB-EYの各色差信号をEG-EY増幅トランジスタのベースに</br> -0.51(ER-EY)-0.19(EB-EY)=EG-EY として入力し再現する。

更にER-EY、EG-EY、EB-EY全ての色差信号を直接復調する3軸復調方式もあるが、これはバランスが取りにくく不安定なため余り普及しなかった。

復調側でのY/C分離

送出側で輝度信号Yとクロマ信号Cを合成する際は単純に加算するだけで済むが、受像機側でのY/C分離は現在に至るも完全な分離法は実現されていない。以下にいくつか方式を挙げるが、それぞれに利点・欠点を持つ。

周波数分離フィルタ

クロマ信号の主成分が約3 - 4.2MHzを占めている事に着目し、それ以下 (0 - 3MHz) の周波数帯には輝度信号しか含まれていないと見なしてローパスフィルタで輝度信号Yを抽出し、3 - 4.2MHzの領域はクロマ信号Cのみであるとしてバンドパスフィルタで分離する。

利点
部品点数が少なく、最もローコスト。受像機の画面サイズが小さい場合は、これでも十分な画質を提供出来る。
欠点
輝度信号の帯域が削られるため画像の水平解像度が330→240TV本程度に低下し、ぼやける。また現実には3 - 4.2MHzの領域にも輝度信号が含まれており、これを無理やりクロマ信号として処理するとクロスカラーと呼ばれる偽の色が付く現象が発生する。例えばニュース番組のアナウンサーのシャツやネクタイがストライプ柄であった場合、また重なり合う木々の枝を撮影した時などに本来は細かい白黒の縞模様で表示される筈の部分に奇妙にゆがんだ虹状の色が付いて見えてしまう。同様に2.3 - 3MHzの間にも色差信号の高周波部分が含まれており、これを輝度信号として処理すると例えば横方向に色が急激に変化するエッジ部分に粗い市松模様状の妨害が見えてしまう。なお安価にする為に部品点数を削り遮断特性を優先させたバンドパスフィルターはクロマ信号に位相歪みを発生させ、これは色相ずれに直結する。

ライン相関を利用したクシ形フィルタ

上述した通り色副搬送波周波数は水平同期周波数の<math>\tfrac{455}{2}</math>倍であり、言い換えれば1本の走査線は色副搬送波227.5サイクル分の時間で描かれるということである。走査線上のある1点に注目するとその直上や直下の走査線の同じ水平位置では色副搬送波は半サイクルずれ、位相が反転している。仮に1色で塗りつぶされている画像を撮影してNTSCの映像信号に変換したとき生成されるクロマ信号の振幅は一定になるが色副搬送波との位相差も一定になるので、当該画像のクロマ信号は直上直下の走査線と比較すると同じ水平位置では位相だけが反転していることになる。

自然画像を撮影し走査線で分解して映像信号にしたものを仔細に分析すると、直上直下の走査線ではあまり大きく内容が変わらず同じ水平位置では輝度・彩度・色相とも似通っている(ライン相関性が高い)場合が多い。そこで映像信号を正確に走査線1本分の時間(<math>\tfrac{572}{9}</math>μ秒)遅らせる遅延回路を通した信号と現在送られてきている信号とを足し合わせると画面のほとんどの領域でクロマ信号は打ち消しあい、残った輝度信号だけが得られる。逆に過去の信号との差分を取ると輝度信号は差し引きほぼゼロになり、位相が反転しているクロマ信号だけが残留する。

遅延回路を用いたこのフィルタは遅延時間の逆数の整数倍の周波数で利得にピークができ周波数特性グラフで見るとちょうど櫛の歯のようになっている事から、クシ形フィルタと呼ばれる。

利点
輝度信号を帯域制限せず分離することが出来、大画面に表示しても画像がぼやけず評価に耐える先鋭度を保つ。また、クロスカラーや色相歪みも周波数分離式に比べて少ない。
欠点
遅延回路用の部品と、その遅延時間を正確に水平走査線1本分の時間に調整するコストが製品に加算される。ライン相関性が低い領域では副作用も出る。例えば、斜め線の周囲に偽色がまとわりついたり星条旗の紅白の境目にドット妨害が残ったりする。また隣接ラインとの信号を単純に加減算すると画像が垂直方向にぼけ、水平方向だけはクッキリしたいびつな絵になってしまう。これらを解決するためには走査線間の相関性を検出し、相関性が低い場合は周波数分離に切り換える回路と水平走査線1本分の時間を更に遅らせた信号との3ライン間の比較演算により垂直解像度の低下を防ぐ回路が必要になる。そしてそれらの回路を追加実装すると、機器の価格は確実に上昇する。

フレーム相関を利用した3次元クシ形フィルタ(3D Y/C分離)

走査線1本ごとに色副搬送波の開始位相が半サイクルずつずれていくのは上述した通りだが1フレーム中の走査線数は奇数(525本)である為、画面中の任意の一点上における色副搬送波の位相はフレーム毎にも反転していることになる。したがって、正確に1フレーム分(<math>\tfrac{1001}{30}</math>ミリ秒)だけ映像信号を遅延できる回路を作成すればフレーム相関性を利用したY/C分離が可能になる。

「過去」の画面との比較を行うこのフィルターは2次元平面のフレーム画像を時間方向の次元で演算処理する事から、3次元クシ形フィルタと呼ばれる。

利点
ライン相関性を利用した物よりも、さらに精緻なY/C分離を行える。細かい模様上および斜め線の周囲の偽色や色の境界付近の色にじみやドット妨害が発生しない、理論上望みうる最高の画質を提供できる。
欠点
以上の利点は、フレーム相関性の極めて高い「まったく動いていない画像」の場合にのみ実現できる。そもそもテレビジョンは動いている画像を伝送表示するためのシステムであり現実の3次元クシ形フィルタではフレーム間の相関性を検出し、相関性が低い場合はライン相関によるY/C分離に切り換える(ライン相関も無い場合は、さらに周波数分離にフォールバックする)「動き適応回路」が必須になる。フレーム間の画像を単純に加減算すると時間方向の解像度が低下し以前の画面の映像が薄く残る残像現象が発生するので、この点からも動き適応回路の搭載は不可欠である。

なお、画面全体の映像信号を正確に1フレーム分遅延し得る回路の実現には、非常に複雑で大規模な画像処理装置が必要となり高速な半導体メモリとその大容量化・廉価化を待たねばならず民生家電製品に搭載できる所までコストが下がったのは20世紀も終盤になってからである。

ベースバンド信号での伝送

放送波への変調を行わずNTSCベースバンド信号を同軸ケーブルで外部の機器とやり取りする場合、入出力およびケーブルのインピーダンスは75Ωとし信号レベルを1V p-pとするよう規定されている。信号送出側/受入側とも直流伝送が可能な設計になっていればブランキングレベルを0V、同期信号レベル (-40IRE) を-286mV、映像信号の輝度100% (100IRE) を714mVとするが直流結合できない場合、もしくはどのような機器が接続されるのか確定出来ない場合は同期信号の底のレベルもしくは水平同期信号直後のブランキング期間の電圧を各々の機器内部で基準とする電圧に揃えるクランプ回路を受信側に設けて限定的直流再生を行う。

接続端子の形態は業務用機器ではインピーダンス75Ωに設計されたBNCコネクタ(通常のBNCコネクタは50Ω)と指定されているが、民生用機器ではRCA端子を使用するのが一般的である。

クロマ信号はNTSCベースバンド信号生成前の色差信号I・Q(又はU・V)の段階で最大1.3MHzの帯域制限フィルタがかけられているが輝度信号の帯域にはNTSC規格としての上限は設けられておらず、伝送路や記録再生機器の規格や性能によってのみ制限を受ける。たとえば放送波では4.2MHz(水平解像度約330TV本)の帯域が確保されており普及型家庭用VTRでは3MHz(同、約240TV本)までの信号が録画再生可能といったように、求められる性能とそれを実現する為にかかるコストを鑑みて帯域(水平解像度に比例)上限が設定されている。なお垂直方向の解像度が総走査線数によって一意に規定されている以上、水平解像度だけを無闇に追求する意義は薄い。

音声多重放送

詳細は 音声多重放送 を参照

音声は当初モノラルのみであったが、1978年に日本の東京広域圏で、FM-FM変調によるEIAJ方式音声多重放送が始まった。

1984年、アメリカでBTSC (Broadcast Television Systems Committee) が、MTS (Multi-channel Television Sound) と言われるAM-FM変調方式の音声多重放送の規格を制定した。日本とアメリカの方式の場合、音声信号内にサブキャリアを挿入する。

またPAL圏の西ドイツでは1981年から、A2ステレオ方式で音声多重放送を行っている。これは前2者の様な方式と異なり、2つ目の音声搬送波を設けて、そこで第2音声(二ヶ国語放送の外国語音声または、ステレオ放送時の右チャンネル音声)を伝送する規格である。

他のカラー放送方式との比較

短所

NTSC方式のクロマ信号は、カラーバースト信号で示される基準位相との差が色相を表すという特性を持っている。そのため、伝送・増幅系やフィルター等で位相歪みが発生すると表示画像の色相のずれに直結してしまう。空間波による放送ではマルチパスがもたらす信号歪みを完全に避けることは不可能であり、その影響も受信アンテナの性能とそれを設置した家々の位置によってまちまちとなる。またクロマ信号側帯波の広がり ( - 4.2MHz) の直上には音声キャリア (4.5MHz) が存在し、これによる妨害を排除する為の急峻な遮断特性を持つフィルターは1950年代当時の家電製品に適用できる技術ではクロマ信号の位相特性が確実に悪化する物しか作れなかった。

放送技術関係者らは、NTSC方式を評して自嘲的に

"Never Twice Same Color"(同じ色は二度と再現できない)
"No Television Same Color"(どの家のテレビも違う色で映る)
"Never Tested Since Christ"(有史以来、技術的正当性を検証していない)

などと揶揄しているくらいである。

NTSC以後に開発されたPALでは2つある色差信号のうちR-Y成分の極性を走査線1本毎に反転する事によって、位相歪みの影響を画面上で目立たなくする改良が加えられている。SECAMでは色差信号はFM変調されており、この種の問題は原理的に発生しない。

しかし1950年代から1970年代には問題となっていたこの件も送出側規格の厳密化やアンテナの指向特性向上、位相歪みを低く抑える電子回路技術の進歩、特に高性能な中間周波フィルター類の開発と量産廉価化・広範採用により次第に改善され「受像機を設置した先々で、いちいち色相調整つまみを回して合わせ込まないと正しい色が再現できない」という煩わしさを過去のものとしている。

長所

NTSC方式は周波数インターリーブ関係が単純であり、直上直下のライン相関性を利用して輝度信号とクロマ信号とを比較的高い精度で分離するクシ型フィルターを数%の部品追加で実現できる。2本離れた走査線との比較が必要になるPALではライン相関性が低下してY/C分離の精度が悪化し、SECAMではそもそも色信号にライン相関性が無い。画面全体の映像信号を蓄積できる大容量メモリを使って過去のフレームとの比較を取り、フレーム間の相関性を利用して輝度/色差信号を抽出する3次元Y/C分離が家電製品に使われるようになる1990年代初頭までこの点ではNTSC方式に優位性があった。

なおNTSCの走査線数525本に対しPALのそれは625本と多く、画面の詳細度はPAL方式の方が上回っている。逆にNTSCのフレームレートはPALの毎秒25枚に比べ20%増しの毎秒30枚であり、動きが滑らかである。しかし水平解像度と走査線数とフレームレートの積は当該チャンネルの放送波が占有し消費する周波数帯域の広さと比例し各値はトレードオフする関係にあるため、これをもって方式の優劣を語ることは出来ない。

放送電波の帯域は当該国家ないし地域住民の言わば共有インフラ・共有財産であり、民生用途に話を限ったとしてもテレビジョン放送のみに専用が許されているわけではない。VHF帯 (30 - 300MHz) の利用が始まったばかりの1940年代において、当時の16mm白黒映画フィルムと同等の解像度400ラインペア[5]程度を確保した上でチャンネル当たりの占有帯域が6MHzで済むNTSCは国土が広く混信を避けつつ全国放送を行うためには多くのチャンネルを必要とするアメリカの事情を反映して開発された方式でもある。7 - 8MHzのチャンネル幅を必要とするPAL/SECAM方式や14MHzもの帯域を占有して819本の走査線を描くフランス式System-Eの様に放送チャンネル当たりの帯域を広く取ればそれだけ多くの走査線を詰め込めるが、確保できるチャンネル数はその分減少する。テレビジョン放送用のチャンネル数を増やすには周波数が高い方向に確保するしかない(低い側の周波数領域は既に他の放送通信用途で埋まっており、数十 - 数百MHz単位で連続した領域を確保するには高い周波数帯を開拓する以外に方法は無い)わけだが、周波数が高くなればなるほど送信側受信側とも克服せねばならない技術的困難は増大する。

日本における実装 (NTSC-J)

アメリカやその他の国々で採用されているオリジナルのRS-170A/SMPTE-170M規格では最低輝度の黒を表すセットアップレベルは7.5IREと規定されているが、日本では黒レベルとブランキングレベルが等しく0IRE (=0V) となっている。両者の違いはごくわずかであり、多くの一般人はこのような差異が存在すること自体に気が付かないであろう。しかし業務として映像に携わる人々にとっては無視できない違いであり、業務用機器では日本規格と米国規格とで製品ラインナップが別になっていたり明示的にセットアップレベルを切り替えるスイッチが付いていたりする。

また、「輝度100%の白」を意味する信号が送られてきた時に表示する「白」の色温度も日米で異なっている。SMPTE-170Mでは国際照明委員会 (CIE) 標準光源のD65(色温度約6500Kの昼光色)を目標色にしているが、日本では明文化された規定は無いが色温度約9300KのD93光源の色が業界標準となっており、少々派手目の絵作りが設定されている。

なお、日本の東半分(富士川および糸魚川以東)ではAC電源の周波数は米国の60Hzと異なる50Hzであるが50Hz地域でNTSCを採用しているのは日本以外ではミャンマージャマイカチリペルートンガ等と少数派である。白黒時代に垂直同期周波数を米国の電源周波数と等しい60Hzに決定した理由は、端的に言えば1940年代の電子回路に使える増幅素子真空管だけだったためである。当時はコンセントから取ったAC電源を直接整流してコンデンサで平滑化しただけで回路内部のメイン電源を生成するトランスレス設計が当たり前であり、安定化されていないB電源には交流周波数と同じ周期の脈流成分が多量に含まれていた。同様にブラウン管に印加する加速電圧も安定化されていないために電子ビームの速度が変化してしまい画面が明滅したり偏向感度が変化して画像が膨張・収縮する現象を抑えきれず、表示フィールドレートと電源周波数が等しく[6]なっていないと激しいフリッカー(ちらつき)や画面の振動を生ずる危険性があった。またブラウン管の蛍光面を焼きつきから保護するために放送を受信していない時にも水平・垂直偏向系を駆動し続ける必要があり仮の同期信号を電源周波数の逓倍で作れるよう、総走査線数は比較的小さな奇数の積 525=3×5×5×7となっている。ところが、このような電源周波数に依存した設計を採ると日本の東西で方式を分けなければならなくなってしまう。幸い、アメリカでテレビ放送が開始された1941年から日本で開始される1953年まで十余年間の技術進歩の恩恵を受けて内部回路用の低圧電源や電子ビーム加速用の数千ボルトの電圧を一定に保ち、また電源周波数の逓倍に頼らずとも正確な発振周波数を得られる電子回路とそれらを可能にする部品群が開発されており東日本地域でNTSC方式の受像機を使用しても画像に上記の様な問題を生じることは無い。

そしてこれはテレビジョン放送規格の差異ではないが、日本のFMラジオ放送では音声信号のエンファシス[7]時定数は欧州規格と同じ50μ秒を採用している。アメリカではFMラジオ放送のエンファシス時定数とテレビのそれとは同じ75μ秒であるため、テレビの音声放送周波数にチューニングダイヤルを合わせる事が出来れば(あるいは周波数変換機:コンバーターを使用すれば)テレビの受像機が無くても音声部分だけはラジオで聞く事が出来る[8]。しかし日本規格(50μ秒)のFMラジオ受信機で何の対策もせずにエンファシス時定数75μ秒で放送されているTV音声を聞くと高域が強調されて、いわゆる「キンキンした」音になってしまう。

アナログテレビ放送の今後

NTSCカラー放送方式は激しい変革と急速な進化を遂げ続けている電子工業界において50年以上もの長きにわたって第一線にとどまり続け、その間も消費者の厳しい評価に応え続けてきた規格である。しかし放送通信のデジタル化は時代の趨勢であり、特に算術処理により動画データーを高圧縮するMPEGを始めとした技術の実用化に伴って衛星放送はもとより地上波でも高精細度デジタル放送への移行が各国で進行中である。

アメリカではATSC(Advanced Television Standards Committee、先進型テレビ標準委員会)による標準方式が策定され、地上波放送を受信し得る13インチ以上のテレビジョン装置は全てこのATSC方式のチューナーを備えるよう義務づけている。地上波アナログ放送は2009年6月12日をもって終了しており、低所得者層向けの移行支援としてデジタル放送をNTSCベースバンド信号に変換する単機能チューナーを購入する際に使用できる40ドル分の割引クーポンを配布していた。

日本においても、電波産業会 (ARIB) が規定するISDB (Integrated Services Digital Broadcasting) 方式への移行が予定されている。本来無料放送である民放局の番組にまでスクランブルをかけ、その解除キーであるB-CASカードをチューナーやレコーダーに挿入しないと受信できない煩雑さや件のB-CASカードを独占販売している私企業・株式会社ビーエス・コンディショナルアクセスシステムズが視聴者一人一人の個人情報を把握している危険性、それらを始めとする視聴者および製品購入者にとって不利益となりうる情報がシュリンクラップ契約で覆い隠され周知されていない隠蔽体質など批判も多く実現を危ぶむ声も聞かれたが2011年7月24日をもって被災3県以外の地上波アナログ放送は停波された。東日本大震災の被災地である岩手県宮城県福島県(以下被災3県)では、アナログ放送完全終了が震災の特例法により2012年3月31日に延期されていた。被災3県以外のテレビ局では、2011年7月1日からはすべての放送時間帯で停波の告知放送に切り替わり、番組放送自体も音声のみの放送となる計画であったが[9]画面左下に停波告知を常時表示(CM中を除く)し、映像と音声共に7月24日正午まで放送するように変更された[10]。低所得者層への移行支援策として生活保護世帯および身体障害者世帯等をはじめとする、市町村民税やNHK受信料が全額免除となる世帯への単機能チューナー無料給付制度が開始されている[11]

またこれに伴って一部の番組で2009年度から段階的にレターボックス(サイズは「レターボックス16:9」が主であるが、NHKの番組によっては「-14:9」「-13:9」もある)での放送に移行していたが、2010年7月5日付の放送開始から全ての番組をデジタルと同様にレターボックス16:9に変更した(一部のコマーシャルは従来と同じ4:3サイズとなるものもあり)。それに先駆けて、一部の新番組(NHKなど)や日本テレビ系列の収録番組(生放送番組を除く)は同年4月からレターボックスサイズでの放送に切り替わっている。被災3県を除く44都道府県では、2011年7月24日正午にアナログ放送は地デジ移行を促す青色単一の画面に変わり番組が終了、25日0時までに被災3県を除く放送局のアナログ放送が停波した。アナログ放送終了が2012年3月31日に延期されていた被災3県については2011年7月25日以降、CM中でもアナログ終了告知テロップの表示を開始し4:3のCMもレターボックス化(上下左右の額縁放送)、2012年3月12日から「アナログ放送終了まであと○○日」と書かれたカウントダウンの表示、2012年3月31日正午にアナログ放送は地デジ移行を促す青色単一の画面に変わり通常の番組が終了、1日0時までに被災3県に於ける放送局のアナログ放送が停波し、日本全国で完全デジタル化が完了した。これで、日本のアナログ放送は完全に廃止され、約60年の歴史に幕を閉じた。なお、日本の地上アナログテレビジョン放送で使用されていた周波数領域は今後携帯端末向けマルチメディア放送や地上デジタルラジオ放送、防災・行政無線他に使用される計画となっている。

参考文献

  • NTSC規格のベースバンド部分の定義は、米国映画テレビ技術者協会 (SMPTE) によりSMPTE-170Mとしてまとめられている。最新の2004年版は、国際電気通信連合 (ITU) からRecommendation ITU-R BT.1700,Characteristics of composite video signals for conventional analogue television systems.として提供されているアーカイブに同梱された形で入手可能である。ITUウェブサイトでは、1人年間3ファイルまで無償で各種規格書のダウンロードが可能である(ID登録が必要)。
  • 変調され放送波となった信号の特性は、同じくITUからダウンロードできるRecommendation ITU-R BT.1701-1 Characteristics of radiated signals of conventional analogue television systemsという文書にまとめられている。
  • 1953年のカラー放送規格制定当初の内容は、FCCウェブサイト上に有るCode of Federal Regulations (CFR) Title47 の Part73.682 TV transmission standardsとその図表・Part73.699 TV engineering chartsが参考になる。米国政府が公表している文書であり、ID等の登録は不要。
  • 日本における同様の文書は、総務省所管法令「標準テレビジョン放送(デジタル放送を除く。)に関する送信の標準方式」(平成三年七月十七日郵政省令第三十六号)および「標準テレビジョン音声多重放送に関する送信の標準方式」(昭和五十八年五月三十日郵政省令第二十三号)である。両書とも総務省ウェブサイトにおいて公開されている。
  • 1940年の委員会招集から白黒テレビジョン全米標準規格策定に至るまで、および1950年の再招集からカラーテレビジョン規格制定に至るまでの概略史、またその後のEIAとSMPTEによる規格編纂と定義厳密化の経緯がSMPTE Engineering Guideline 27 (Supplimental Information for SMPTE 170M and Background on the Development of NTSC Color Standards) に書かれており、IHS等から有償で購入できる。

脚注

  1. 画像を水平走査線で分解するという事は、垂直方向にはサンプリング(標本化)を行っているのと等価であり、436本というのは白い水平線と黒い水平線を交互に並べた画像を白と黒の境目が走査線の境目と一致するように撮影した理想的な状況下での最大解像度である。撮影するTVカメラを上か下に1/2ラインずらした時の画像を想像してみて欲しい。一面灰色の、何も描かれていない絵が表示されてしまう事になる。またカメラのズームレンズをワイド側に引いて白と黒の周期を走査線の周期の等倍未満にするとナイキスト定理によるモアレが発生し、この場合も元の絵とかけ離れた画像になってしまう。
    RCA社のレイモンド・D・ケルはこの現象の調査の為、一般人を含む視聴者に様々な画像を見せて実験を行い人間が視認可能な垂直解像度は状況にも拠るが走査線数の64%(1934年調査) - 85%(1940年調査)になるという観測結果を得た。一本の走査線の中でも電子ビームが当たっている中央部が最も撮影時の感度が高く(表示時には明るく)中心から離れるにしたがって感度や輝度が漸減して行く撮像管撮影・ブラウン管表示システムでは低下の度合いが大きく約70%であるが、CCDCMOSといった撮像素子で光学像をとらえLCDプラズマディスプレイのような表示デバイスに映し出す場合は走査線の幅の下端から上端まで同じ感度を持ち同じ輝度で発光させられるためほぼサンプリング定理通りの90%程度まで向上する。
    なお、ケルの実験では全てプログレッシブスキャン(順次走査)で表示した画像を使って調査しており時折言われる「インターレース走査を行う事で起きる(とされる)垂直解像度の低下現象」とケルファクターとは本来無関係である。
    参考:M. Robin, "Revisiting Kell", Broadcast Engineering, May 2003 & Kell, Bedford, Trainer, "An Experimental Television System : Part II - The Transmitter", Proceedings of the IRE, vol.22 issue11, page 1246-1265, 1934, ISSN: 0096-8390
  2. see FCC Code of Federal Regulations Title47 Part73 Section699 figure7 .
  3. 走査線1本の幅が視角度1分(1/60度)未満になる距離。視力1.0の人物を標準的な視聴者として想定したとき、この人がこの距離よりもブラウン管から離れると画面上に並んだ走査線間の隙間が潰れ「走査線の集まり」ではなく「面」として認識されるようになる。画面縦横比3対4で総走査線525本、映像信号を含む事ができる有効走査線が485本、オーバースキャン率90%を考慮すると画面上に表示される走査線数は430本あまりになるNTSCの場合、画面対角線の長さの6倍とされている。
  4. 水平方向の全てのタイミングの基準点。色副搬送波のゼロクロス(位相0度および180度)点もここに同期させている
  5. 現代の16mm映画フィルムは、HDTVのそれを越える2000ラインペア以上の分解能を持っている。
  6. 等しければ、明暗の帯や画像のゆがみの位置は画面上で固定される。
  7. FM変調では、変調前の信号の周波数が高くなるに従って復調後の信号に現れるノイズが増加するという特性を持っている。そのため変調前の信号の高域を強調しておき、復調後に高域を減衰する事でノイズレベルも同時に低下させるプリエンファシス/ディエンファシス処理がラジオ放送その他で一般的に行われている。
  8. ただし周波数変移はFMラジオの±75kHzからTVでは±25kHzに狭まっているため、音量は1/3となる。
  9. アナログテレビ放送 “終了”1カ月前倒し/NHK・民放計画 映像やめ音声のみ
  10. 7月1日以降のアナログ放送で画面左下に停波告知-画面の1/9で「アナログ放送終了まであと○日」 - AV Watch2011年6月17日
  11. 総務省ウェブページ「地上デジタル放送受信のための支援(簡易チューナー無料給付等)」

関連事項