「情報源」の版間の差分

提供: Yourpedia
移動: 案内検索
(ページの作成:「'''情報源'''(じょうほうげん)には主に次の2つの意味がある。 # 情報の提供者、入手元、入手経路、発信源(ソース、{{lang...」)
 
(情報理論)
24行目: 24行目:
  
 
== 情報理論 ==
 
== 情報理論 ==
{{出典の明記|section=1|date=2011-11}}
+
情報理論においては、情報源とは[[ビット]]列(もしくはより一般になんらかのシンボル(アルファベット)の有限列)が、選ばれるもととなる空間の事。より厳密に言えば、シンボルの有限列全体の空間とその上の[[確率分布]]の組のこと。シンボルの有限列はその確率分布に従って選ばれる。
情報理論においては、情報源とは[[ビット]]列(もしくはより一般になんらかのシンボル(アルファベット)の有限列)が、選ばれるもととなる空間の事{{要出典|date=2011-11}}。より厳密に言えば、シンボルの有限列全体の空間とその上の[[確率分布]]の組のこと。シンボルの有限列はその確率分布に従って選ばれる{{要出典|date=2011-11}}。
+
  
 
代表的な情報源として次のものがある:
 
代表的な情報源として次のものがある:
  
無記憶情報源とは、各シンボルが統計的に[[独立性|独立]]に発生する情報源である。この種の情報源は、各シンボルの生起確率 <math>P(s_1), ..., P(s_n)</math> が与えられることにより一意に定まる。この情報源のシンボルあたりの平均情報量のことを[[エントロピー]]という。エントロピーの最大値は、<math>\log_2 n</math> [[情報量#単位|シャノン]]であり、それは各シンボルの生起確率が等しいとき( <math>\frac{1}{n}</math> ずつのとき)である{{要出典|date=2011-11}}。
+
無記憶情報源とは、各シンボルが統計的に[[独立性|独立]]に発生する情報源である。この種の情報源は、各シンボルの生起確率 <math>P(s_1), ..., P(s_n)</math> が与えられることにより一意に定まる。この情報源のシンボルあたりの平均情報量のことを[[エントロピー]]という。エントロピーの最大値は、<math>\log_2 n</math> [[情報量#単位|シャノン]]であり、それは各シンボルの生起確率が等しいとき( <math>\frac{1}{n}</math> ずつのとき)である。
  
<math>m</math> 重マルコフ情報源とは、各シンボルの生起確率がその直前に生じた <math>m</math> 個のシンボルに依存する、<math>m</math> 重[[マルコフ過程]]とみなせる情報源のことである。特に、<math>m=1</math> のとき、単純マルコフ情報源という{{要出典|date=2011-11}}。
+
<math>m</math> 重マルコフ情報源とは、各シンボルの生起確率がその直前に生じた <math>m</math> 個のシンボルに依存する、<math>m</math> 重[[マルコフ過程]]とみなせる情報源のことである。特に、<math>m=1</math> のとき、単純マルコフ情報源という。
 
+
エルゴード情報源とは、[[エルゴード性]]を満たす情報源のことである{{要出典|date=2011-11}}。
+
  
 +
エルゴード情報源とは、[[エルゴード性]]を満たす情報源のことである。
  
 
== 参考文献 ==
 
== 参考文献 ==

2015年1月11日 (日) 19:32時点における版

情報源(じょうほうげん)には主に次の2つの意味がある。

  1. 情報の提供者、入手元、入手経路、発信源(ソース、information source)。例えば、歴史においては史料historical source)、調査・研究においては資料source text)。ジャーナリズムにおいては、取材源 (en:Journalism sourcing) 。
  2. 情報理論の概念。

情報の提供者、史料、資料

様々な情報源

情報源としては例えば次のようなものがある[1]

書籍は一つのテーマを徹底的に論述し、しばしば歴史的な文脈の中で具体的な反論を提起しており有益である[1]
定期的に刊行されているもの。一般向けの定期刊行物もあるが、専門家向けの定期刊行物(専門誌)もある。季刊誌月刊誌、週刊誌など。
議論の行う時にはしばしば最新の情報、タイムリーな情報が必要だが、新聞はそうした情報源として優れている[1]
具体的な統計を探すのに適しており、それを書籍で探すよりも時間の節約になることが多い[1]
政府側の見解や、政府が把握している情報を調べるのに適した情報源。委員会や公聴会などにおける専門家の発言などを知るのにも役立つことがある。
  • の口頭での発言、証言
裁判などでは人の証言が決定的な根拠となることも多い。

信頼性の検討

情報源に着目しつつ情報の内容を確認することによって、得られた情報の内容の信頼性を吟味することもできる。ひとつは、同じ情報源から得られる別の記述と整合性があるか、また、別の情報源から得られる記述・証言と整合性があるかを確かめる[1]。この2つの作業によって信頼性を吟味することができるのである[1]。ジーゲルミューラーは前者を「内的整合性」後者を「外的整合性」という用語で呼んでいる[1]。同一の情報源からの情報でありながら別の箇所の記述と整合性を欠いている場合は、その情報源の信頼性に疑問符がつくことになる[1]。不整合があるということは、何らかの不注意や上滑りな分析がそこに含まれている可能性を示唆している[1]裁判においては検察官弁護士は証人の発言の内的整合性に特に注意を払う[1]。内的整合性が無い、との指摘で証人の発言内容の信頼性は下がってしまうのである[1]中絶を巡る議論でも、中絶賛成派が論拠に持ち出す話の内部整合性の無さが中絶反対派から批判されることがある[1]。母体の生命を保護するために中絶を認めるべきだとしておきながら胎児の生命は失っても問題ないとするのでは、生命の普遍性という観点からは内部整合性を欠いているのである[1]。外部整合性について言うと、独立した、別々の情報源からの情報と整合性があるかどうかを調べてみる、ということである[1]。ある人の発言が他の様々な情報源の著しく食い違い支持者が全然無い場合は、その発言を根拠としてしまうのには問題が出てくる[1]。複数の情報源で情報に食い違いがある場合でも、ただちに情報元の信頼性がすっかり失われてしまうわけではないが、問題となっている主題に関しては複数の情報元のどれがより信頼できるのか検討が必要となってくる、とジーゲルミューラーは解説した[1]。外的整合性の有無は根拠を保証する肯定的な使い方も、根拠を拒否する否定的な使い方もできる[1]。歴史学者のルイ・ゴットシャルクは「独立的実証」という概念について次のように説明している[1]。「歴史学者が用いる一般的な規則というのは、二人以上の信頼できる証人の独立した証言に基づく事項だけを、歴史的なものとして受け入れることである」。二つの、無関係の、独立した情報源から、同一の意見や前提が得られそれを根拠として用いれば、より高い信頼性が得られるのである[1]

情報理論

情報理論においては、情報源とはビット列(もしくはより一般になんらかのシンボル(アルファベット)の有限列)が、選ばれるもととなる空間の事。より厳密に言えば、シンボルの有限列全体の空間とその上の確率分布の組のこと。シンボルの有限列はその確率分布に従って選ばれる。

代表的な情報源として次のものがある:

無記憶情報源とは、各シンボルが統計的に独立に発生する情報源である。この種の情報源は、各シンボルの生起確率 <math>P(s_1), ..., P(s_n)</math> が与えられることにより一意に定まる。この情報源のシンボルあたりの平均情報量のことをエントロピーという。エントロピーの最大値は、<math>\log_2 n</math> シャノンであり、それは各シンボルの生起確率が等しいとき( <math>\frac{1}{n}</math> ずつのとき)である。

<math>m</math> 重マルコフ情報源とは、各シンボルの生起確率がその直前に生じた <math>m</math> 個のシンボルに依存する、<math>m</math> 重マルコフ過程とみなせる情報源のことである。特に、<math>m=1</math> のとき、単純マルコフ情報源という。

エルゴード情報源とは、エルゴード性を満たす情報源のことである。

参考文献

ジョージ・ジーゲルミューラー、ジャック・ケイ『議論法: 探求と弁論 第三版』花書院、2006 ISBN 4938910896

出典

  1. 1.00 1.01 1.02 1.03 1.04 1.05 1.06 1.07 1.08 1.09 1.10 1.11 1.12 1.13 1.14 1.15 1.16 1.17 1.18 ジョージ・ジーゲルミューラー、ジャック・ケイ『議論法: 探求と弁論 第三版』花書院、2006、pp.61-99

その他

Wikipedia-logo.svg このページはウィキペディア日本語版のコンテンツ・情報源を利用して作成されています。変更履歴はこちらです。