文献詳細
文献概要
特集 臨床検査のための情報処理技術の進歩 4章 臨床検査情報の収集とデータマイニング 2. 自動診断:classification
3)ニューラルネット
著者: 松戸隆之1
所属機関: 1新潟大学大学院医歯学総合研究科地域予防医学講座予防医療学分野
ページ範囲:P.1445 - P.1452
文献購入ページに移動はじめに
Artificial neural network(以下ニューラルネット)は,生物の神経系の性質を取り入れた並列計算システムのモデルである.神経系とコンピューターはいずれも情報を処理するシステムであるが,神経系はコンピューターにはない以下のような特徴を備えている.
(1) 並列計算:神経系は多数のニューロンが同時に並行して動作することによって情報を処理する.現在の大部分のコンピューター(ノイマン型コンピューター)では,1個の演算装置(CPU)がすべての計算を逐次的に実行している.
(2) 自己組織性:神経系には環境や経験に順応して自律的に新しい機能を獲得したり機能を向上させる学習能力が備わっている.コンピューターは人間が作ったプログラムをただ忠実に実行するだけである.
(3) 頑健性:人間の脳は,健常者でも毎日数万個のスピードでニューロンが減少し続けていると言われるが,このことによって脳の機能が著しく影響を受けるようなことはない.コンピューターは1ビットのデータの誤りが生じただけでプログラムが誤動作を起こす.
これらの特徴のため,ニューロンの動作速度はCPUの100万分の1程度であるにもかかわらず,脳は認知や行動に伴う高度な情報処理についてコンピューターよりはるかに高い能力を示す.ニューラルネットの研究は,このような神経系の特徴を効果的に取り入れることによって,従来のコンピューターとは異なる,新しい原理に基づく計算システムの構築を目指している.
現在までに様々なタイプのニューラルネットが考案されているが,本稿では自動診断システムの構築という観点から階層型ニューラルネットについて解説する.
Artificial neural network(以下ニューラルネット)は,生物の神経系の性質を取り入れた並列計算システムのモデルである.神経系とコンピューターはいずれも情報を処理するシステムであるが,神経系はコンピューターにはない以下のような特徴を備えている.
(1) 並列計算:神経系は多数のニューロンが同時に並行して動作することによって情報を処理する.現在の大部分のコンピューター(ノイマン型コンピューター)では,1個の演算装置(CPU)がすべての計算を逐次的に実行している.
(2) 自己組織性:神経系には環境や経験に順応して自律的に新しい機能を獲得したり機能を向上させる学習能力が備わっている.コンピューターは人間が作ったプログラムをただ忠実に実行するだけである.
(3) 頑健性:人間の脳は,健常者でも毎日数万個のスピードでニューロンが減少し続けていると言われるが,このことによって脳の機能が著しく影響を受けるようなことはない.コンピューターは1ビットのデータの誤りが生じただけでプログラムが誤動作を起こす.
これらの特徴のため,ニューロンの動作速度はCPUの100万分の1程度であるにもかかわらず,脳は認知や行動に伴う高度な情報処理についてコンピューターよりはるかに高い能力を示す.ニューラルネットの研究は,このような神経系の特徴を効果的に取り入れることによって,従来のコンピューターとは異なる,新しい原理に基づく計算システムの構築を目指している.
現在までに様々なタイプのニューラルネットが考案されているが,本稿では自動診断システムの構築という観点から階層型ニューラルネットについて解説する.
参考文献
1) Shepherd GM (eds):Synaptic Organization of the Brain (Fifth Edition). Oxford University Press, Oxford, pp1-38, 2004
2) J.ハーツ,A.クロー,R.G.パルマー:ニューラルコンピュータ統計物理学からのアプローチ.トッパン,pp141-200,1994 (Hertz J, Krogh A, Palmer RG:Introduction to the theory of neural computation. Addison-Wesley, Boston, 1991)
3) Rumelhart DE, Hinton GE, Williams RJ:Learning Representation by Back-Propagating Errors. Nature 323:533-536, 1986
4) D.E.ラメルハート,J.L.マクレランド,PDPリサーチグループ:PDPモデル認知科学とニューロン回路網の探索.産業図書,pp321-366,1989 (Rumelhart DE, McClelland JL, PDP Research Group:Parallel Distributed Processing. MIT Press, Cambridge, 1986)
5) Plaut D, Nowlan S, Hinton G:Experiments on Learning by Back Propagation. Technical Report, Department of Computer Science, Carnegie Mellon University, Pittsburgh, 1986
6) 松戸隆之,羽柴正夫,岡田正彦:ニューラル・ネットワークによる確率密度分布の推定.第19回医療情報学連合大会論文集,第19回医療情報学連合大会組織委員会,pp572-573,1999
7) Cybenko G:Continuous Valued Neural Network with Two Hidden Layers Are Sufficient. Technical Report. Department of Computer Science, Tufts University, Medford, 1988
8) Cybenko G:Approximation by superpositions of a sigmoidal function, Mathematics of Control. Signals and Systems 2:303-314, 1989
9) Hornik K, Stinchcombe M, White H:Multilayer Feedforward Networks Are Sufficient Universal Approximators. Neural Network 2:359-366, 1989
10) Fahlman SE, Lebiere C:The cascade-correlation learning architecture. In:Advances in Neural Information Precessing Systems II (Touretzky DS, ed), Morgan Kaufmann, San Fransisco, pp524-532, 1990
11) Marchand M, Golea M, Rujan P:A Convergence Theorem for Sequential Learning in Two-Layer Perceptrons. Europhysics Letters 11:487-492, 1990
12) Frean M:The Upstart Algorithm:A Method for Constructing and Training Feedforward Neural Networks. Neural Computation 2:198-209, 1990
13) MezardM, Nadal JP:Learning in Feedforward Layered Networks:The Tiling Algorithm. Journal of Physics A 22:2191-2204, 1989
14) Hanson SJ, Pratt LY:Comparing biases for minimal network construction with back-propagation. In:Advances in Neural Information Processing Systems 1, (D.S. Touretzky, ed), Morgan Kaufmann, San Fransisco, pp177-185, 1989
15) Cun YL, Denker JS, Solla SA:Optimal brain damage. In:Advances in Neural Information Processing Systems 2, (Touretzky D, ed), Morgan Kaufmann, San Fransisco, pp598-605, 1990
16) Hassibi B, Stork DG:Second order derivatives for network pruning:Optimal brain surgeon. In:Advances in Neural Information Processing Systems 5, (Handon SJ, Cowan JD, and Giles CL, eds), Morgan Kaufmann, San Fransisco, pp164-171, 1993
17) 栗田多喜夫:情報量基準による3層ニューラルネットの隠れ層のユニット数の決定法.電子情報通信学会論文誌 J73-D-II:1872-1878,1990
18) 栗田,麻生,梅山,他:独立なノイズの付加による多層パーセプトロンの構造化学習.電子情報通信学会技術報告,NC93-21,pp71-77,1993
掲載誌情報