Semiconductor Portal

» ブログ » インサイダーズ » 岡島義憲の集積回路の明日に向けて

人工知能への道(7);確率的論理の登場経緯

集積回路は、CMOS技術を用いて、比較的入力本数の少ないANDやNORなどを基本回路とし、回路規模を積み上げる設計手法を当然として来たが、半導体技術が見いだされる前の段階では、「人工知能を構成するには、確率的論理を表現する演算子が必要」と考えられていた。 そこで、改めて、「確率的論理」の重要性と必要性を考えてみた。

確率的論理の表現方法

「人工知能の実現には『確定的な論理』を『確率的な論理』に拡張する必要がある」と、初めて指摘したのは、1986年に論文(Probabilistic Logic)を発表したニルス・ネルソン氏(Nils J. Nilsson、当時スタンフォード大学のコンピュータサイエンスの教授)だったといわれている。(参考資料1)。

1986年というと、100万素子を超えるチップが量産され始めた時代である。 大型コンピュータのダインサイジングが始まり、様々な集積回路設計用のEDAツールのソフトウエアが革新され、ICOT(新世代コンピュータ技術開発機構)によるエキスパートシステム開発が真っ最中だった時代でもあった。

「確率的な論理が必要」とのニルス・ネルソン氏の主張が、そのディジタル革命の黎明期にてどのように扱われたのか筆者は調べ切れていない。 しかしながら、「知的なマシンの設計には、確率的な論理が用いられるはずだ」との見解は、集積回路開発が始まる前の段階では、むしろ、普通だったのではないだろうか? 

例えば、歴史上初めて電子回路を用いたコンピュータの開発を行ったフォン・ノイマン氏は、1952年にカリフォルニア工科大学で行った講演("Probabilistic Logics and the Synthesis of Reliable Organisms from Unreliable Components"、参考資料2)を進めるにあたって、基本回路を確率的論理モデル(図1)としていた。 その基本論理回路モデルは、1943年のマカロック&ピッツ(MacCulloch&Pitts)の人工ニューロンモデルであった(参考資料3、4)。

半導体集積回路が見いだされる前の段階では、なぜ人工知能を構成するには確率的論理を表現する演算子が必要と見ていたのだろうか?

図1 フォン・ノイマン氏が1952年の講演で示したオートマタ (Automata) を合成するための部品の基本モデル
図1 フォン・ノイマン氏が1952年の講演で示したオートマタ (Automata) を合成するための部品の基本モデル このモデルを、基本器官 (Basic organ) 、もしくは、単出力オートマトン (Automaton) と呼んでいた(参考資料2)。 このモデルは、1943年に提示されたとされているマカロック&ピッツ(MacCulloch&Pitts)の人工ニューロン(もしくは、形式ニューロン)のモデルと基本的には同じである(参考資料3と4)。 出典:Automata Studies, Princeton University Press(参考資料2)


マカロック&ピッツの人工ニューロンモデルは、ニューロンの出力を計算する時に、まず、シナプス結合の重みを表すベクトル{ wi }と、入力信号が表すベクトル{ xi }の内積値を求める(注1)。 内積値は、ベクトル{ wi }とベクトル{ xi }の向きが同じである時に最大となるので、両ベクトル間の「向き」の一致の程度を表す尺度となる。もし、ベクトルの長さが規格化されているとすると、内積値は、ベクトルの終点間の「距離」でもある。

筆者は、人工ニューロンが、二つの情報(学習によって獲得したベクトルと入力ベクトル)の「完全一致」ではなく、両ベクトルの「向きの一致の程度」や「距離の近さ」を用いて論理演算を行っていること自体が、「確率的論理」の重要性を主張するものだと思う。 「向きの一致の程度」や「距離の近さ」は、不確定さを許容する立場だからだ。 誤差を許容して進める論理は、正に「確率的論理」である。

そこで、以下に、「人工ニューロンの動作が、確率的論理の展開である」と見做す理由を、回路が用いる素子や信号の観点からと、回路が処理する情報の面からまとめてみた。


素子や信号の観点から見る「確率的処理」

人工ニューロンがモデル化しようとする神経細胞の発火動作が、そもそも確率的だったことを思い出していただきたい。 実際の神経細胞における「発火現象」は、「神経細胞膜の脱分極にて上昇する膜電位が閾値以上となった時に起る(図2)」とされていたが、その閾値電位は、安定した固定電位ではなかった(注2)。


神経細胞の細胞膜の活動電位と閾値の関係
図2 神経細胞の細胞膜の活動電位(Action Potential)と閾値の関係 細胞内に流入したイオンによる膜電位の分極が「閾値」を越えると、「脱分極」というポジティブフィードバック現象が起こり、パルス状の活動電位(赤)が発生する」とする。 出典:Web上の脳科学辞典(2012年4月3日版)


「細胞膜の両面の電位差(膜電位)が閾値を超えると、ポジティブフィードバック(正帰還)がかかり、出力電位が急激に上昇する」という神経細胞の発火動作は、半導体トランジスタを使った差動回路の動作と似る。 差動回路の動作が閾値近傍では確率的になる以上、神経細胞の発火する/しないの判定も閾値近傍では確率的となるのは不思議ではない(参考資料5)。

しかも、神経細胞の入力信号の信号振幅は100mV程度しかない。ある意味では、神経細胞への入力信号は、常に閾値近傍に漂っているとも言える。 実際の神経細胞では、時折、ランダムな発火現象(自律発火)が見られるが、それは、半導体設計を経験した人間であれば、「入力レベルを閾値のグレーゾーン内に設定しているのだから、誤動作もあるだろう」と言ってしまいそうな現象である(参考資料6)。

マカロック&ピッツの人工ニューロンも、フォン・ノイマン氏の単出力オートマトンも、神経細胞の動作を素直にそのままモデル化したため、基本回路モデルの動作を確率的としたとは考えられる。 神経回路の論理展開を素直に観察すると、それは、「ノイズ発生を伴う確率過程」と見えるのだろう。


神経細胞が処理する入力情報(入力信号群)の大きさが「確率的処理」を必要する

神経細胞への信号入力の本数は非常に多く完全一致しづらいため、「ほぼ一致した状態」を用いて論理を進める方が有用だったといえるのではないだろうか?

そもそも、人工ニューロンも、現実の神経細胞も、一般に、シナプス結合の個数は非常に多い。 多い場合には、1000を優に超えるシナプスが結合によって、前段ニューロンからの信号を受けている。 つまり、入力情報を模式化するベクトル{ xi }と学習により獲得した獲得した情報を模式化するベクトル{ wi }の次元数は共に非常に大きい。 従って、両ベクトルが全く同じ方向を向く可能性は非常に低いといえる。 文章、音楽、絵画、風景等の人間が対象とする情報も、二度と同じ表現に出会うことが無いと思える程に複数の情報が一致する確率は低いものだ。

純粋な数学世界にて、等号(=)が意味する「厳格な一致」が重要であり、数学世界での等号(=)の重要性は当然としても、しかし、人間の脳が行うデータ処理においては、等号(=)が成立することはほとんどないのである。 その意味で、文章、音楽、絵画、風景、等の情報処理においては、等号(=)の重要度は低いともいえる。 現実世界の情報は、対象も観察点も変化しているのが通常であり、更に、信号にはノイズも含まれる。 現実的には、近似(≒)にて、状態を判別して、論理を展開するしかないとも言える。

ということは、等号(=)動作を中心に組み立てられた現在のロジック集積回路は、近似(≒)が中心となる文章、音楽、絵画、風景、等の高度な情報処理には向いていないということにならないか?

ロジック集積回路は、一般に、図3のような真理値表の動作を用いて設計される。 比較的入力本数の少ないANDやNORなどの基本回路である。基本回路は、真理値表の入力(X1)と入力(X2)の組み合わせが完全一致(=)した行の「出力(Y)の欄の値」を出力する。


真理値表の例
図3 コンピュータで使われる基本演算回路の真理値表の例 2入力の真理値表の一般形は(C)のようになるが、確率的論理の場合は、各数値が確率値となりうる。 出典:筆者作成

一方、現実世界の多次元情報の処理に最適化された人工ニューロン(群)の真理値表は、図4のような非常に入力本数の大きな表となるだろう。 更に、各行の出力の欄の値を、「0〜1の間の値を取る確率値」として、「値1が出力される確率」を示すのが実用上有用となる。


ニューロンモデル真理値表の例
図4 ニューロンモデルを表現する真理値表の例 非常に多入力であり、入力や出力の欄の値に「確率値」が登場するような本表のような表となる。 確率的論理には、背景として、「何の集合にて確率を問題にするか」や、「サンプル数(合計)」を明確にし、更に、「近似(≒)が成り立つと見做す時の『必要な一致度』、もしくは、『許容誤差』、等を明確化する必要があるため、そのような項目を記載する欄を追加している。なお、この表は、1個のニューロンの入出力論理を定義しうるだけではなく、類似の事象の情報を処理する複数個(n個の)ニューロン集合全体の入出力論理を定義する真理値表とすることもできる。 出典:筆者作成


そのような図4の真理値表を、図3の真理値表を持つ基本回路を大量に組み合わせて表現し直すことは可能だろう。 現に、現在提供されているAIサービスを提供しているサーバの集積回路は、2入力では無いかもしれないが、比較的少数の入力のNANDやNORを大量に組み合わせた回路から構成されている。

しかし、少なくとも、フォン・ノイマンや、マカロック&ピッツの頃は、「人工頭脳開発には、図4のような非常に入力本数の多い確率的論理を用いるのが素直だ」と考えられていた。

ということは、ニューロンが行う演算を模した図4の真理値表の動作を行う基本論理回路を用いた方が、AI回路の設計に向くのではないか?多入力の確率的論理を用いると、脳のように、劇的に少ない消費電力で知的情報処理を行えるということなのだろうか?

現代の集積回路は、CMOS技術を用いて、比較的入力本数の少ないANDやNORなどを基本回路とし、回路規模を積み上げる手法を当然として来たが、今一度、非常に多入力の確率的論理の有用性を考えてみるべきではなのではないだろうかと思える結果となった。


1. マカロック&ピッツのモデルでは、人工ニューロンの演算動作を、シナプス結合の重みを表すベクトル量 { wi; i=1,2,3,・・・N }と、入力信号が表すベクトル量 { xi; i=1,2,3,・・・N }の内積値を先ず求め、その内積値と閾値(b)の差に、活性化関数 (φ) を作用させて出力値を求める(参考資料 2)。
y=φ(i=1N wixi) -b

現在では、関数 (φ) として、下図のように様々な関数タイプが試されており、用途に応じて選択される。
関数タイプ
2. その閾値(閾膜電位)は、「細胞膜に存在するチャネル穴から流入するナトリウムイオン(+)量と、流出するカルシウムイオン(+)量、流入する塩素イオン(-)量が釣り合う電位」とされるものの、厳密には、「それらのイオンの流入量によって。電位の急上昇現象が起こる確率が変わる」ため、動作がグレーな範囲があるとされている(参考資料5)。

参考資料
1. Nilsson, N. J., "Probabilistic Logic" Artificial Intelligence, vol.28, pp. 71-87, 1986
2. Neumann, J. V., "Probabilistic logics and the synthesis of reliable organisms from unreliable components", Automata Studies (ed. by C. E. Shannon and J. McCarthy), Princeton University Press, Princeton, N.J., 1956.
3. McCulloch W. S. & Pitts, W., "A logical calculus of the ideas immanent on nervous activity." Bulletin of mathematical biophysics, vol. 5, pp. 115–133, 1943.
4. McCulloch W. S.; "What is a Number, That a Man May Know it, And a Man, That He May Know a Number?" General Semantics Bulletin, vol. 26/27, pp.7–18, 1960.
5. Web上の脳科学辞典 (2012年4月3日版)の「閾値」の項
6. 寺前順之助、「脳と知能の物理学」、物性研究・電子版 Vol.8, No.1, 2020年2月号

情報統合技術研究合同会社 岡島義憲

ご意見・ご感想