「連想情報学と機械学習」 鈴木昇一 2016年 創成社

 鈴木氏の機械学習に関する数理の真髄のようなものを表出した著作。評価は分かれるでしょうが、機械学習を論じるなら一読しておかなくっちゃね。

 以下は、この本の要約と引用です。また、*印の部分は、関連情報の検索結果と、生禿の見解です。なにしろこの本は、高等数学に属する本なので、数式エディターを使わないとまとめることができません。そこで、概説部分と、特に生禿が注目した部分の説明文だけをまとめてみました。


 (本書は)記憶の働きと想起の働きとの対集合を機械学習するための一般理論の一部を、一般のヒルベルト空間上で解説した。

*ヒルベルト空間は、ユークリッド空間の概念を一般化したもの。二次元のユークリッド平面や三次元のユークリッド空間における線型代数学や微分積分学の方法論を、任意の有限または無限次元の空間へ拡張できます(Wikipediaより)。端的に言えば、鈴木氏の言う人工知能の解法は無限を前提とすれば成立するが、現世には実在しないということになります。「1点」は「無限の点の集合」である、とする破綻した現代数学を超えたところに、本来の人工知能は実現されるでしょう。

 観測される対象の持つ物理量は観測する主体の持つ意識のあり方(波動関数)に依存して、観測されるという立場を取るのが量子力学であるが、情報学研究における鈴木の出発点は、量子力学における観測理論であり、SS理論(パターン認識の数学理論)を考究できる基礎になった。

*このような旧式の考え方を前提に持つようでは人工知能の研究とは言えない、という声が聞こえてきそうです。ですが、著者である鈴木の数理は、現在の「人工知能」に当て嵌ります。つまり、現在の人工知能研究が、自立学習である筈の本来の人工知能になっていないという事実を何よりも雄弁に語っています。だから価値が無いのではなく、だからこそ、この本にはそのやり方の糸口が、数理という処理し易い形で提供されているのです。

 人の脳における記憶を形成する認知学習と記憶の再生は、コンピュータで言えば機械学習と検索である。

 認識機械 RECOGNITRON の認識性能を学習の働きで改良する方法は、1)代表パターン集合Ωの適応(漸進)学習、2)類似度関数の再構成、の2種類がある。

*IBMの用語で言うコグニティブ・システムでは、真の人工知能ではないので、上記の2つの手法は有効です。そして、これらの手法の数理を明快に示しているところが、この著作の手柄でもあります。

 データ・マイニングは、情報の集まりを成分分析し、その内容にある傾向があることを明らかにする。

*そして、その傾向は、一次結合で表現されるとしています。古典理論そのものです。

*この本では、対想起形記憶原理でも、入力(知覚)に対する出力(想起)が線形の写像として定義されています。

 教師なし学習の一つ、Q強化学習を説明する。Q強化学習は、環境との相互作用に基づく目標指向型の学習である。マルコフ決定過程を最適制御する観点から、Q強化学習が収束する諸条件が証明されている。Q強化学習知能を使い、効用に基づき問題を解決するのは、代理人(エージェント)と呼ばれる。もらえる報酬で価値行列Qが変容し学習されていく。報酬を教師からの指示と看做すと、Q強化学習は教師付き学習とも言える。

*この論述は、尤なものです。「教師なし学習」は、本来の人工知能そのものなのですから。

*この本を読んでいると、現在のWEB向きの言語ではなく、高速に言語検索が可能なDelphi言語のような古典手法が有効かも知れないと思わせます。コグニティブ・システムでは、関数型プログラミング言語のLISPが、とっても古いですが、使うべき言語なのではと感じさせます。