東大工学系准教授の松尾豊氏の講演「ディープラーニングの学術的意義と産業・社会に与える影響」を拝聴した。AI=人工知能の概要は把握しているという自惚れから、当初期待しなかったが聴講して驚いた。DL=Deep Learning=深層学習の大変ユニークな説明をされた。講演後のパーティで、「理系には明快で、文系にも一部(下記の最小二乗法)のBlack Box以外は分かり易いご説明をされたことに感動した。私は浅学にしてこういうご説明を今迄聞いたことが無い。浅学だから未経験だったのか、ユニークだから未経験だったのか?」とお尋ねした。謙虚なお答ではあったが、後者と言われたと思った。それを私の理解と例示で以下にご紹介する。
評価関数、例えばA=ax+by+cz、という概念がある。例えばA=洗濯物の乾燥速度、x=温度、y=湿度、z=風速の場合に、係数 a, b, cを適当に定めれば意味のあるAが求まる。異なる環境で何度も実験した実験データが集まれば、a, b, cをより適切に定めることができる。その場合に使われるのが「最小二乗法」で、((実験上のAの値)−(計算上のAの値))の二乗を実験の回数だけ計算して加算し、その値が最小になるように係数 a, b, cを調整してその最適値を求める。上記は x, y, zの3入力変数だったが、100画素 x 100画素の画像解析であれば1万個の入力変数になる。
洗濯物の乾燥速度なら1つの式で済むとしても、「この画像は猫か?」程度に複雑な処理になると、多段化が必要となる。即ちx, y, z...からAだけでなくA, B, C....を導き、それらからα, β, γ...を導くような多段化だ。そして無数の係数を無数のデータからAI自身が試行錯誤で学習し最適化していく。およそ4段階以上の場合に、DL=深層学習と呼ぶ。多段化では各段ごとの作戦が必要だ。猫の場合には、最下層のビットデータ入力に対して、第1段で特徴点を抽出し、第2段で目や鼻の部品を特定化し、第三段で顔を構成し、最後に第4段で猫か否かを判断する。入力に元々含まれる目や顔を再構成するのは一見不思議だが、ビット情報の数字をOCRで読み、特徴情報を抽出・理解して再構成した数字のような関係だ。
世の中でAIを称すものに3段階あるとされた。@一般的な株の自動売買は、人が論理をプログラム化する擬人化IT系で、データからの学習はない。A与信はデータから学習するが、1段だけだから「深層」ではない。B最近名人を負かしている碁や将棋のシステムは、DL=深層学習である。教授は、DLとは「深い評価関数を使った最小二乗法」だと言われる。
DLで急速に進歩したのが画像認識だ。今までもロボットが部品をつまむPickingをしてきたが汎用ではなかった。マシンがDLのおかげで初めて目を持ったと教授は言われる。「認識」の仕事が初めて人間から離れ、農業、建設、食品加工、組み立てなどにロボットが進出するようになる。家庭では調理ロボットや片付けロボットが使えるようになるだろうと。
地球史上5.4億年前から数千万年間のCambria紀に、生物が爆発的に多様化した原因は、目を得たからだという学説が有力だそうだ。同様に今まさに目を得たマシンが社会のあらゆる局面に関わり爆発的に多様化するという。そこで日本が主導権を握れるか否かで将来の国の豊かさが決まるのに、米中欧に対して日本は後手に回っている。教授はDL人材を養成し、個人と企業を支援するために、日本ディープラーニング協会を昨年立ち上げて、人材育成のための検定を行っている。DLの基礎的な理解を基に実ビジネスに活かすジェネラリスト人材のG検定と、DLを実装する能力を持つエンジニア人材のE検定で、昨年は2千人受験して8百人合格したそうだ。
最後に教授は、知能的な仕事すらマシンが実行できるようになった時、「知能以外の人間とは何か」を問う必要があると言われた。@長い年月を経て進化してきた人間性は変わらない。A感情・本能は、生存確率の向上という進化的な原因がある(と思われる)。B特に人間は、「集団で敵と戦う」ことを専らの競争力にしてきた。Cだから仲間を助ける。ルールを破った味方に制裁を加える。こういう人間性が益々大事になるから、人文社会的学問が改めて重要になると主張された。
予想しなかったご説明のおかげで、望外の頭の整理ができた。 以上