カテゴリー

  • 日記・コラム・つぶやき
  • 経済・政治・国際

« 概況、人工知能の発達に対応する医学教育-第50回日本医学教育学プレコングレス--感性的研究生活(106) | トップページ | 補足資料1(代表的なAIシステム)、「AIへの基本的理解」-第50回日本医学教育学プレコングレス--感性的研究生活(108) »

飯箸泰宏、「AIへの基本的理解」-第50回日本医学教育学プレコングレス--感性的研究生活(107)

2018/08/05

飯箸泰宏、「AIへの基本的理解」-第50回日本医学教育学プレコングレス--感性的研究生活(107)

ミニシリーズ「第50回日本医学教育学プレコングレス」
-------------------------
1. 概況、人工知能の発達に対応する医学教育-第50回日本医学教育学プレコングレス
2. 飯箸泰宏、「AIへの基本的理解」-第50回日本医学教育学プレコングレス
3. 補足資料1(代表的なAIシステム)、「AIへの基本的理解」-第50回日本医学教育学プレコングレス
4. 補足資料2(これからのAIシステム)、「AIへの基本的理解」-第50回日本医学教育学プレコングレス
5. 補足資料3(これからの医学教育など)、「AIへの基本的理解」-第50回日本医学教育学プレコングレス
6. 事前討議①(AI診断は始まっている)-第50回日本医学教育学プレコングレス
7. 事前討議②(資料の事前公開)-第50回日本医学教育学プレコングレス
8. グループ討議(1)(医学教育のミニマムリクワイアメント)-第50回日本医学教育学プレコングレス
9. グループ討議(2)(教える内容の再吟味)-第50回日本医学教育学プレコングレス
10. グループ討議(3)(AIは因果関係を理解するか)-第50回日本医学教育学プレコングレス
11.グループ討議(4)(総務省の認識、AI人材教育論)-第50回日本医学教育学プレコングレス
12. グループ討議(5)(試験は変わるか)-第50回日本医学教育学プレコングレス
13. 場外討議[1](現時点のAI研究の重大課題)-第50回日本医学教育学プレコングレス
14. 番外編①(国家戦略としてのAI人材育成)-第50回日本医学教育学プレコングレス
15. 番外編②(脳科学とAIは共進化する)-第50回日本医学教育学プレコングレス
16. 番外編③(薬の飲み合わせに伴う副作用を自動予測)-第50回日本医学教育学プレコングレス
17. 番外編④(非接触型バイタルセンシング)-第50回日本医学教育学プレコングレス
18. 番外編⑤(なくなる仕事は作業だけで創造的な仕事はなくならないか)-第50回日本医学教育学プレコングレス
19. 番外編⑥(AI医療支援と事例ベース推論)-第50回日本医学教育学プレコングレス
20. 番外編⑦(AIはヒトに代わって決断するか)-第50回日本医学教育学プレコングレス
-------------------------


2. 飯箸泰宏、「AIへの基本的理解」(実況中継 風)
 
No.01 AIへの基本的理解--人工知能はお友達
1
<クリックすると画像が拡大します>

ただいまご紹介いただきました飯箸泰宏と申します。
高橋雄三先生からいただいたお題「AIへの基本的理解」についてお話いたします。
私は、長く大学等で教員をしておりましたが、医学の世界の人間ではありません。今回は人工知能の技術側の人間としてお話しさせていただきます。

No.02 自己紹介
2
<クリックすると画像が拡大します>

私のプロフィールは画面の通りですが、時間の関係で詳しくは申し上げません。お手元の印作物でご覧ください(FBの皆様は、この画面でご確認ください)。

No.03 本日の要点
3
<クリックすると画像が拡大します>

これは本日のお話の目次です。
本日は、このような内容のお話をさせていただきます。

No.04 人工知能(AI )はもう来ている
4
<クリックすると画像が拡大します>

AIは架空の話だとか、まだ遠い話と思っている方は、もういないと思いますが、最初に、AIはもう来ているというお話をさせていただきます。
ここに取り上げたものはいずれもマスコミに取り上げられた情報ばかりです。
全てをお話しする余裕はありませんので、かいつまんでお話いたします。
この一覧の一番下にある「7. 東京大学医学研究所付属病院・・・」をご覧ください。人間の医師が診断しあぐねていた症例で、Watoson(IBMが提供する事例ベース推論をベースにしたスマートスピーカーの一種)がわずか10分で膨大な論文の中から該当するレアな病気の報文を見つけ出して治療に役立てることができたという事例です。この話題は大変有名になりましたので皆さんも覚えていらっしゃるかもしれませんが、このニューズが流れたのは2016年8月のことです。すでに2年前のことです。私たちはとっくの昔にAIに支援される医療の時代に入っていることを意味しています。
また、この一覧の一番上にある「1. 医学界が震撼。がんや脳梗塞を・・・」をご覧ください。これはアメリカのケースについての2日ほど前のニュースですが、皮膚がんの場合人が皮膚の文様のパターンを観察して皮膚がんであることを見抜く確率は85%程度、AIは92%と人をはるかに超える成績を上げることができました。急性期脳梗塞の場合は、医師の手元に画像データが届いてまちがいなく急性期脳梗塞であると判定して、手術を行うチームにオペ開始命令が下るまでにこれまではおよそ60分を要していたそうです。これはアメリカの場合ということで、日本ではもう少し早いのではないかとは思います。一方、このような場合にAIを組み込んだシステムを利用すると、画像をそのシステムに食わせるてからわずかに6分後にはオペ開始命令がチームメンバー各自の携帯に届くようになっているそうです。急性期脳梗塞の場合、1分遅れるごとに190万にも脳細胞が死んでしまうそうですから、60分が6分になるということの意義が極めて高いことになります。
皮膚がん、急性期脳梗塞、いずれのシステムもアメリカの州立医療機関の幾つかに導入されることがすでに決定されているそうです。これらはアメリカの例ですが、アメリカで実用になれば、間もなく日本にも入ってくることになります。
AIはすでに私たちのところに来ているといってよいのではないでしょうか。

No.05 AI(Artificial Intelligence)の確執(と歴史)
5
<クリックすると画像が拡大します>

このスライドは、AIがどのように発達してきたのかを示す一覧です。
第一次ブーム「推論と探索の時代」(1956年からの約10年)
第二次ブーム「知識の時代」(1976年からの約10年)
第三次ブーム「知識獲得の時代」(2016年から)
ブームとブームの間には長い冬の時代がありますが、予算がほぼなくなってしまったそんな時でも研究者はAIに関する要素技術を次々に生み出していました。それらの発展が次のブームの原動力になってきたのです。
その陰では、とくにジョン・マッカーシーとマービン・ミンスキーの熾烈な論争が人工知能研究を発展させたともいえる状況がありました。誰か、このテーマで映画を作ってくれたら最高傑作が作れると思います。

★場外コメント 田村 耕一
 医療関係だと画像解析関連はAIは相当役に立ちそうですね!

No.06-1 人工知能システムの基本形(1 ダメな図)
61_2
<クリックすると画像が拡大します>

先の表の概要を図にしたものがこちらです。
(1)推論と探索の時代
右に立っている人間がデータ(前提条件)を直接投入したり、別途集約したデータ(前提条件)を投入すると、論理的な推論または常識的な推論を行って結論を導き、左にいる人や機械に伝えるという図になっています。
この仕組みでも歴史的な成果は幾つか出ています。しかし、いかにもロジカルで厳密な推論を進めればよいように見えて、現実に愚鈍な機械でしかないコンピュータにやらせようとすると、それほど単純でないことが分かりました。人が論理推論を行う際には、実は膨大な "常識" が活用されており、論理推論というよりは常識推論に近いものであることが認識されるようになりました。論理推論だけに推論を委ねるととんでもない遠回りをしたり、選択肢が発散してしまうなどの困難に遭遇したのです。
その結果、AIをそれ以上に進めるとすれば、ヒトが持つ膨大な知識をコンピュータに入れておく必要があると考えられるようになりました。一方、そのような記憶容量は当時世界中の計算機を全部集めてもとても足りないことが、計算上明らかになり、AIの第一次ブームは急速に冷え込んでゆくのです。
(2)知識の時代
その後、コンピュータの記憶容量も増え、大量のデータを追加検索改変削除が容易にできるシステムであるデータベースも登場しました。したがって、第一次フームであきらめた膨大な人間的な知識を計算機内に格納して、その知識を自在に探索する仕組みも作られるようになりました。知識のデータベースを「知識ベース」、その知識を探索する仕組みを「推論エンジン」と呼ぶことになったのです。この時代はどのような知識ぺースを作るのが良いのか、効率のよい推論エンジンはどうすればできるのかという「知識工学」が花開いた時期に当たります。
私が、この時代のほんの一瞬、世界の先頭を走ることができたという事実が本日私がここに立っている理由だろうと思います。日本の権威ある御用学者と大手メーカーは第一次ブームの世界に浸りきっており、世界の知識工学に背を向けていました。世界を席巻した第二次ブームの先頭を走ったのは私のようなアングラ技術者でした。
私が事実上のプロジェクトリーダとして完成させたフレーム型の実用システムは、約1万の「データフレーム」と6千枚以上の「論理フレーム」からできていました。1枚のフレームには1つ以上30程度までの数字や記号、数式、論理式が書かれています。ナレッジエンジニアを志した人ならばお分かりになるでしょうが、これらを矛盾なく設計して書き表し切るというのは、人間業ではないものがあります。紙の原稿をもとにデータエントリをする人はいても、だれか一人の人間がすべてのデータと論理の隅々までをすべて脳内において、矛盾していないことを確認し、万一矛盾する箇所があれば、どのような対策するのがベストかを瞬時に判定できなければなりません。この仕事は私と私が現場に連れて行った一人の部下の二人がやり切りました。あと1割データ規模が大きかったら、もはや破綻が確実と思われたギリギリ状況でした。
そうです。第二次ブームは先頭を走った私たちがいち早く気づいたように知識データの獲得が人間業では今後はほぼ無理という限界があったのです。第二次ブームは急速に冷え込んでしまいました。
知識データの自動獲得の仕組みがのどから手が出るほど欲しかったのです。
(3)知識獲得の時代
ご存知のようにディープラーニング(ニューラルネットワークの一種)が第三次ブームをけん引しています。
そこで、日本ではディープラーニングだけが「新しい人工知能」で、あとは古い人工知能だというトンデモ理論が流布しています。某東大准教授とマスコミがその元凶のようにも感じますが、おそらく真相は第二次ブームの「知識ベース」&「推論エンジン」を全く理解しなかった日本の偉いえらい御用学者の皆さんが、第一次ブームの「論理推論」を「ディープラーニング」に取り換えれば委員だと思っていることが背景にあるのではないかと思います。これは、まったくの時代錯誤、間違った科学観です。

No.06-2 人工知能システムの基本形(2 正しい図)
6
<クリックすると画像が拡大します>

日本の貧困なAI状況とは違って、アメリカ、中国、フィンランドなどの諸外国は、第三次ブームを上図のようにとらえています。
代位次ブーム時代の成果も第二次ブーム時代の成果もすべて現代に生かしてここにディープラーニングを付け加えるという考えです。つまり第二次ブームの知識獲得部の部分をすべて人間に押し付けるのではなく、可能な部分はディープラーニングに代替させるという考え方でできているのです。知識獲得部のすべてをディープラーニングに置き換えることは不可能なので人がやる部分ももちろん残ります。
したがって、外国から日本に押し寄せて来る人工知能システムはほぼすべて複合システムになっています。
先に触れたWatsonは事例ベース推論の仕組みでしたが、これに最近になってディープラーニングを取り入れて、複合システムとなりました。
アルファ碁やアルファゼロはモンテカルロ法推論システムにディープラーニングの機能を追加したものになっています。
日本の東大ロボプロジェクトは、御用学者にからめとられて人工知能の素人である女性研究者が第一次ブーム時代((1)推論と探索の時代)の枠組みのまま、突撃しました。同時期に大学受験システムに取り組んでいた中国チームは当然こちらの複合システムです。東大ロボの女性リーダは「AIは文意を理解できないからプロジェクトが失敗した」などという言い訳をしていましたが、中国チームは文意を理解して中国国内の難関大学のテストに堂々合格の成果を出しています。日本は何と情けないのでしょうか。
日本も世界に並ぶために過去のすべて要素技術の成果とディープラーニングの複合系に取り組むべきです。

No.07 知識表現
7
<クリックすると画像が拡大します>

御用学者の皆さんの頭に入っていない「知識ベース」について簡単にご説明いたします。
知識ベースに格納される知識がどのような形で格納されるかを見てみましょう。
知識の形は、「知識表現」と呼ばれます。「知識表現」の最も典型的なものは、次の3つです。
1. プロダクションルール
2. フレーム表現
3. 意味ネットワーク
典型的な3つの知識表現のバリエーションはたくさんありますし、その3つに当てはまらない知識表現もありますから1000以上はあるでしょう。それらの間のハイブリッドもありますので、全部を取り上げると万余にも及ぶと思います。しかし、一番重要なのは3つです。
人が最も強く意識する知識の構造そのものだからです。
まず第一に、「~の場合は~~をする」という知識です。
第二に、それ以外には個別の知識(単位知識)とその上位概念(抽象化概念)、その上位概念のさらに上位の概念(さらに抽象化された概念)という人の知識の構造です。これは上位概念に上るということは抽象化を勧めることであり、下位概念に降りてゆくということは具象化してゆくことになります。抽象化・具象化のつながりは、原則として例外を許さない固い関係です。これをメタ関係と言います。
第三に、上位・下位概念(メタ関係)という固い関係を離れて、単位知識同士が自由に結びつく関係があります。連想関係と言ってもよいでしょう。これは、知識が構造化されて固定化されることを防ぐ意義もあるものです。単位知識が直属の上位概念とは無関係に別の上位概念との結びつくこともあります。上位概念が別の上位概念と結びつくこともできます。この関係はネットワーク関係と言います。
現実の人間の知識は、メタ関係をたて糸、ネットワークが横糸のように結び付けられているということができます。
1. プロダクションルール
 「もし、~ならば、~~」の集合で記述するものです。
2. フレーム表現
 知識のメタ関係を知識表現したものです。
3. 意味ネットワーク
 知識のネットワークを知識表現したものです。
ユニット表現など、もう少し原始的な知識表現もありますが、今回は省きます。
これらの表現形式で知識がデータベースに格納されたものが「知識ベース」というわけです。

No.08 AI はアルゴリズムの一種
8
<クリックすると画像が拡大します>

さて、それでは、知識ベースとセットになっている「推論エンジン」にはどのようなプログラムが入っているのでしょうか。
そもそも「推論エンジン」は、知識ベースの膨大な知識の中を探索するプログラムの集まりからできています。与えられた条件を満たす知識を検索すること、見つかった知識を解釈して次の知識の探索に進むことができます。見つける知識によってはその知識に応じて演算(解析的演算、数値演算、論理演算、ファジイ演算など)したり、演算した結果をもとに見つけられた知識に照らして次に必要な知識の探索に向かったりもできます。
さて、コンピュータにはAIが誕生する以前から「アルゴリズム」という考え方が存在しています。医療の世界にも「アルゴリズム」という言葉がありますが、診断や治療行為の手順・段取りという意味で使われていると思います。基本的には同じ意味ですが、コンピュータの世界でコンビュータにさせる仕事の手順・段取りと言う意味になります。
コンピュータはなにがしかの問題がある場合にその解を得るために働かされるものですが、解析的な解が得られる問題は「解析的な解」が得られるように代数学的な手順がアルゴリズムとして使われます。代数学的な手順が困難な場合(例えば宇宙の時間より長い時間を要する場合など)は、数値計算の手順がアルゴリズムとして採用されます。これは近似解の精度を順次高めて誤差の範囲で厳密解と同等の解を得ようというものです。いずれも厳密解を希求して最適な最速アルゴリズムを構築しようとシステム技術者は悪戦苦闘する世界です。
今でも、私たちシステム技術者は毎日厳密解を希求して最適な最速アルゴリズムを作り出す仕事をしています。
人工知能では、その「厳密解」をハナから諦めて、「厳密解とは言えないが、実用上支障のない解」を求めることにしたのです。実は人工知能は「ヒトのように考える機械」を作ろうとして始まったもの(と言われている)です。解析的手法でも数値計算によっても結果を得るまでに膨大な時間とエネルギーが必要なものでも、ヒトはあっさりと勘と度胸で「まぁ、これやっときゃ、問題ないよ」という結論を出すことが可能です。これを真似ようとしたところから人工知能は始まりました。
勘と度胸が嫌いな方もこの会場にはたくさんいらっしゃるでしょうが、専門家と言われる方、人生の先達の方々の勘と度胸は侮りがたいものがあります。例えばビジネスの場面では「セールスマン巡回問題」のような問題がたくさんあります。「セールスマン巡回問題」とは、例を挙げると次のようなものです。あるセールスマンが全世界の主要250都市を2年かけて訪問して、各地に支店開設のための調印を行う計画を立てることになったとしましょう。最適パス(最適な順路)を求めなければなりません。考えられるパスをすべての網羅すると250×249×248×・・・×1つまり250の階乗(250!)通りあります。それぞの経路の長さ(場合によっては移動手段、時間、経費も)を計算して、最小時間経路または最小経費経路を求めなければなりません。これは膨大な計算量です。電卓では一生かけてもできないでしょう。しかし、ベテランのセールスマンは、いとも簡単にその経路を書き出して、巡回の旅に出てゆきます。彼は何をしたのかと言えば、彼の経験に基づいて実に簡単なルールでその順路を決定しているのです。「次の訪問先は、すでに行った訪問先は除外して、残りの訪問先のうち現在いる地点から一番近い場所にする(または最も安い経費で行ける場所にする)」というルールです。このルールで選ばれた経路は厳密解では決してありませんが、250! 通りもある経路の候補の中では厳密解にかなり近い解になっているのです。実用的には全く問題がありません。ほかにも経験的に知られているアルゴリズムにはモンテカルロ法や事例ベース法など多数があります。このような解の求め方(アルゴリズム)を、常識推論、ヒューリスティックス、経験的解法、自然解法などと呼びます。この種のアルゴリズムをコンピュータアルゴリズムとして容認したものが人工知能なのです。なぜって? 人工知能はヒトのように考える機械だからです。
厳密解アルゴリズムと人工知能アルゴリズムを一覧にしたものを図にして示します。
「問題解決システム」や「環境理解システム」に当てはまるものだけが人工知能だとおっしゃる方もいますので、一応、これらを取り上げて狭義の人工知能とここでは呼んでいます。しかし、この表の右端に例として書かれているような人工知能の要素技術を単独で使用するシステムや、全自動自動運転車両のように「環境理解システム」であって「問題解決システム」であるような複合系もたくさんありますから、その他の人工知能もたくさんあるということになります。今は、むしろその他の人工知能がどんどん大きく膨らんでいる状態と思います。
狭義の人工知能とその他の人工知能を合わせて広義の人工知能ととらえて私はこれを単に「AI」または「人工知能」ということにしています。
実際に、人工知能システムの「検索エンジン」には、これら常識推論、ヒューリスティックス、経験的解法、自然解法などのアルゴリズムがたっぷりと仕込まれていることになります。

No.09 特徴表現の機械学習理論の例
9
<クリックすると画像が拡大します>

さて、知識ベースや推論エンジンは第二次ブーム時代から引き継いだものですが、第三次ブームの主役に躍り出たものが「ディープラーニング」です。「ディープラーニング」とは、「ニューラルネットワーク」というAIの要素技術の一つである特定のモデルを指しています。
その昔、AIが始まる前、第二次大戦のさなかの1943年に発表された形式ニューロンモデルにヒントを得て、第一次ブームの最中の1957年心理学者・計算機科学者のフランク・ローゼンブラットが考案します。これを「単純パーセプトロン」と呼ぶ場合があります。
第一次ブームが去ったAI冬の時代(第一期)のころ脳はパーセプトロンの連合体によってできているという仮説がにわかに広まり、その仮説に沿ったニューラルネットワークという仕組みが盛んに研究され作られるようになりました。
パーセプトロンのモデル図がスライドの左上に書かれていますが、左から複数の電気的刺激が真ん中の丸いセルにやってきます。刺激の総和がある閾値を超えると右に出力します(これを「発火する」という)が、閾値に達しなければ何も出力しないというものです。大きな期待が膨らみましたが、人工知能の巨匠マービンミンスキーが単純パーセプトロンは線形分離不可能なパターンを識別できない事を示して、第一次ブームは去ってしまいます。
その後、発火確率が閾値近傍で少し緩慢に変化するように変形したモデルが登場して線形分離不可能なパターンでも識別できるようになりました。新しいモデルの典型的な例がパーセプトロンの図にすぐ下に書かれたシグモイドニューロンモデルです。発火の様子を示す図が矩形ではなく曲線になっています。ここに採用されている曲線はシグモイド関数によるものなのでシグモイドニューロンモデルと呼ばれるものです。採用される曲線にはシグモイド関数以外のものもたくさんあります。
この新しいニューロンモデルを基にしたニューロン連合体のモデルが「多層ニューロンモデル」または「(例えばシグモイド関数が使われている場合は)多層シグモイドニューロン」などと呼ばれるものになります。"多層化されている" ところが強調される際に「ディープラーニング」という言葉が使われます。
「多層ニューロンモデル」すなわち「ディープラーニングシステム」を使って、ニューラルネットワークがどのようにコトやモノを識別するのかを説明します。
「ディープラーニングシステム」は学習するステージとその結果を活用するステージがあります。その結果を活用するステージはあっという間に完了してしまいますが、そのための事前準備にあたる学習するステージはそれほど簡単ではありません。
「多層シグモイドニューロンモデル」をご覧ください。
①もっとも原始的な方法
もっとも原始的な方法では、適当な重みwiとバイアスbを与えて、初期出力を得ます。初期出力と教師データとの差異を減らすように重みwiとバイアスbを少しずつ変化させて、収束するまで計算を繰り返します。一つのニューロンに対する複数の入力、バイアス値を少し変えてみては差異が縮まるか拡大するかで、値を大きくしたり小さくしたりしてゆきます。これをニューロン1個ずつ、全ての階層のニューロンについて実施しなければなりません。数千回、数万回、数十万回、数百万回、数千万回、数億回、数十億回、、、と計算しないと収束してゆきません。この原始的なやり方では、計算だけでうまくいって数か月、実用的な規模のモデルで計算しようとすると数年、数十年、数百万年を要するということになってしまいます。小さなシステムでは非常に良い成果は得られましたが、実用にはならない・・・と人々はあきらめかけていました。
そこに救世主が出現します。
②勾配降下法を利用する方法
変動の幅を勾配の大きさに連動して決定するもので、収束速度が大幅に向上します。シグモイド曲線をじっくりご覧いただくと、原点付近ではxの小さな変化がyの大きな変化になりますから、細かく計算しないと計算結果としての差異の値の精度が保てません。しかし、x軸に沿って原点から離れた一の曲線を見るとxの値が比較的大きく変化してもyの値はほとんど変化しません。この点に着目すると原点から離れたところの計算の刻みは大雑把で良いことになります。曲線の勾配によって計算刻みの密度を少なくする方法を勾配降下法と言います。
この勾配降下法を利用するとそれ以前の計算法に比べて計算量が半分以下、うまく行けば10分の一程度にはなります。おお幅な改善です。
やれやれ、やったぞと喜びの声が広がりましたが、考えてみると100年かかる計算が高々数十年に圧縮されるだけです。数千年かかりそうだった計算はやはりあきらめるしかありません。
③逆伝播法(バックプロパゲーション)
以前から特に数学者の皆さんからは逆伝搬法を用いるべきではないかとの指摘がありましたが、研究のために実験的にやってみる方はいたものの実用規模のシステムに応用されたのはごく最近のことです。
これは、まず1回だけ予備計算(初期計算)を行います。各ニューロンには重みwiとバイアスbを適当に(例えば全部0.5としておく)設定します。左側からは入力データ(訓練データ)を加えて一度左から右に順次計算して右端で結果を得ておきます。この結果のことを「初期出力」と言います。「初期出力」は期待される結果(教師データ)とはかなり違った値になっているはずです。
逆伝搬法(誤差逆伝搬法)では、初期出力と教師データとの差異を最小化するように出力側(図の右側)からひとつ前の層のニューロンの重みwiとバイアスbに補正を加え、その結果を基にさらにその前の層のニューロンの重みwiとバイアスbを補正してゆく方法です。補正は一番左の入力層まで繰り返されます。補正の計算においては前項で説明した勾配降下法が用いられます。この方法の優れた点は、初期計算以外には逆伝播計算が1度しか必要でないことです。次には前回補正された重みwiとバイアスbを元にして新たな入力データ(訓練データ)セットを与えます。同様に右端まで計算したら結果が得られます。この結果はおそらく前回よりも教師データにより近い結果になっているはずですが、まだ差異はあります。この差異を小さくするためにまた逆伝番計算を行います。これを繰り返すことが学習のステージです。これで、計算の回数は大変少なくて済むようになりました。原始的な方法に比べれば、数千分の一、数万分の一、、、になるはずです。
このことによって、ディープラーニングの学習ステージが何年も何十年も何百年もかかるようなものではなく、数分、数時間、数日、数か月というオーダーで完了できるようになったのです。ヒトは12年でほぼ一人前になりますが、これよりも短い学習期間ならば許容できます。こうしてディープラーニングはついに実用の世界に突入することができるようになったのです。
アルファ碁・アルファゼロの快進撃がその象徴となりました。

[飯箸からのお詫びとお願い]
実際のスピーチの中では、このスライドの説明は時間がないので割愛しました。「このスライドは昨年も使用して説明していますから割愛させていただきます」としました。しかし、よく考えたら、高橋優三先生がいらした別のフォーラムで使用したもので、医学教育学会では初めてだったことに翌日になって気づきましたが、後の祭りでした。ご参加の皆さん、申し訳ありませんでした。ここにあらためて説明を書かせていただきましたので、お読みいただければ幸いです。

No.10 脳神経系と人工知能(仮説)
10
<クリックすると画像が拡大します>

さて、AI=人工知能は、大発展中で、一見ものすごいことになってきているのですが、実はまだあまりものすごいことになっていないというお話を最後にさせていただきます。
人工知能の発達を人の脳機能と重ねてみたいと思います。

(1)第一次ブーム(推論と探索の時代)
推論と探索の機能は脳のどこでおこなわれているかと言いますと、前頭葉の後ろ半分「運動野」と言われる部分です。もう少し詳しく見るとこの機能はヒトの戦略戦術の機能と重なっており、各要素戦術と各種戦略が矛盾なく制御されるためには「頭頂葉」の働きが必要ということがわかっています。
第一次ブーム時代の「推論と探索」は、「運動野」と「頭頂葉」の協調動作の一部を真似たものであることが分かります(全部ではありませんからまだまねしがいのある情報がたくさん詰まっているはずです)。
(2)第二次ブーム(知識の時代)
第一次ブームの反省として、ヒトが考えるということには膨大な経験的知識のバックボーンが必要ということがありました。人は経験的知識を主として「側頭葉」に格納しています。「側頭葉」に格納されているのは単位知識で、単位知識のメタ関係やネットワーク関係などを管理しているのは「頭頂葉」です。つまり、ヒトの知識は「側頭葉」と「頭頂葉」によって保たれていることになります。
第二次ブームの「知識」の取り扱い方(知識工学)は、ヒトの「側頭葉」と「頭頂葉」の協調動作の一部を真似たものということになります(全部ではありませんからまだ真似しがいのある情報がたくさん詰まっているはずです)。
(3)第三次ブーム(ディープラーニング)
パーセプトロンの基になった形式ニューロンというモデルは、そもそも思弁的な成果物で、現実をどこまで反映しているのか判然としていません。パーセプトロンに至ってはさらに現実というよりは思弁的な成果物で、「実際の脳の活動のモデル」とはかなり離れた存在である危険性があります。しかし、どう見ても反射神経の動作を再現しそうなモデルであることから、私はこれをおそらく小脳の神経細胞のモデルに違いないと推測しています。
実際問題として、私が見るところでは、ディープラーニングで実現しているのは小脳と後頭葉の動作に強く類似しているので、勝手ながら第三次ブームのディープラーニングは、「小脳」と「後頭葉」に共通する機能の一部を真似たものであるとしておきます(全部ではありませんからまだ真似しがいのある情報がたくさん詰まっているはずです。特に小脳は今まで思われいたほど単純な器官ではなく、精神活動において極めて複雑な役割を担っているらしいことが近年分かり始めています)。
小脳と後頭葉だけでは人は知性を保つことができません。日本の御用学者が大脳の大半を欠落させた小脳人間になってしまっていることを強く嘆くものです。

こうして脳の各部分の機能の一部ずつをつまみ食い的に真似て実現してきたのがAIの発展というものであると思われます。
いま、こうして、この図を見てみると全くの未開拓の分野があることに気づくと思われます。「前頭前野部(前頭葉の前半分)」と「脳幹(中脳+橋+延髄)」です。図ではグレーの網をかけてあります。脳幹には間脳も含めることがありますが、この図では省いています。
これらはいずれも人が生存してゆくのに一番関係の深い部分です。たとえば深い心の傷と言われるものは、この延髄が傷ついていることを意味することが最近はわかってきました。例えば、戦場で受けた、生死にかかわる恐怖の体験が延髄を傷つけるのです。また、内臓に異常が生ずると延髄がこれを真っ先にとらえて変調を大脳に伝えます。前頭前野部は、この脳幹部分(中脳+橋+延髄)の上方すぐ先に位置していて、脳幹と密接に関連して動作しています。生きる意欲や行動目標形成に大きな働きをしています。人が生きてゆくうえで最上位のセンター指令室となっています。具体的には大脳の各部位に対する指令を絶え間なく発しているのです。
この空白地帯の機能をコンピュータのプログラムにすることができれば、その瞬間からAIは「自意識」を持つことになるはずです。
これまでの人工知能はまだ「自意識」を持っていません。つまり、心のない知識処理マシンです。知識処理マシンとしては大きく発展してきたことは「すご~い」ことですが、心をとらえていないという意味で、今のAIはまだ少しも「すごくな~い」のです。
しかし、脳科学は前頭前野の働きも脳幹(中脳+橋+延髄)の各部位の働きも少しずつ解明しています。やがてはこれらの機能を真似たAIが登場するでしょう。それもそれほど遠い将来ではないと思います。もう、どこかの研究室ではその初期のものが生まれているかもしれません。実用になるには30年かかるとしても、10年もしたら社会問題にはなっているかもしれません。
私からは、人工知能はかなり進化してすごいことになっているというお話と、まだ実はちっともすごくないというお話をさせていただいて、お話の終わりとさせていただきます。

★場外コメント Teruyuki 輝行 Yanagisawa 柳澤
  学ばせていただき、ありがとうございます。大脳皮質の表面から見えないのですが、基底
  核や旧皮質が絡む「情動の大脳辺縁系」もまた手つかずではないでしょうか。学生講義
  に用いている「人間の脳の見方」を掲げます。
  10_2
  <クリックすると画像が拡大します>

  飯箸 泰宏
  ご指摘ありがとうございます。おっしゃる通りです。
  人工知能はまだまだですね。

No.11 まとめ
11
<クリックすると画像が拡大します>

このスライドは蛇足です。
1. 「人工知能」はデーブラーニングに限定されない。
2. 現在のAIの発展はすごい、しかし、発展の余地は大いにある。
と最後にまとめておきます。

No.12 ご清聴ありがとうございました。
12
<クリックすると画像が拡大します>

ご清聴ありがとうございました。

No.13 補足資料の紹介
13
<クリックすると画像が拡大します>

続く補足資料は上記スライドのようになっています。
補足資料については、次ページ以降に別途投稿する予定です。

<次の記事に続く>

△次の記事: 感性的研究生活(108)
http://shyosei.cocolog-nifty.com/shyoseilog/2018/08/1ai-50--108-158.html
▽前の記事: 感性的研究生活(106)
http://shyosei.cocolog-nifty.com/shyoseilog/2018/08/50--106-f972.html

琵琶

(補1)「鐘の声 ブログ」はリンクフリーです。ただし、「鐘の声 ブログ」の記事の一部または全部を引用または翻案して、公的に発言または発表される場合は、事前にメール等でお知らせください。[→連絡先]
(補2)この記事が含まれるシリーズの記事の一覧は下記(別サイト)のとおりです。
  感性的研究生活シリーズの記事一覧 (GO!)
(補3)ブログ「鐘の声」には、10個ほどのシリーズとシリーズ以外の一般記事があります。シリーズの全体構成やシリーズ別の記事一覧は下記(別サイト)にあります。
  ☆「鐘の声」の全体構成(「鐘の声 ブログ」記事マップ)☆ (GO!)

« 概況、人工知能の発達に対応する医学教育-第50回日本医学教育学プレコングレス--感性的研究生活(106) | トップページ | 補足資料1(代表的なAIシステム)、「AIへの基本的理解」-第50回日本医学教育学プレコングレス--感性的研究生活(108) »

「日記・コラム・つぶやき」カテゴリの記事

コメント

コメントを書く

コメントは記事投稿者が公開するまで表示されません。

(ウェブ上には掲載しません)

トラックバック

この記事のトラックバックURL:
http://app.cocolog-nifty.com/t/trackback/73834/67023395

(トラックバックは記事投稿者が公開するまで表示されません。)

この記事へのトラックバック一覧です: 飯箸泰宏、「AIへの基本的理解」-第50回日本医学教育学プレコングレス--感性的研究生活(107):

« 概況、人工知能の発達に対応する医学教育-第50回日本医学教育学プレコングレス--感性的研究生活(106) | トップページ | 補足資料1(代表的なAIシステム)、「AIへの基本的理解」-第50回日本医学教育学プレコングレス--感性的研究生活(108) »

2018年8月
      1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31