人工知能(AI)というキーワードを日々の生活の中で、頻繁に聞くようになった。将棋、自動運転、チャット、ロボットなど多くのシーンで利用されている。 これだけ人工知能(AI)が発展し身近で利用されるようになっているが、人工知能(AI)の研究はまだまだ発展途上といってよいだろう。これからもっと多くの人たちが研究開発を進めていくことで、より高度な人工知能(AI)が生まれてくるはずである。
現時点では人間と同レベルの学習をおこない、適切な判断をくだす人工知能(AI)はあらわれていない。しかし、特定の分野だけに絞れば人間とほぼ同レベルの能力をもつ人工知能(AI)は存在している。 これらが何を意味するかというと、人工知能(AI)が人間を追い抜くのは時間の問題ということである。何をもって、人間を追い抜いたとするかが議論されるが、子供が成長していくように経験したことから自ら学習し改善を試み、さらに人間と同様に感情を持ち始めたら、人間を追い抜いたとしてもよいのではないだろうか。
コンピュータの処理速度は日進月歩で高速化され、扱うデータ量も膨大になっている。このようなコンピュータが、人間と同様の能力を手に入れたとき、コンピュータは人間を超えたといってもよいだろう。
人工知能(AI)については、弊社でも専門的に扱う技術ではないが、近い将来インターネットやスマートフォンが急速に普及したように、人工知能(AI)がビジネスのベースとなる未来がすぐ近くまで来ていると考えている。 人工知能(AI)が発展する時代に備え、ITに従事する人は人工知能(AI)に関する技術力を少しでも身につけ、そうでない人は少しでも人工知能(AI)について理解しておいても損はないはずである。
1.人工知能(AI)とは
人工知能(Artifical Intelligence)という言葉を聞くと、以前から聞いたことがある人が多いのではないだろうか。 しかし明確に何を表すものなのか、具体的にどのようなものか、詳しくイメージできないのではないだろうか。
1.1. 人工知能(AI)の定義
人工知能(AI)は、まだ一般的に明確な定義は存在していない。
人工知能(AI)は簡単にいえば「人間のように考え、推測して判断することができるコンピュータ」のことを指している。これだけを聞くと、ほぼ人間と同様な知能をもったものとおもいがちだが、人間の知能に似せたもの、これも人工知能(AI)に含まれる。そもそも、人間の知能や知性についても定義がないので、あやふやであるが。
例えば、オセロゲームの対戦相手(Computer)である。これも人工知能(AI)である。あたかも、画面の向こう側で人間(Player)が思考しているかのうようにオセロをプレイするのである。
もちろんこのような人工知能(AI)には「学習して強くなる」といった機能はないが、状況に応じてある一定の手をうつことができる。
これは「Computer」用の専用プログラムが組み込まれており、「特定の条件がそろった場合には、〇〇に置く。」などの条件分岐が事前にプログラミングされていのだ。
これも列記として人工知能(AI)に分類されるのである。
1.2. 強いAIと弱いAI
人工知能(AI)には「強いAI」と「弱いAI」がある。現在世間一般的に広まっている人工知能(AI)と呼ばれるものは、「弱いAI」に分類される。「強いAI」は世界でまだ誕生していないのだ。
「弱いAI」は、特定の分野にだけ秀でた人工知能(AI)のことを指している。 例えば、将棋をおこなう人工知能(AI)である。完全に人間を追い抜いているわけではないが、一般の人よりもレベルが高いといえるだろう。 しかし、プログラムされたこと以外のことはしない。人間のように幅広い知識を持ち合わせたり、自意識を持つことはないのだ。 このため「弱いAI」とよばれている。
一方「強いAI」は人間に迫る知識を持ち、自ら考え行動するような人工知能(AI)を「強いAI」という。この人工知能(AI)は人間のように推論し、価値を見極め、判断し行動する。 残念ながら現時点ではこのような人工知能(AI)は誕生していない。
現時点では、一見複雑におもえることは、「弱いAI」として実現できているが、雑談話や人間の何気ない行動のように、気まぐれととれるようなことは実現できていない。 人間のような「ゆらぎ」をもつ答えを導き出すのは、コンピュータにとっては不得意分野である。「ゆらぎ」をより柔軟に表現し、「知能」や「自意識」を持ち始めたとき、「強いAI」が誕生するのかもしれない。
2. 人工知能の歴史
人工知能(AI)は近年になってはじめてブームが起きているわけではない。これまでの歴史の中で2回ほどブームは起きている。どのような経緯を経て現在に至っているか知るためにも、簡単に各人工知能ブームの概要を紹介していく。
2.1. 第1次人工知能ブーム
1940年代前半、人間の頭脳は電気信号と化学変化により動いているということから、デジタル計算機に対して「脳」と呼ぶような記事が見受けられるようになった。
1943年、神経生理学者のウォーレン・マカロック(Warren McCulloch)と数学者のウォルター・ピッツ(Walter Pitts)が、はじめて人工ニューロンについて論文で発表をおこなう。ニューラルネットワークの基礎がすでにこの時点で出来上がっていたのである。
1946年、世界初のコンピュータ(※ENIAC)が登場し、報道ではこれを「巨大頭脳」と称された。
1950年、数学者のクロード・シャノン(Claude Shannon)が、「チェスのためのコンピュータプログラミング」という論文を発表している。
この論文は画期的で、チェスの局面をすべて数値化して、次のもっともよい展開を探索する方法について考察を行っているのだ。
同年コンピュータ科学者のアラン・チューリング(Alan Turing)が考案した、コンピュータに知能があるか診断する「※チューリングテスト」の考案がおこなわれた。
1956年、アメリカのダートマス大学で開かれた、ダートマス会議で初めて「人工知能」という言葉が使われた。
第1次人工知能ブームは、人工知能(AI)にとって「探索・推論の時代」と呼ばれている。
※ENIAC:アメリカで開発された黎明期の電子計算機(コンピュータ)。
参考:ENIACとは(Wikipedia)
※チューリングテスト:ある機械が知的かどうか(人工知能であるかどうか)を判定するためのテスト。
参考:チューリングテストとは(Wikipedia)
2.2. 第2次人工知能ブーム
第1次人工知能ブームでは単純な「推論」をおこなうものが主流であった。その後、1980年代から1990年代半ばは第2次人工知能ブームとされており、より複雑なことがおこなえるようになった。
この時ブームの発端となったのは「※エキスパートシステム」である。人工知能としてより人に近くなるように、「知識」を与えるようにしたのだ。専門家が持つ知識を一つ一つ人工知能に記憶させ、該当する事象から徐々に対象を狭めていき、回答を導き出すといったものであった。 具体的には医療用に感染症を診断して、推奨される薬物療法コースを示すというものだ(※Mycin)。
日本国内でも当時、人工知能(AI)に対する大きな期待が寄せられて「第5世代コンピュータプロジェクト」なるものが発足した。約570億円もの費用がつぎ込まれたのだが、結果的には大きな成果を得ることができなかった。
そもそもとして、「エキスパートシステム」には欠点があった。「知識」は与えられたが、人間が持つような「常識」という概念をもたせることが困難であったのだ。
医療は人の命を救うことが大きな目的になっているが、人工知能は「命を救う」という大前提を理解していない。いわば「常識」がないのである。このような「常識」を「知識」として教え込むには膨大な量があり限界があった。 さらに、当時のコンピュータでは処理能力が低く、高性能で高価なコンピュータが求められコストがかかるといった欠点も露呈したのだ。
このような問題もあり、第2次人工知能ブームも期待には及ばずブームは去っていった。
だが、何も残されなかったわけではない。1980年代は「ニューラルネットワーク」についての概念・手法が提案されていたのである。これが後に第3次人工知能ブームの立役者となる。
※エキスパートシステム:専門的な知識を有し、意思決定するものをさす。
詳細は「3.7. エキスパートシステム」を参照。
※Mycin:伝染性の血液疾患を診断し、対象の抗生物質を推奨するシステム。
参考:Mycinとは(Wikipedia)
2.3. 第3次人工知能ブーム
第2次人工知能ブームでは、人工知能に「知識」を与え、より人間に近くなるようになった。さらに「ニューラルネットワーク」にも注目された。 だが、当時のコンピュータの能力では「ニューラルネットワーク」を完全に再現することが難しく、「入力」「中間」「出力」の3階層程度しか実現できなかった。
では第3次人工知能ブームは何を発端に再燃したのだろうか?
火付け役は「ディープラーニング(深層学習)」が大きく影響している。 この「ディープラーニング(深層学習)」は簡単にいえば「ニューラルネットワーク」の考え方をベースに、深い階層まで入出力を繰り返す仕組みである。 こうすることで、今まで以上に高い精度で学習ができることが判明している。
「ディープラーニング(深層学習)」は2006年にジェフリー・ヒントン(Geoffrey Hinton)教授が論文で発表したことに始まる。ほぼ同様のアイディアは1979年の日本ですでに「ネオコグニトロン(畳み込みニューラルネットワーク)」という形で発表されていた。
では、なぜ注目されたのだろうか?
- 「ディープラーニング(深層学習)」によって得られた画像認識精度が著しく高いことが知れわたったこと。
- 2010年代に入り、インターネットや企業が扱うデータは莫大な量(ビックデータ)となり、人工知能の学習サンプルを容易に手に入れやすくなったこと。
- コンピュータの性能が、第2次人工知能ブーム時より比べ物にならないほど向上していること。
- 今までの機械学習とは異なり、人の手をかえさずに人工知能が勝手に「知識」を蓄えていくこと。
この4つが大きく起因し「ディープラーニング(深層学習)」は大きく脚光を浴びるようになった。
現在、人工知能に関するニュースや記事を日々みかける事が多い。 新しい発見や新しい事ができるようになったニュースをみて、急速に「人工知能」は成長していっているように感じられる。第3次人工知能ブームは、本当の人工知能(AI)誕生に期待してもよいのではないだろうか。
3. 人工知能を支える技術
一言で人工知能といっても、さまざまな情報処理技術の総称が人工知能(AI)とされている。 この中には「機械学習」をはじめとする以下の情報処理技術を含んでいる。ここでは主要な技術を紹介していく。
3.1. 遺伝アルゴリズム
遺伝アルゴリズムは、その名から想像できるように生物の進化の過程を模倣したアルゴリズムである。 生物の進化においては多様な個体の中から、その環境に適した個体が生き残り、次の世代の子孫を残す。 この生き残った個体達は、環境に適した遺伝子を有しており、その子孫も確率的に環境へ適した個体が生成される。 これにより世代を重ねるごとにその種が環境に適していくことになる。
アルゴリズムとしては、自然淘汰の仕組みを真似て、最適解を導く仕組みとなっている。
※アルゴリズム:問題を解決するための方法や手順のこと。
3.2. 音声認識
Siri、Cortana、Google Nowなどの名前を聞いたことはないだろうか。音声アシスタントという、人の音声を認識し会話をおこなうものだ。
音声認識自体は昔から存在はしていたが、正確性は感じられなかった。自分が発した言葉を理解しない場合や誤認識が多かった。
しかし近年、音声認識技術は格段に進歩した。 この進化にはディープラーニングが大きく影響している。音声認識システムに大量の音声データ聴かせて学習させたことによって得られた結果である。これは音声データが増えれば増えるほど、正確性が増していくことを意味している。多くの人が利用していけばいくほど、音声認識システムは認識レベルが向上していくのである。
2016年10月にはMicrosoftが「音声認識システムは、与えられた人間の音声を誤認識率5.9%の制度で認識することが可能」であるといっている。これは人間と同レベル、もしくは上回る制度であるといわれており、音声認識の進歩が著しいことがわかる。
音声認識はスマートフォンやスマートウォッチなどのデバイスに搭載され、より一層活躍の場を広げていくのは間違いないだろう。
3.3. 画像認識
画像認識とは、画像や動画から文字などの特徴を認識して検出するパターン認識技術である。
例えば、ある写真から文字だけを抽出して、テキストにしたり、動画からは人間なのか、それとも単なる建築物なのかを見分けたりする。 この画像認識技術は、Webなどで多く利用されているイメージだが、車の自動運転技術やロボットなどにも利用されている。
中でも自動運転は多くの技術により支えられており、リアルタイムで道路の状況を把握している必要がある。そこで眼の役割を果たすのが、画像認識技術である。 信号機を確認したり、交差点を渡る人や障害物を認識する。状況に応じて適した運転を行うのために必要となる。
3.4. 感性処理
人工知能(AI)はいってみれば単なるプログラムであり、コンピュータである。コンピュータは感性・感情は持ち合わせないと、世間一般的に言われている。その感性・感情を表現できる処理を「感性・感情処理」という。 しかし、私が知る限りでは、人工知能を利用して感性・感情を表現した例はまだ存在しないと思っている。
人工知能(AI)が小説や作曲、絵をかいたりするそうだが、これはあくまで、学習した中から得たパターンの組み合わせであり、人工知能(AI)が感性を持ち合わせて作り出したものではないと考えている。
だが、我々人間も過去の経験から得た知識より感性は磨かれていくとされている。小説家なら今まで読んだ本や人生の経験により、文章の方向性やアイディアが変わってくるはずである。 このことを考えると、コンピュータも学習を積み重ねることで感性が生まれてくるのかもしれない。
3.5. 自然言語処理
自然言語は英語、日本語など人々がコミュニティケーションをとるために普段から使っている言語のことである。
自然言語は表現の幅が広く、柔軟性が非常に高い。 例えば、数人で飲食店に行き注文するとき、Aさんは「スパゲッティ!」、Bさんは「私はピザです!」という。飲食店にいるからこそBさんの言葉は普通に聞こえる。しかし、全く関係ない場所で「私はピザです!」といったらどうだろうか?不自然に聞こえるにちがいない。
こういった場合コンピュータは、どちらの意味の言葉か判断できないだろう。コンピュータは1つの言葉から、状況に応じて適切な意味を解釈するのが得意ではない。いわゆる曖昧さを理解することに乏しいのだ。
この曖昧さを理解させるため、言語の構文や意味、文脈などを分析させる処理を、自然言語処理という。
3.6. ゲームAI
ゲームプレイヤーの行動や状況に応じて、敵キャラクターの動きを変化させることをいう。ゲーム内の人工知能(AI)は、決められたゲームの中で知的な行動をおこなうように設計されており、ある程度決まったルールの中で動作している。より人工的で知能的側面は少ないのが特徴である。
3.7. エキスパートシステム
エキスパートシステムは、特定の分野の情報を詰め込み、条件によって解答を導き出すといったものである。 「データがこうだったら、こう判断する」という条件が全てのとおり記載してあるものだ。大量の知識データと的確な推論能力をつける必要があり、開発には高度な技術が必要となる。
具体的な例については、「2.2. 第2次人工知能ブーム」にて既に記載しているので、ここでは省く。
3.8. ニューラルネットワーク
ニューラルネットワーク自体は、脳を模したネットワーク構造のことをあらわしている。 脳内では、ある神経細胞に電気が伝達されると、関連する次の神経細胞に伝達される仕組みがある。これを簡略化して再現しようとしたものである。
脳内で電気が伝達されるとどうなるの?と思うかもしれない。
人間は「猫」をみた時、瞬時にこれは「猫」だと判断できる。しかし脳内では複雑なことをおこなっている。「体型、目、耳、鼻、口、仕草...」という情報を視覚から取得して、脳内で「猫」と判断する。 この時、脳内では「目」だけに反応したり、「耳」だけに反応する神経細胞が存在するのだ。このように個々の神経細胞が反応して最終的に「猫」という判断を下している。具体的なメカニズムについては、まだ謎となっている。
機械学習やディープラーニング(深層学習)でも使われ、基本的な考え方となっている。
3.9. 機械学習
機械学習は、文字通り機械的に学習させることをあらわしている。 問題をどのようにして解決するのかをコンピュータに教えるために、数百または数千の学習データを入力させる。学習結果を基に、新しい状況で同様のデータが来た場合にどのような解決策を見つけ出し、解決へ導くかをアルゴリズム化したものである。
簡単にいうと、学習データから繰り返し学習し、人の手では到底処理できないようなデータ量や、気が付きにくいことを、人の手を介さずにコンピュータが発見できるようにしたものである。
機械学習については「4. 人工知能(AI)の機械学習」により詳細に記載している。
3.10. ディープラーニング(深層学習)
ディープラーニング(深層学習)は、大きな枠組みでいえば機械学習に属するものである。
ではディープラーニング(深層学習)と機械学習と何が異なるのだろうか?
相違点は、人の手を介さずに学習できることである。 機械学習の場合は、ある学習データを繰り返し学習させ、そこからデータの特徴を人が見出し、プログラムとして人が指示をだす必要があった。このように大量データから個々の特徴を見出すのは、大きな負担であった。
一方、ディープラーニング(深層学習)は、この問題を解消している。 大量のデータから人の指示を受けずに、特徴を自己学習し抽出することが可能なのだ。 複雑なデータから特徴を見出すにあたり、人がおこなったものと、コンピュータがおこなったものでは、どちらが正確かといわれれば、コンピュータがより正確であることは間違いないだろう。
ではどのような仕組みでディープラーニング(深層学習)はできているのだろうか? ディープラーニング(深層学習)自体は、そこまで新しい考え方ではない。ニューラルネットワークの発展形と考えてよい。ニューラルネットワークをさらに階層を多くしたものが、ディープラーニング(深層学習)である。
画像、動画などを見せることで、猫、犬、人間、建物、食物、どんなものでも認識できるようになる。ディープラーニング(機械学習)にデータを流せば、特徴量を発見し、学習するようになる。 これは、膨大な情報社会である現代では、あらゆる事象をデータから分析・学習することが可能となり、社会に大きく広がっていくことが予想される。
難点があるとすれば、ディープラーニング(深層学習)は特徴を抽出するために、 データを抽象化して何層にもわたって学習する必要がある。 このため学習に時間がかかり、コンピュータの高い計算能力が必要となるのだ。 コンピュータも比較的安価で高性能にはなっているが、家庭用コンピュータでディープラーニング(深層学習)をおこなうには性能が足りないのが現状である。
4. 人工知能(AI)の機械学習
機械学習とは、人工知能(AI)のジャンルもしくはカテゴリの1つに分類される。
ここでいう「学習」とは、コンピュータが大量のデータを処理しながら、データを「分類する」という処理をおこなうことである。 コンピュータがデータを「分類する」ことができれば、規則性を見つけることができ、判断をおこなうことが可能となるのだ。
結果的に機械学習はコンピュータにルールを学ばせる仕組みのことであり、データ分析の手法である。 入力データからルール、パターン、規則性をコンピュータが発見し、それに基づいて新たなデータの分類や認識、予測をおこなう仕組みである。
4.1. 機械学習の学習方法
一言で機械学習といっても、学習方法には大きく分けて2種類存在する。「教師あり学習」、「教師なし学習」である。
ここでいう「教師」とは人間の手を介すことを指しているとイメージしてもらえれば良い。 逆に機械学習を行うコンピュータは「生徒」とイメージしてもらうと、わかりやすい。
2つの学習方法があるが、それぞれ得意分野が異なるので、状況に応じて使い分けるべきである。
4.1.1. 教師あり学習
教師あり学習では、まず人の手によって事前にデータ(例題)を与えられる。これは「教師」より与えられたデータ(例題)から、「生徒(コンピュータ)」は問題と解答の傾向をつかみ(教師が生徒に例題を解かせる様に似ている)、正しい解答につながる公式(関数)を「生徒(コンピュータ)」が理解し作りあげていく。
そこで実際のデータ(応用問題)を「生徒(コンピュータ)」に与えていくが、もちろん教師が教えてくれるデータ(例題)は基本的な事しか教えてもらっていないので、未知のデータ(問題)に遭遇する。このときは、「生徒(コンピュータ)」は今まで「教師」から教えてもらったことや、自身の経験(今まで解いた問題)を糧にしてデータを処理(解答)していく。
教師あり学習では、「生徒(コンピュータ)」に正しい解答につながる公式(関数)をどのように学習させ、正答率を高めるか?この学習方法(学習アルゴリズム)をうまく設計することが重要となる。 一般的によく使われる手法は、分類、回帰、予測、勾配ブースティングなどの手法が使われる。
「そうはいっても、コンピュータに学習ってどうやるの?」と思うかもしれない。
具体的にオンラインショップを例にしてみる。
教師あり学習はオンラインショップに並ぶ商品を、自動的にカテゴリ分けをするように学習させたいとする。
このとき、事前データ(問題と解答)として全部のカテゴリを網羅するようにデータを与える。
以下は、オンラインショップの商品をどういう判断でカテゴリ分けするか示した例である。
- 「野菜、果物、お菓子...etc」という食品に関する文字列が含まれているものは、「Food(食品)」というカテゴリに属させる。
- 「テレビ、電子レンジ、冷蔵庫、パソコン...etc」という家電に関する文字列が含まれているものは、「Consumer Electronics(電化製品)」というカテゴリに属させる。
- 「本、漫画、小説...etc」という本に関する文字列が含まれているものは、「Book(本)」というカテゴリに属させる。
例では対象の文字列が含まれれば、そのカテゴリとするように記載しているが、実際にはもっと複雑な考慮が必要であるが、ここでは詳しい内容は省くものとする。
4.1.2. 教師なし学習
教師なし学習は、言葉の通り「教師」なしの状態で、データ(問題)から「生徒(コンピュータ)」が解答とおもわれるものを見出すことをいう。もちろん「教師」からは何も教わっていないので、教師あり学習のように正確な解答を期待するのではなく、ある一定の法則や構造を見出すことが目的となっている。
教師あり学習では、人間が「AのときはB」のような一通りのデータ(例題)を与えていた。これにより特定の条件下での分類・仕訳に向いていた。 しかし教師なし学習が得意とするのは、分類は分類でも、未知のデータから規則性を見出し、分類することを得意としている。
一般的によく使われる手法は、自己組織化マップ、近傍法マッピング、k平均法クラスタリング、特異値分解などがある。
5. 人工知能とプログラム
今までさんざん人工知能(AI)といってきたが、どのように人工知能(AI)はできているのだろうか?
一言でいえば、人工知能(AI)はプログラムにより作ることができる。馴染みがない人にはプログラムといっても、よくわからないかもしれないが、人工知能(AI)をこれから理解しようとする方に、そのような人はいないと思うので、「プログラムとは?」といった内容は省く。
では、人工知能(AI)の開発でよく使われるプログラミング言語は何が使用されているのだろうか? おもに使われるプログラミング言語は「Python」、「R言語」である。ここでは現在活発に人工知能(AI)の開発がおこなわれている、「Python」について簡単に紹介していく。
5.1. 人工知能とPython
Pythonは、1991年にオランダ人のグイド・ヴァンロッサム(Guido van Rossum)によって開発されたプログラミング言語である。
Pythonという名前は日本語訳にすると、「ニシキヘビ」である。その名のとおり、Pythonはヘビのかわいいキャラクターが採用されている。 かわいいキャラクターだが、侮ってはいけない。数多くの有名企業で採用されているのだ。例えば、「Google」、「Facebook」、「Dropbox」などである。 このほかにも多くの企業で導入されており、最近ではロボットの「pepper」もPythonでつくられている。
ではなぜPythonが採用されているのだろうか?それは以下のような特徴があるからである。
- プログラムの書き方がシンプル
- 科学技術計算、統計解析に関するライブラリが豊富
- Pythonと他のプログラム言語を組合せ可能
- Windows、Mac、Linux/Unixなど比較的どこでも動作可能
この中でも、科学技術計算や統計解析に関するライブラリが豊富であること。プログラムの書き方がシンプルで、開発にかかるコストをある程度抑えられるという点で、人工知能(AI)の分野では多く活用されている。
6. 人工知能の未来
ディープラーニングの登場により、人工知能分野にブレークスルーが起きたといって良いだろう。 2012年あたりから人工知能関連のニュースを頻繁に見るようになった。ものすごい勢いで人工知能(AI)の研究開発がおこなわれているのがわかる。ロボット、自動運転、将棋、囲碁など、人間を超えることは出来ないだろうと言われていた分野でも成果を出し始めている。 これは、SFの世界がいよいよ近づいてきたかと思わせるが、一方で人工知能(AI)の進化を懸念する声も少なくないのだ。
6.1. 人工知能が与えるもの
テクノロジーの加速度的進化
人工知能(AI)はテクノロジーの発展速度を加速度的に早めていくだろう。 100年前のテクノロジーの発展速度と現代では驚くほど違う。
例えば、1900年から1910年にかけて、ミシン、ラジオ、電話、洗濯機などが実用化された。一方、2000年から2010年にかけては、インターネット・Wi-Fiの普及・速度向上、情報格納技術の縮小化(microSDカードなど)、液晶画面の縮小化、コンピュータ性能の飛躍的向上、ロボット技術の向上などがあげられる。
こうしてみてみると1900年のテクノロジーのほうがより発展しているように見える、2000年は既存テクノロジーの性能が上がっただけにしか見えない。しかし、縮小や性能を向上させるということは、大きな革新が起きなくてはなし得ないことである。 フロッピーディスクもの何百倍もの容量をもつUSBデバイスを見れば、大きな技術革新が起きていることは明白ではないだろうか。
現代は100年前と異なり、インターネット上から蓄積された情報にいつでもアクセスができるようになった。研究、開発は過去の知見を活かしながら、高性能のコンピュータを使う。このことが、技術発展にも大きく影響しているのではないだろうか。 この状況で人工知能(AI)が普及した場合は、どうなってしまうのだろうか。
おそらく、本当の人工知能(AI)が現れた暁には、人間に変わり研究、開発の大部分を人工知能(AI)おこなうようになるだろう。これは現代と比べても、今までにない早いスピードでテクノロジーが進歩していくことが予想できる。
今までは考えられなかった利便性
1つ例をあげるならば、自動運転技術がある。
日本では政府により2020年には、自動運転車両が限定地域のみで運用を開始するロードマップが作成されている。実現はそう遠くない未来なのだ。
車の運転といえば、状況を的確に見極めて適切な判断をおこなうという、非常に難解なことをしなくてはならない。このように複雑な事が本当に人工知能(AI)にできるのだろうか? 事実、世界各国で自動運転の開発が進められている。Googleでは2010年より公道での自動運転車の走行テストを続けており、現在もなおテストは継続して行われている。こうした公道での走行テストによって、不測の事態にも対応できる知識が蓄積されていくはずである。 2016年現在では、実用段階までは及ばないが10年もしないうちに公道を無人で走る車を見かけるようになるはずだ。
もちろん人工知能(AI)がもたらす恩恵は、これだけではとどまらない。 パーソナルロボット、物流、農業、受付、コールセンター、通訳・翻訳、秘書、医療などあらゆる分野で活用されるようになるだろう。社会全体、生活自体が今よりも便利なものになることは間違いないはずだ。
6.2. 人工知能が奪うもの
人工知能(AI)の進化は夢みたいでワクワクする。
しかし、「人工知能の進化=自動化が広がる」という局面をもっているのである。企業はできるだけコストを下げ、より正確に無駄なく商品をつくることを追求する。人工知能(AI)は、このような効率を重視した作業に適している。
おのずと企業は人工知能(AI)を採用するはずなのだ。結果的にいえば、人工知能(AI)に職業を奪われる人が出てしまう可能性がある。 このような懸念が様々な方面から危ぶまれており、各メディアでも同様の内容を目にすることが多い。
だがどうだろう、人は今までも技術の進化を幾度も経験してきているはずである。歴史をみれば技術の進化とともに職業のあり方も変化してきていることがわかる。
産業革命では製造業の機械化により、大量生産の時代が訪れた。職人の仕事は減り、機械技師や単純作業が主流の作業員の需要が生まれた。 コンピュータの発展では、製造ロボット制御がより高度になり、工場の作業員の仕事はさらに減った。家事お手伝いなどの仕事も、家電に奪われていった。 仕事を奪われていった人たちはどうしたのだろうか?仕事がなくなり途方にくれたに違いないが、それぞれの道を探し歩んだのだろう。
人々は今までもテクノロジーの革新に伴い、働き方の変革も求められてきた。 テクノロジーの進化あわせて職業の需要が変わるのは、いままで幾度も体験してきているはずである。人工知能(AI)による影響が大きいのは確かだが、時代によって需要が変わるのは当然といえば当然といえるのではないだろうか。
6.3. 人工知能の脅威
人工知能(AI)の脅威としてよく語られるのが、シンギュラリティ(Singularity)である。 シンギュラリティとは、日本語で技術的特異点という。 これは、人工知能(AI)が人間の能力を超えたとき、テクノロジーの急速な進化に伴い人々の生活は様変わりし、後戻りのできなくなる状態のことをいう。
現在、シンギュラリティは2045年に起こるといわれており、「2045年問題」ともいわれている。 2045年にはコンピュータ技術が進歩し、驚異的なスピードでテクノロジーの進歩や発展が起こるとされている。このスピードは加速度的に早くなっていくだろうといわれている。
2045年に起こるシンギュラリティを予測しているのは、発明家でもあり人工知能研究の世界的権威あるレイ・カーツワイル(Ray Kurzweil)氏である。
ではなぜ2045年にシンギュラリティが起こるといえるのか?
一般家庭に普及するレベルのコンピュータで地球上全ての人間より能力が高いコンピュータが登場していると予想されている。 さらに人工知能(AI)は、現代のものとは比べものにならないほど高性能なものとなっており、自ら考え、行動し自己改善のサイクルを作り出す。人類は今まで経験したこともないスピードでテクノロジーの進化を目の当たりにすることになり、予測することも困難になる。
つまり、人間が生み出す最後の発明が、最初の人工知能(強いAI)になり得ることを表している。
6.4. 人工知能と人間のあり方
人工知能(AI)が完成したとき、急速に人工知能自身も世の中の技術も成長していけば、人間としてのあり方や、仕事の内容も変わってくるのではないかと考えている。
人工知能(AI)にある程度任せることができる仕事ならば、人工知能(AI)に任せればよいのだ。では、人間として何をすべきだろうか。
- 人工知能(AI)の教育
- 人工知能(AI)の使用用途の考察
- 人工知能(AI)との共同作業
- 人工知能(AI)のチェック
以上のように、人工知能(AI)と仕事をともにする場合、新入社員を育てるがごとく、教育をおこない、能力に見合った仕事の内容を考え(使用用途の考察)、人工知能(AI)と共に仕事を行う。 さらに人工知能(AI)が作り上げたものをチェックして、指摘内容があれば指摘する。 このような仕事が人工知能(AI)普及後、職業として出てくるのではないだろうか。
7. まとめ
過去の歴史から人工知能(AI)がどれだけ進化し、第3次人工知能ブームである現在は、本当の人工知能(AI)が生まれる条件が揃ってきていることがお分かりいただけただろうか。 現代に生きる私たちは、このような技術の転換期に直面しているといっても過言ではないだろう。 私からすれば、昔からプログラムが自己学習して、さらに良いプログラムを生み出すようなシステムを夢みていたので、大変興味のある分野である。
この記事を通して、人工知能(AI)に興味がなかった人は少しでも興味をもってくれたら幸いである。 今後は、実際にPythonを利用した「機械学習」や「ディープラーニング」のプログラムにまで踏み込んだ記事を書いていくので、興味があればまた見ていただきたい。