G検定の要点をシラバスから抜粋してまとめました。
これから学習する方も、復習したい方にもお使いいただけます。
試験当日用のG検定のカンニングペーパー参考としてもお役立てください。
試験結果を保証するものではありませんので、試験の際は自己責任でご使用ください。
項目の修正・追加などのご要望はお問い合わせフォームからまたはX(旧Twitter)からご連絡をお願いします。

(最終更新日:2024年1月1日)

読み上げ動画

学習のおすすめ書籍(参考)

筆者が実際に学習した書籍を紹介します。

教科書として使用する書籍

体系的に知識を整理することができます。

まずは、この1冊を読んでG検定の学習を進めましょう。

検索機能が使用できるので、Kindle版が特におすすめです。

深層学習教科書 ディープラーニング G検定(ジェネラリスト)公式テキスト 第2版

問題集として使用する書籍

ある程度学習が進んだら、本番を意識して問題集に取り組みましょう。

本番の試験環境を意識して、このページ「要点整理&当日用カンペ」を使用しながら解答してみましょう。

徹底攻略ディープラーニングG検定ジェネラリスト問題集 第2版 徹底攻略シリーズ

最短突破 ディープラーニングG検定(ジェネラリスト) 問題集

★このページの使い方

①キーワードの検索にページ内検索機能をご活用ください
(mac:command+F、windows:ctrl+F)

②配色は重要度に応じて以下のように使い分けをしています
メインキーワード(必ず覚える)
関連キーワード(余裕があれば覚える)
シラバスにないキーワード(参考)

③一部の項目には詳細や実装に関するリンクがあります
 🔗マークがある項目は詳細説明のページに移動することができます。

目次

1. 人工知能とは

1.1 人工知能の定義

キーワード
人工知能とは何か、人工知能のおおまかな分類、AI 効果、人工知能とロ ボットの違い、推論、認識、判断、エージェント、古典的な人工知能、機械学習、ディープラーニング

人工知能とは何か🔗

計算機による知的な情報処理システムの設計や実現に関する研究分野であり、コンピュータを使って学習・推論・認識・判断など人間と同じ知的な処理能力を持つシステム。「知性」や「知能」自体の定義がないため、人工知能の具体的な定義は専門家の間でも未だに無い。同じシステムであっても、それを人工知能だと主張する人と人工知能ではないと考える人がいる。「人間と同じ知的な処理能力を持つ機械(情報処理システム)」という表現をすれば、「人間と同じ知的な処理能力」という部分の解釈が人によって異なる可能性がある。
AIの始まりはエニアック登場の10年後に1956年ダートマス会議で初めて提唱されたことによる。アーサー・サミュエルは機械学習を「明示的にプログラムしなくても学習する能力をコンピュータに与える研究分野」と定義している。

人工知能のおおまかな分類 🔗

レベル1 シンプルな制御プログラム 全ての振る舞いがあらかじめ決められている。ルールベースで動く
レベル2 古典的な人工知能 探索・推論、知識データを利用して状況に応じて複雑な振る舞いをする
レベル3 機械学習を入れた人工知能 非常に多くのサンプルデータから入出力関係を学習
レベル4 ディープラーニングを入れた人工知能 特徴量による学習が行われる。このレベルでは、非常に高度な認識や判断能力を持ち、複雑なタスクに対応できる

AI効果
AI効果は、人工知能技術によって新たな成果が生み出されると、その原理が解明された瞬間、人々が「それは単なる自動化であり、真の知能とは関係ない」と考える心理的な現象である。この効果は、AIの進歩に伴ってその本質的な価値を過小評価する傾向が生じることを示している。技術の成果が当たり前になることで、人々はその重要性を見過ごしやすくなり、その結果、AIのさらなる発展の可能性に対する認識が狭まることがある。この心理的な効果に注意し、AI技術の真価を正確に評価することが重要

人工知能とロボットの違い
ロボットの脳に当たる部分が人工知能。脳以外の部分を研究対象としているロボットの研究者は人工知能の研究者ではない。人工知能の研究は脳だけを対象としているわけではなく、知的な処理能力や意思決定、学習など(知的な処理有力)目に見えないものを扱う。

エージェント
エージェントは、プログラムやメカニズムの一種で、あらかじめ定義された目標を達成することを目的として設計されている。自律的に環境を認識し、その状況に応じて適切な行動を選択する能力を持っている。また、学習機能を備えたエージェントは、経験を通じて行動戦略を改善し、より効果的な結果を得ることができる。

古典的な人工知能
古典的な人工知能は、入力と出力の関係を明確に定義し、状況に応じて適切な出力を生成するアプローチを採用している。掃除ロボットや診断プログラムなど、入力と出力の組み合わせが膨大な場合でも、この方法が適用される。古典的な人工知能は、アルゴリズムやルールベースのシステムに依存し、その基礎となる知識を明示的にコード化することで、問題解決能力を実現している。しかし、このアプローチは固定的であるため、柔軟性や適応性に欠ける場合がある。近年の人工知能技術の進化に伴い、ディープラーニングやニューラルネットワークなどの新たな手法が登場しており、従来の古典的な人工知能とは異なるアプローチで問題解決を試みている。

機械学習
学習により自動で改善するコンピューターアルゴリズムもしくはその研究領域。データが持つ特徴(構造やパターン)を学習しており、パターン認識という古くからの研究をベースにしている。

ディープラーニング
ディープニューラルネットワークを用いて学習を行うアルゴリズムで機械学習に含まれる。ディープラーニングを取り入れた人工知能は、学習対象となるデータの特徴量を自動的に学習する。画像認識、音声認識、自動翻訳など、従来のコンピュータでは実現するのが難しいとされてきた分野での応用が進んでいる。ディープラーニングは従来の機械学習と異なり、特徴量そのものを学習するため、入力の良い内部表現を得ることができるようになった。

1.2 人工知能研究の歴史

キーワード
世界初の汎用コンピュータ、ダートマス会議、人工知能研究のブームと冬の時代、エニアック (ENIAC)、ロジック・セオリスト、トイ・プロブレム、エキスパートシステム、第五世代コンピュータ、ビッグデータ、機械学習、特徴量、ディープラーニング、推論・探索の時代、知識の時代、機械学習と特徴表現学習の時代、ディープブルー

世界初の汎用コンピュータ
1946年、アメリカのペンシルバニア大学で発明された世界初の汎用電子式コンピュータをエニアック(ENIAC)という。

エニアック( ENIAC )
エニアック(ENIAC)は、アメリカで開発された世界初の汎用コンピュータであり、エレクトロニクス技術の高速性と複雑な問題解決能力を兼ね備えていた。プログラミング可能な機能を初めて持つ計算機として、科学技術や軍事などの分野で幅広く利用されることとなった。エニアックは、現代のコンピュータ技術の基礎を築く画期的な発明であった。その革新的な性能により、従来の計算機では困難であった複雑な問題の解決が可能となり、情報処理技術の進化を促進した。

ダートマス会議
エニアック誕生の10年後の1956年の7月から8月にかけて開催された、人工知能という学術研究分野を確立した会議の通称である。この会議において初めてAI(Artificial Intelligence)という用語を用いたとされる。
ジョン・マッカーシーが主催しており、他の参加者はマーヴィン・ミンスキー、ジョン・マッカーシー、アレン・ニューウェル、ハーバート・サイモン、クロード・シャノン(情報理論の父と呼ばれる)。
ニューウェルとサイモンは世界初の人工知能プログラムといわれるロジック・セオリストをデモンストレーションしており、コンピュータを用いて数学の定理を自動的に証明することが実現可能であることを示す。さらに知的に行動したり思考したりするコンピュータ・プログラムの実現可能性について議論された。

ロジック・セオリスト
ロジック・セオリストは、数学の定理を自動的に証明することが可能であることを示したプログラムで、「世界初の人工知能プログラム」とされている。アレン・ニューウェルとハーバート・A・サイモンが開発し、デモンストレーションを行った。人間のような推論能力をコンピュータ上で実現することを目指しており、機械による知的な問題解決の可能性を示した画期的な成果であった。このプログラムは、人工知能研究の歴史において重要な位置を占めており、その後のAI技術の発展や自動定理証明システムの研究に大きな影響を与えている。

人工知能研究のブームと冬の時代

第1次AIブーム ⇨ 推論・探索の時代:1950年代後半~1960年代トイ・プロブレム:コンピュータによる「推論」や「探索」 の研究が進み、特定の問題に対して解を提示できるようになった。迷路や数学の定理の証明のような簡単な問題(トイ・プロブレム)は解けても現実の問題は解けないことが明らかになり、1970年代には人工知能研究は冬の時代を迎える。
第2次AIブーム
知識の時代:1980年代エキスパートシステム:データベースに大量の専門知識を溜め込んだ実用的なシステム。日本では政府によって「第五世代コンピュータ」と名付けられた大型プロジェクトが推進された。しかし、知識を蓄積・管理することの大変さが明らかになってくると、1995年ごろからAIは冬の時代を迎える。
第2次AIブームの主役である知識表現は、現在も重要な研究対象になっている。
第3次AIブーム
機械学習・特徴表現学習の時代:2010年~ディープラーニング(深層学習):ビッグデータを用いることで人工知能が自ら知識を獲得する機械学習が実用化。特徴量を人工知能が自ら習得するディープラーニング(深層学習)が登場。
第3次AIブームの主役である機械学習(ニューラルネット)も、本質的な提案は第1次AIブームの時に既に出ていた。

トイ・プロブレム
トイ・プロブレム(おもちゃの問題)とは、おもちゃのように簡単な問題という意味ではなくコンピュータで扱えるように本質を損なわない程度に問題を簡略化した問題のことで、トイ・プロブレムを用いることで問題の本質を理解したり現実世界の問題に取り組んだりする練習ができるようになる。
コンピュータによる「推論」や「探索」 の研究が進み、特定の問題に対して解を提示できるようになった。迷路や数学の定理の証明のような簡単な問題は解けても、現実の問題は解けないことが明らかになり、1970年代には人工知能研究は冬の時代を迎える。

エキスパートシステム
データベースに大量の専門知識を溜め込んだ実用的なシステム。日本では、政府によって「第五世代コンピュータ」と名付けられた大型プロジェクトが推進され、エキスパートシステムの開発が盛んに行われた。しかし、知識を蓄積・管理することの大変さが明らかになってくると、1995年ごろからAIは冬の時代を迎える。専門家の知識を活用して問題解決を図るためのアプローチであり、多くの産業や分野で応用が試みられた。その後の技術革新やデータ処理能力の向上により、エキスパートシステムは再び注目され、知識ベースの構築や管理方法の改善が進められている。

第五世代コンピュータ
人工知能コンピュータの開発を目標にした、通商産業省所管の新世代コンピュータ技術開発機構が1982年から1992年にかけて進めた国家プロジェクトの計画名称で、人工知能コンピュータの開発を主目標としていた。このプロジェクトでは、エキスパートシステムや自然言語処理、並列処理技術など、当時の最先端技術を取り入れたコンピュータの研究・開発が行われた。第五世代コンピュータは、人間の知的能力を模倣し、高度な問題解決や推論を行うことを目指しており、多くの期待が寄せられていた。

ビッグデータ
一般的なデータ管理・処理ソフトウエアで扱うことが困難なほど巨大で複雑なデータの集合。このようなデータは、インターネットの普及やスマートフォンの登場、センサー技術の発展などにより急速に増えており、現代社会において重要な情報資源となっている。ビッグデータを効果的に分析・活用することで、ビジネスや研究、政策立案など様々な分野で新たな知見や価値が生み出される。そのため、ビッグデータ解析技術やデータマイニング、機械学習などの人工知能技術が注目され、データサイエンティストの役割も重要視されている。しかし、ビッグデータの利用には、プライバシーやデータセキュリティ、倫理的な問題も関連しており、適切な取り扱いが求められている。

特徴量
分析すべきデータや対象物の特徴・特性を、定量的に表した数値であり、機械学習やデータ解析の分野で重要な役割を果たしている。特徴量の選択や抽出は、データ解析の質を大きく左右するため、適切な特徴量を選ぶことが極めて重要である。良い特徴量は、データのパターンや構造を効果的に捉え、学習アルゴリズムが予測や分類を正確に行えるようにする。特徴量エンジニアリングとは、適切な特徴量を見つけ出し、データ解析に活かすための一連のプロセスであり、ドメイン知識や統計学、機械学習技術が活用される。

ディープブルー
IBMが1989年より開発したチェス専用のスーパーコンピュータ。ディープ・ソートを破った当時チェスの世界チャンピオンだった、ガルリ・カスパロフを打ち負かすことを目標とした。1997年にIBMが開発した人工知能でチェスの世界チャンピオンを破った。ディープブルーは主に全幅探索アプローチが用いられており、圧倒的な計算能力に物を言わせて勝利したといえる。

2. 人工知能をめぐる動向

キーワード
探索木、ハノイの塔、ロボットの行動計画、ボードゲーム、モンテカルロ法、法幅優先探索、深さ優先探索、プランニング、STRIPS、SHRDLU、アルファ碁 (AlphaGo)、ヒューリスティックな知識、MiniMax 法、αβ 法、ブルートフォース

2.1 探索・推論

探索木
計算機科学において特定のキーを特定するために使用される木構造のことで、学習結果を木構造で表現できるため解釈性が高い。場合分けを続けていけばいつか目的の条件に合致するという考え方に基づく。不純度が最も減少(情報利得が最も増加)するようにデータを振り分けることを繰り返す。不純度とはクラスの混ざり具合を表す指標でジニ係数やエントロピーがある。バギングを組み合わせた手法をランダムフォレストという。探索方法は大別すると以下の通りとなる。

幅優先探索 深さ優先探索
出発点に近いノード(探索木の各要素)順に検索する。出発点から遠いノードほど検索は後回しになる。最短距離でゴールにたどり着く解を見つけることができる
探索の途中で立ち寄ったノードをすべて記憶しておく必要がありメモリが多く必要となる。
あるノードから行けるところまで行って、行き止まりになったら1つ手前のノードに戻って探索を行うということを繰り返す。1つ手前のノードに戻って探索するため大きなメモリは要らない
最短距離でゴールにたどり着く解であるとは限らない(運次第)。「縦型探索」とも呼ばれる。

ハノイの塔
円盤と3本のポールを用いたパズルの一種である。「1回に動かせる円盤の枚数は1枚のみ」「小さな円盤の上に大きな円盤を乗せることはできない」というルールに従って、全ての円を右端に移動させる。このパズルは、再帰的なアルゴリズムやプログラミングの教材としてよく用いられ、計算機科学や人工知能の分野でも重要な役割を果たしている。円盤の枚数がn枚である時、最小の手数は「(2^ n)ー 1」回であることが知られており、この性質を利用して様々な問題解決アプローチや最適化手法を学ぶことができる。

ロボットの行動計画(プランニング)⇨
ロボットの行動計画において、ロボットの目標達成のために必要な行動を作成する技術のこと。エージェントに与えられた目標を達成するために必要な行動の系列を探索により自動作成することとも言える。あらゆる状態「前提条件」について、「行動」と「結果」を記述しておけば目標とする状態に至る行動計画を立てることができる。プランニング技術は、自動化システムやロボット工学、知的エージェントなど様々な分野で応用されており、経路探索、資源配分、スケジューリングなどの問題解決に役立っている。

STRIPS(Stanford Research Institute Problem Solver)
1970年代に提案された「前提条件」・「行動」・「結果」の3つの組み合わせで記述するプランニングの手法。この手法では、状況における前提条件と目標状態を定義し、それらの間にある行動を決定することで、エージェントが目標を達成するための適切な行動計画を立てることができる。

SHRDLU
1968年から1970年にかけて、テリー・ウィノグラードによって実施されたプロジェクトプランニングを実現する研究。英語による指示を受け付け、コンピュータ画面に描かれる「積み木の世界」に存在する様々な物体(ブロック、四角錐、立方体など)を動かすことができた。この成果はCycプロジェクトにも引き継がれている。

ボードゲームAlphaGo(アルファ碁))⇨
Google DeepMindによって開発されたコンピュータ囲碁プログラム。2016年3月9日、韓国のプロ棋士に4勝1敗。
ボードゲームをコンピュータで解く基本は探索であり、代表的なボードゲームでは探索の組み合わせの数の順番はオセロ<チェス<将棋<囲碁となる。この順番は、ボードゲームの複雑さと探索の困難さを示しており、囲碁は最も複雑であるとされる。

オセロ1997年に人工知能が人間のチャンピオンに勝利
チェス1997年に人工知能が人間のチャンピオンに勝利
将棋人間のレベルを超えたのは2015年
囲碁 2015年時点でコンピュータの実力は人間のアマチュア6、7段程度。世界チャンピオンに勝つにはさらに10年はかかると思われていたが、2016年3月9日に人工知能の囲碁プログラムAlphaGoが人間のチャンピオンに勝ち越した。

ヒューリスティック(な知識)
探索のコスト(時間や費用)を考えるときに、探索を効率化するのに有効な経験的な知識や経験をいう。この知識は、探索のコスト(時間や費用)を考慮する際に重要な要素となる。ボードゲームを例に取ると、コンピュータが効率よく最良の手を探索できるように状態が自分にとって有利か不利かを示すスコア(コスト)を情報として保持する。

MiniMax法
自分が番にスコアが最大になるように、相手の番にはスコアが最小になるように戦略を立てる手法。ボードゲームにおける探索木では、一手が指され他時に盤面の状態を探索木の各ノードとし、ある盤面における状態の良し悪しはスコアによって評価される。この手法は、自分の手番と相手の手番を交互に展開することで、相手が最善手を打ったと仮定し、その中で自分の最適な手を選ぶ。具体的には、葉ノード(終端状態)までのスコアを計算し、その値を親ノードに伝搬させる。自分の手番では子ノードの最大値を選択し、相手の手番では最小値を選択することで、最適な手を決定する。MiniMax法はすべての盤面状態を調べるため、計算量が膨大になる欠点がある。

αβ法
Mini-Max法による探索をできるだけ減らす手法。この方法では、すでに評価されたスコアを基に、不要なノードの探索を減らすことが可能だ。具体的には、αカットとβカットという2つの手法が用いられる。

αカットすでに出現したスコアよりも小さいノードが現れた時点で、その先につながるノードの探索をカットする。これにより、より良い結果を得られる可能性の低いノードにかかる探索コストを削減できる。
βカットすでに出現したスコアよりも大きいノードが現れた時点で、その先につながるノードの探索をカットする。これも同様に、探索コストの削減に寄与する。

ブルートフォース
総当たり攻撃を行う力任せな方法で、可能な組み合わせを全て試すアプローチ。人間の思考方法とは違ってブルートフォース(力任せ)で押し切る方法のため、探索しなければならない組み合わせの数が増えると、立ち行かなくなるためしばらくは囲碁でプロに勝てなかった。しかし、ディープラーニングの技術を利用し、人間の思考方法をコンピュータで再現することに成功。この結果、人間のプロ棋士に勝利を収めることが可能となった。ディープラーニングを用いた手法は、ブルートフォースとは対照的に、効率的な探索や学習が可能であることが示された。

モンテカルロ法
モンテカルロ法は乱数を用いたシミュレーションや数値計算を行う手法の総称。囲碁や将棋などにおいては、ゲームがある局面まで進んだら、あらかじめ決められた方法でゲームの局面のスコアを評価するという方法を完全に放棄する。その代わりに、コンピュータが2人の仮想的なプレーヤーを演じて、完全にランダムに手を指し続ける方法でゲームをシミュレーションし終局させてしまうことをプレイアウトという。どの方法が一番勝率が高いか計算でき、ゲームのスコアを評価できる。

2.2 知識表現

キーワード
人工無脳、知識ベースの構築とエキスパートシステム、知識獲得のボトル ネック(エキスパートシステムの限界)、意味ネットワーク、オントロ ジー、概念間の関係 (is-a と part-of の関係)、オントロジーの構築、ワト ソン、東ロボくん、イライザ (ELIZA)、イライザ効果、マイシン (MYCIN)、DENDRAL、知識獲得のボトルネック(エキスパートシステムの限界)、インタビューシステム、意味ネットワーク、is-a の関係、has-a の関係、part-of の関係、オントロジー、Cycプロジェクト、推移律、ウェブマイニング、データマイニング、ワトソン、Question-Answering、セマンティック Web

人工無脳
チャットボット、おしゃべりボットなどと呼ばれている、人間的な会話の成立を目指した人工知能に類するコンピュータプログラム。特定のルール・手順に沿って会話を機械的に処理するだけで、実際は会話の内容を理解していない。このような人工無能は、一般的には人工知能とは異なるカテゴリーに分類され、高度な理解や判断を行うことができない。しかし、シンプルな質問や会話に対しては、ある程度の対応が可能である。

イライザ(ELIZA)
1964年から1966年にかけてジョセフ・ワイゼンバウムによって開発されたコンピュータプログラム。(人工無能の元祖)相手の発言をあらかじめ用意されたパターンと比較し、パターンに合致した発言があった場合にはそのパターンに応じた発言を返答する。イライザは、単純なルールに基づいて会話を進めるため、実際には発言の意味を理解していない。しかし、その返答は人間らしいものであり、初期の自然言語処理技術の基礎を築いた。

イライザ効果
コンピュータのことを自分とコミュニケーションがとれる人間だと錯覚してしまうこと。この効果は、人間の心理的な要素や認知の特性から生じるもので、コンピュータとの対話が人間との対話と似た形式をとることで引き起こされることが多い。特に、人工知能やチャットボットが発展し、より自然な会話ができるようになった現代では、イライザ効果がより顕著になっている。イライザ効果は、ジョセフ・ワイゼンバウムが開発したシンプルな自然言語処理プログラム「ELIZA」に由来する。

マイシン( MYCIN )
1970年代にスタンフォード大学で開発された、血液中のバクテリアの診断支援をするルールベースのプログラム。あたかも感染症の専門医のように振舞うことができ、このマイシンは、医師の専門知識や経験を基に作成されたルールセットを活用して、患者の症状や検査結果から適切な診断を導き出すことができた。初期のエキスパートシステムとして影響力を持っていた。

DENDRAL
スタンフォード大学のエドワード・ファイゲンバウムが1960年代に開発した未知の有機化合物を特定するエキスパートシステム。このシステムは、専門家の知識を活用して複雑な化学構造を解析し、有機化合物の同定を行うことができた。1977年には実世界の問題に対する技術を重視した「知識工学」を提唱し、1970年代後半から1980年代にわたり多くのエキスパートシステムが開発された。

知識獲得のボトルネック(エキスパートシステムの限界)
知識のデータベースを構築するためには、専門家・ドキュメント・事例などから知識を獲得する必要がある。ドキュメントや事例から知識を獲得するためには自然言語処理や機械学習という技術を利用することで取得可能であるが、最大の知識源である人間の専門家の知識は暗黙的であるため獲得は難しい場合が多い。そこで専門家が持つ知識を上手にヒアリングするインタビューシステムなどの研究が行われた。知識を共有する方法や再利用する方法も問題になり、そうした問題を解決するために意味ネットワークやオントロジーなどの研究が活性化した。

意味ネットワーク
もともと認知心理学における長期記憶の構造モデルとして発案されたもので、人工知能分野においても重要な知識表現手法の1つとされている。この表現方法では、「概念」をラベル付きのノードで示し、概念間の関係をラベル付きのリンクで結んでいくことにより、ネットワーク形式で知識を表現する。意味ネットワークを利用することで、知識の構造化が容易になり、概念間の関係性を明確に示すことができる。また、概念をノードとして表現するため、情報の追加や変更が容易であり、柔軟な知識管理が可能となる。意味ネットワークを用いることで、知識の獲得や共有、再利用の課題に対処し、エキスパートシステムの限界を克服することが期待される。

is-a(「である」の関係)part-of(「一部である」の関係)
上位概念と下位概念の継承関係属性
哺乳類-犬車-部品
「is-a」の関係は推移律が必ず成立する。
「哺乳類 is-a 動物」と「人間 is-a 哺乳類」が成立すれば、「人間 is-a 動物」が自動的に成立することを意味する
「part-of」の関係には最低5つの関係があることが分かっており、コンピュータにこれを理解させるのは大変難しい。

is-a(「である」の関係)
is-a(「である」の関係)は、概念間の継承関係を表すもので、上位概念と下位概念の関係性を示している。例えば、「哺乳類」と「犬」の間にはis-aの関係が存在し、犬は哺乳類であるということを表現している。この関係は、概念階層を構築する際に重要な役割を果たす。is-aの関係には、推移律が必ず成立するという特徴がある。これは、ある概念が別の概念にis-aの関係で結ばれており、さらにその概念が別の概念にis-aの関係で結ばれている場合、最初の概念も最後の概念にis-aの関係で結ばれることを意味する。例として、「哺乳類 is-a 動物」および「人間 is-a 哺乳類」が成立する場合、「人間 is-a 動物」も自動的に成立する。

part-of(「一部である」の関係)
part-of(「一部である」の関係)は、概念間の構成要素関係を表すもので、ある概念が別の概念の一部分であることを示している。例えば、「車」と「部品」の間にはpart-ofの関係が存在し、部品は車の一部であることが表現されている。この関係は、概念の構成や概念間の関係性を明確化する上で重要な役割を果たす。「part-of」の関係には、最低でも5つの関係が存在することがわかっており、これらの関係をコンピュータに理解させるのは非常に難しい課題であるが、これらの関係を適切に表現することで、知識の表現や推論が効率的に行えるようになる。

オントロジー
本来は哲学用語で存在論(存在に関する体系的理論)という意味。人工知能の用語としては、トム・グルーパーによる「概念化の明示的な仕様」という定義が広く受入れられており、エキスパートシステムのための知識ベースの開発と保守にはコストがかかるという問題意識に端を発している。知識を記述する時に用いる「言葉(語彙)」や「その意味」、それらの関係性を共有できるように明確な約束事(仕様)として定義。オントロジーの研究が進むにつれ、知識を記述することの難しさが明らかになり、ヘビーウェイトオントロジー、ライトウェイトオントロジーという2つの流れが生まれた。

ヘビーウェイトオントロジー・対象世界の知識を記述する方法を哲学的に深く考察するアプローチ。
・対象世界の知識をどのように記述するかを哲学的にしっかり考えて行う。
・構成要素や意味的関係の正当性について哲学的な考察が必要になるため、どうしても人間が関わることになる傾向。
ライトウェイトオントロジー・完全に正しいものでなくても使えるものであればいいという考えで、構成要素の分類関係の正当性については深い考察は行わない傾向がある。
・セマンティックWeb(Webサイトが持つ意味をコンピュータに理解させ、コンピュータ同士で処理を行わせるための技術)や、LOD(Linked Open Data:コンピュータ処理に適したデータを公開・共有するための技術)などの研究として展開。
・ウェブデータを解析して知識を取り出すウェブマイニングやビッグデータを解析して知識を取り出すデータマイニングと相性が良い。

Cycプロジェクト
すべての一般常識をデータベース化し(知識ベース)、人間と同等の推論システムを構築することを目的とするプロジェクト(ダグラス・レナート)。1984年から今も続いている。このプロジェクトの主な狙いは、機械に人間のような推論能力を持たせることで、知識処理や問題解決を効率化し、人間の判断や活動を支援することである。そのため、一般的な知識や常識を網羅的に収集し、データベース化することが重要な取り組みとなる。

東ロボくん
東大入試合格を目指す人工知能の研究・開発プロジェクトのことで、2016年にはほとんどの私立大学に合格できるレベルになった。国立情報学研究所が2011年から研究がスタートしたが、質問の意味を理解していないので読解力に問題があり、現在の技術では合格は難しいことから2016年に凍結された。

ワトソン君
IBMが開発した質問応答システム・意思決定支援システムで、2011年、「ジョパディー」の歴代の人間チャンピオンに勝利した。Question-Answering(質問応答)という研究分野の成果であり、ウィキペディアの情報をもとにライトウェイト・オントロジーを生成して解答する。質問の意味を理解して解答しているわけではなく、質問に含まれるキーワードと関連しそうな答えを高速に検索し、解答候補が質問との整合性や条件をどの程度満たしているかを複数の視点でチェックし総合点を算出して、一番高い総合点が得られた候補を解答として選択していた。
IBMは開発当初、ワトソンを医療診断に応用するとしていたが、コールセンター、人材マッチング、広告、「シェフ・ワトソン」という新しい料理を考えることへの応用など幅広い分野で活用されている。

推移律
集合の二つの要素間の関係に関する条件の一つ。集合の二要素 x、y の間に関係 R があることを xRy と書くことにしたとき、「xRy かつ yRz なる限りつねに xRz」が成立するならば、関係 R は推移律をみたすという。「is-a」の関係は推移律が成立する。推移律が成立する典型的な例は、「is-a」の関係である。「is-a」の関係は、一般的に分類や階層構造を表す際に用いられる。例えば、「犬は哺乳類であり、哺乳類は動物である」という関係があった場合、「犬は動物である」という関係も成立する。このように、「is-a」の関係は推移律が適用される。

ウェブマイニング
ウェブサイトの構造やウェブ上のデータを解析して知識を取り出す。ウェブマイニングは主に3つのカテゴリに分類される。ウェブコンテンツマイニングは、ウェブページ上のテキストや画像、リンクなどの情報を解析し、新たな知識を抽出する。次に、ウェブ構造マイニングは、ウェブページ間のリンク構造を調査し、ページ同士の関係性や重要度を評価する。最後に、ウェブ利用マイニングは、ユーザーのウェブ閲覧履歴やクリックパターンなどの情報を解析し、ユーザーの興味や嗜好を把握する。ウェブマイニングは、検索エンジンの改善やパーソナライズされたコンテンツの提供、ウェブサイトの最適化、マーケティングや広告戦略の策定など、多岐にわたる分野で活用されている。

データマイニング
統計学、パターン認識、人工知能等のデータ解析の技法を大量のデータに網羅的に適用することで、有用な知識を取り出す技術。データの前処理では、欠損値の補完や外れ値の処理、データの正規化などが行われる。次に、パターン抽出では、データから隠れたパターンや関連性を見つけ出す。最後に、評価・検証では、抽出されたパターンが実際に有用であるかを検証する。

Question-Answering
Question-Answeringは、質問応答システムのことであり、ユーザからの自然言語での質問を受け付け、解答を返すコンピュータソフトウェアを指す。このシステムは、自然言語処理や機械学習の技術を活用し、さまざまな情報源から知識を抽出し、質問に対する適切な回答を生成する。質問応答システムの代表例として、IBMが開発したワトソン君がある。

セマンティックWeb
Webページに記述された内容について、「情報についての情報」(いわゆるメタデータ)を一定の規則に従って付加し、コンピュータシステムによる自律的な情報の収集や加工を可能にする。情報リソースに意味を付与することでコンピュータにより高度な意味処理を実現することを目指す。セマンティックWebの目的は、情報を構造化し、コンピュータが理解しやすい形で提供することにより、人間とコンピュータが共同で情報を利用・共有できるようにすることである。これにより、情報検索やデータ分析、知識獲得などのタスクが効率化される。

2.3 機械学習・深層学習

キーワード
データの増加と機械学習、ビッグデータ、レコメンデーションエンジン、スパムフィルター、機械学習と統計的自然言語処理統計的、自然言語処理、コーパス、人間の神経回路、単純パーセプトロン、誤差逆伝播法、オートエンコーダ、ILSVRC、特徴量、次元の呪い、機械学習の定義、パターン認識、画像認識、特徴抽出、一般物体認識、OCR

データの増加と機械学習 
機械学習とは人工知能のプログラム自身が学習する仕組みのことをいう。コンピュータは与えられたサンプルデータを通してデータに潜むパターンを学習する。この際、サンプルデータが多ければ多いほど望ましい学習結果が得られる。2000年以降、ビッグデータ(インターネットの成長とともに蓄積された大容量データ)とともに注目を集めるようになった。

ユーザーの好みを推測するレコメンデーションエンジンや迷惑メールを検出するスパムフィルターなども、膨大なサンプルデータを利用できるようになった機械学習によって実用化されたアプリケーション。

機械学習と統計的自然言語処理 
従来は文法構造や意味構造を分析して単語単位で訳を割り当ていた。現在の統計的自然言語処理では複数の単語をひとまとまりにした単位(句または文単位)で用意された膨大な量の対訳データをもとに、最も正解である確率が高いものを選択。

コーパス
自然言語処理の研究や機械学習の分野で用いられる対訳データの集合である。自然言語の文章を構造化し、大規模に集積したデータセットが特徴となっている。これらのデータセットは、様々な言語やジャンルの文章が含まれており、実際の言語使用のパターンを分析することが可能である。

ニューラルネットワーク
機械学習の一つで、人間の神経回路を模倣することで学習を実するもの。1943年にウォーレン・マカロックとウォルター・ピッツによって人間の神経細胞を数理モデル化した形式ニューロンが発表され、これを元に1958年に米国の心理学者フランク・ローゼンブラットが単純パーセプトロンというニューラルネットワークを発表。1960年代に爆発的なブームを起こすが人工知能学者のマービン・ミンスキーにより単純パーセプトロンの限界が示され、ニューラルネットワークの研究は下火になってしまうが、ニューラルネットワークを多層にし誤差逆伝播法を使うことで克服された。
日本では1980年に福島邦彦らによってネオコグニトロンというニューラルネットワークが考案されており、これは畳み込みニューラルネットワークの起源となった。視野角の神経細胞の働きを模しており、画像の濃淡パターンを抽出するS細胞の層と特徴の位置ずれの影響を除去するC細胞の層とで構成される。add-id silent という学習手法がとられており、誤差逆伝播方は用いられていない。

誤差逆伝播法(バックプロパゲーション)
1986年にデビッド・ラメルハートらによって命名された、ニューラルネットワークを学習させる際に用いられるアルゴリズム。このアルゴリズムの目的は、ニューラルネットワークの予測値と実際の値との誤差を最小化することであり、そのためにネットワーク内の各パラメータ(重みとバイアス)を調整する。バックプロパゲーションの手順は、まずニューラルネットワークに入力データを与えて予測値を計算する。次に、予測値と実際の値との誤差を求め、この誤差をネットワークにフィードバックする。この際、誤差をネットワークの出力層から入力層に向かって逆伝播させ、各層の重みとバイアスの勾配を計算する。最後に、勾配降下法や確率的勾配降下法などの最適化手法を用いてパラメータを更新する。

オートエンコーダ(自己符号化器)
入力データを一度圧縮して次元数を下げ、その後再び元の次元数に戻して出力するようなニューラルネットワークである。このネットワークの目的は、入力と出力ができる限り同じになるように学習することで、データの内在する構造や特徴を抽出し、圧縮された表現を得ることである。オートエンコーダは主に二つの部分から構成される。一つ目は「エンコーダ」で、入力データを低次元の潜在空間にマッピングする役割を果たす。二つ目は「デコーダ」で、潜在空間から元の次元数に戻すための逆変換を行う。ネットワークは、入力データの再構成誤差を最小化するように学習される。

ILSVRC
ImageNet Large Scale Visual Recognition Challengeの略であり、2010年より始まった画像認識の精度を競い合う競技会。2012年、ジェフリーヒントン率いるトロント大学のチーム(SuperVision)がAlexNet(パラメータ数:60,000,000)がディープラーニングを用いて優勝。これを受けて、第3次ブームに発展した。
2012年以前のILSVRCで、画像認識に機械学習を用いることは既に常識になっていたが、機械学習で用いる特徴量を決めるのは人間だった。2012年以降のILSVRCのチャンピオンは全てディープラーニングを利用しており、2015年に人間の画像認識エラーである4%を下回った。

特徴量
分析すべきデータや対象物の特徴・特性を、定量的に表した数値。連続的な数値データやカテゴリデータ、テキストデータ、画像データなど、さまざまな形式のデータから抽出できる。各種データに対応する特徴抽出手法が存在し、それらを適切に適用することで、モデルの学習に適した形式の特徴量が得られる。特徴量の選択や抽出は、モデルの性能向上や計算効率の改善に直接影響するため、特徴量エンジニアリングというプロセスが必要である。特徴量選択や次元削減の手法も、特徴量エンジニアリングの一部であり、データの冗長性やノイズを排除し、計算コストを削減しながらモデルの性能を向上させる効果がある。

次元の呪い
数学者リチャード・ベルマンによって提唱された概念。データの次元数が大きくなり過ぎると、そのデータで表現できる組み合わせが飛躍的に多くなってしまい、サンプルデータでは十分な学習結果が得られなくなることを「次元の呪い」という。この問題に対処するために、次元削減や特徴選択の手法が用いられる。
一方で、副次的な次元を増やすことにより識別力を向上させることが可能な場合が存在し、そのことを「次元の祝福」と呼ぶ。適切な特徴量を追加することで、データの解釈やモデルの予測精度が向上する効果が期待できる。

パターン認識
画像や音声など膨大なデータから一定の特徴や規則性のパターンを識別して取り出す処理のこと

特徴抽出
データからその特徴量を取り出す処理のこと。ディープラーニングではこの処理が自動で行われるが、登場以前は人間の手によって行われていた。しかし、ディープラーニングの発展により、特徴抽出が自動で行われるようになり、モデルの精度が大幅に向上した。ディープラーニングでは、多層ニューラルネットワークの隠れ層が特徴抽出の役割を果たす。画像の関心部分をコンパクトな特徴ベクトルとして効率的に表現する一種の次元削減とも言える。特徴抽出の手法は、画像データの場合、エッジ検出やテクスチャ特徴、色の統計情報などを利用していた。音声データの場合、メル周波数ケプストラム係数(MFCC)やゼロクロッシングレートなどが用いられる。

OCR(Optical Character Recognition/Reader)
手書きや印刷された文字を、スキャナによって読みとり、コンピュータが利用できるデジタルの文字コードに変換する技術。OCR技術の発展により、高速かつ正確な文字認識が可能となっており、さまざまな業界やアプリケーションで利用されている。例えば、ビジネスでは、書類の電子化やデータ入力の効率化に役立ち、図書館やアーカイブでは、古い文献や資料のデジタル化に用いられる。最近のOCRシステムは、機械学習やディープラーニングを活用し、複雑なフォントや手書き文字、さらには多言語にも対応している。

3. 人工知能分野の問題

3.1 人工知能分野の問題

キーワード
トイ・プロブレム、フレーム問題、チューリングテスト、強い AI と弱いAI、シンボルグラウンディング問題、身体性、知識獲得のボトルネック、特徴量設計、シンギュラリティ、ローブナーコンテスト、中国語の部屋、機械翻訳、ルールベース機械翻訳、統計学的機械翻訳、特徴表現学習

購入方法のご案内

・codocはWEBサイト上でコンテンツ販売を可能にするための、決済機能を含んだコンテンツ配信サービスです。

・codocに関する詳細はこちらのリンクをご覧ください。

Read more
Remaining: 179688charactors Images x17
codoc-icon
【G検定まとめ2024】試験当日も使える! 要点整理&試験対策カンペ
980円