ITとかCockatielとか

技術のこととか。飼鳥(オカメインコ)のこととか。気になったこととか。基本的には備忘録。

【資格試験対策】ディープラーニングG検定【キーワード・ポイントまとめ】

ディープラーニングG検定

last update : 2020/6/9

はじめに

1.📘人工知能(AI)とは(人工知能の定義)

AIの定義

  • 専門家の間で共有されている定義はない。
  • 人工知能であるかどうかは「人によって違う」。
  • 定義の例
    • 「推論、認識、判断など、人間と同じ知的な処理能力を持つ機械(情報処理システム)」
    • 🎩松尾豊
      「人工的につくられた人間のような知能、ないしはそれをつくる技術」
    • 🎩アーサー・サミュエル
      「明示的にプログラムしなくても学習する能力をコンピュータに与える研究分野」
    • 「周囲の状況(入力)によって行動(出力)を変えるエージェント(プログラム)」という定義もある。

人工知能レベル

レベル 説明
レベル1 シンプルな制御プログラム。
ルールベース
レベル2 古典的な人工知能
探索・推論を行う。知識データを利用する。
レベル3 機械学習を取り入れた人工知能
多くのデータから入力・出力関係を学習する。
レベル4 ディープラーニングを取り入れた人工知能
特徴量による学習を行う。

AI効果

人工知能の原理がわかると「単純な自動化である」とみなしてしまう人間の心理のこと。

ロボットとの違い

  • 人工知能では「考える」という、目に見えないものを中心に扱っている。
  • 人工知能ではロボットの「脳の部分」を扱っている。(脳だけ、というわけではない)
  • ロボットの研究者は人工知能の研究者というわけではない。

歴史

✅ 💻ENIAC

ENIAC

ダートマス会議

✅ 第1次AIブーム

  • 推論・探索が中心。
  • トイ・プロブレム(おもちゃの問題)は解けても、現実の問題は解けないことが判明。

⇒ 失望へ

✅ 第2次AIブーム

⇒ 失望へ

✅ 第3次AIブーム

2.📘人工知能をめぐる動向

2-1.📘探索・推論

✅ 探索木

  • 幅優先探索
    最短距離の解が必ずわかる。すべてを記憶するためメモリ容量が必要。
    幅優先探索
  • 深さ優先探索
    メモリは少なめでよいが、最短距離が必ずわかるわけではない。
    深さ優先探索

ハノイの塔

  • Wikipedia
  • 以下のルールに従ってすべての円盤を右端の杭に移動させられれば完成。
    • 3本の杭と、中央に穴の開いた大きさの異なる複数の円盤から構成される。
    • 最初はすべての円盤が左端の杭に小さいものが上になるように順に積み重ねられている。
    • 円盤を一回に一枚ずつどれかの杭に移動させることができるが、小さな円盤の上に大きな円盤を乗せることはできない。

ハノイの塔

✅ ロボットの行動計画

  • プランニング(Wikipedia-自動計画
    • オフラインプランニング・静的プランニング
      周囲の状況が既知で、その構造がよく理解されている場合に、行動の計画や戦略をあらかじめ組み立てて(計算して)おくこと。
    • オンラインプランニング・動的プランニング
      未知の環境において、周囲の状況が明らかになるにつれて行動の計画や戦略を修正すること。
    • リプランニング
      計画・戦略を修正すること。
  • STRIPS
    • Stanford Research Institute Problem Solver
    • 自動計画に関する人工知能の一種。
    • 前提条件、行動、結果を記述する。
  • SHRDLU

ボードゲーム

  • 1996年、💻**IBM DeepBlue(ディープブルー)。「力任せの探索」だったが、チェスの世界チャンピオンを破った。

    力まかせ探索(Brute-force search)またはしらみつぶし探索(Exhaustive search)は、単純だが非常に汎用的な計算機科学の問題解決法であり、全ての可能性のある解の候補を体系的に数えあげ、それぞれの解候補が問題の解となるかをチェックする方法である。(引用

  • 2012年、💻ボンクラーズ が将棋において永世棋聖に勝利。
  • 2013年、💻ponanza が将棋において現役プロ棋士に勝利。
  • 2016年、💻AlphaGo(アルファ碁)が韓国のプロ棋士に勝利。
  • 2017年、💻elmo が世界コンピュータ将棋選手権において ponanza に勝利。elmo 同士の対戦を行うことで学習を行った。

✅ コスト

✅ Mini-Max法

  • Wikipedia
  • ゲーム戦略で利用される。
  • 想定される「最大の損害」が最小になるように決断を行う戦略のこと。
  • 自分の番はスコア最大、相手の番はスコア最小になるような戦略をとる。
  • この手法は全探索を行うため効率が悪い。

✅ α-β法

  • wikipedia
  • Mini-Max法の応用アルゴリズム
  • 読む必要のない手を打ち切ることで高速化を図っている。
  • αカットは関心範囲の最小値のカット、βカットは最大値のカットを行う。

モンテカルロ法

  • 特徴:
    プレイアウト(ゲームを一度終局までもっていく)の結果、どの方法が一番勝率が高いかを評価する。
  • デメリット:
    ブルートフォース(力任せな方法)のため、組合せが多いと計算しきれない。

2-2.📘知識表現

✅ 💻ELIZA(イライザ)

  • 1966年、🎩ジョセフ・ワイゼンバウム
  • 人工無能」の元祖。精神科セラピストを演じた。
  • パターンに合致したら返答する「ルールベース」である。
  • その後開発された💻PARRYと会話した記録が残されており(RFC439)、中でもICCC1972が有名。

ELIZA

✓ イライザ効果

あたかも本物の人間と話しているように錯覚すること。

✅ 💻エキスパートシステム

✓ 💻DENDRAL

質量分析法とは、分子をイオン化し、そのm/zを測定することによってイオンや分子の質量を測定する分析法である。(引用)。

✓ 💻マイシン(MYCIN)
  • 1970年、スタンフォード大学
  • ルールベースで血液中のバクテリアの診断支援を行った。
  • 正解確率の高い細菌名のリスト、信頼度、推論理由、推奨される薬物療法コースを示した。
  • 精度は専門医の80%に対し、69%であった。

✅ 意味ネットワーク

  • semantic network
  • 人間の記憶の一種である意味記憶の構造を表すためのモデル。
  • 単語同士の意味関係をネットワークによって表現する。
  • 概念を表す節(ノード)と、概念の意味関係を表す辺(エッジ)からなる、有向グラフまたは無向グラフである。

無向グラフのエッジには方向性がありません。エッジは "双方向" の関係を示します。 有向グラフのエッジには方向性があります。エッジは "一方向" の関係を示します。(引用

semantic network

✅ Cycプロジェクト

  • 1984年、🎩ダグラス・レナート。
  • すべての一般知識を取り込もうという活動。
  • 2001年からはOpenCycとして公開されている。
  • https://www.cyc.com/

オントロジー(ontology)

  • wikipedia
  • 🎩トム・グルーバーが提唱。
  • 知識を体系化する方法論で、「概念化の明示的な仕様」(知識を記述するための仕様)と定義されている。
  • 知識の形式表現であり、あるドメインにおける概念間の関係のセットである。
  • is-a 関係(上位概念、下位概念、推移律)、part-of 関係を用いる。
セマンティックウェブ
  • Wikipedia
  • W3C の🎩ティム・バーナーズ=リーによって提唱されたプロジェクト。
  • ウェブページの意味を扱うことができる「標準」や「ツール群」の開発により、ワールド・ワイド・ウェブの利便性を向上させようというもので、オントロジーを利用する。
  • プロジェクトの目的は、ウェブページの閲覧という行為(データ交換)に対し、意味の疎通を付け加えることにある。
  • 情報リソースに意味を付与することで、コンピュータで高度な意味処理を実現したり、文書の意味に即した処理が行えるようにする。
✓ ヘビーウェイトオントロジー(重量オントロジー
  • 人間が厳密にしっかりと考えて知識を記述していくアプローチ。
  • 構成要素や意味的関係の正統性については、哲学的な考察が必要。
✓ ライトウェイトオントロジー(軽量オントロジー
  • コンピュータにデータを読み込ませ、自動で概念間の関係性を見つけるアプローチ。
  • 完全に正でなくても使えればOKと考える。
  • ウェブマイニングデータマイニングで利用される。

ウェブマイニング(web mining)とは、ウェブサイトの構造やウェブ上のデータを利用して行うデータマイニングのことである。(引用

データマイニング(Data mining)とは、統計学パターン認識人工知能等のデータ解析の技法を大量のデータに網羅的に適用することで知識を取り出す技術のことである。(引用

✅ 💻ワトソン

Watson

✅ 💻東ロボくん

2-3.📘機械学習

✅ 💻レコメンデーションシステム

  • 協調ベースフィルタリング

    • ユーザーの購買履歴からおすすめを表示するアプローチ。
    • ユーザーの行動をもとにレコメンドする。
  • 内容ベースフィルタリング

    • アイテムの特徴をもとにおすすめを表示するアプローチ。
    • 検索キーワードに関連する類似アイテムをレコメンドする。
    • アイテムの特長ベクトルをもとにレコメンドである。

2-4.📘深層学習(ディープラーニング

✅ 💻SuperVision

  • 2012年、トロント大学、🎩ジェフリー・ヒントン
  • ILSVRC(Imagenet Large Scale Visual Recognition Challenge)2012 で勝利した。
  • エラー率は26%台から15.3%へ劇的に改善。
  • その後、2015年に人間の認識率(約5.1%)を抜いた。
  • AlexNet(畳み込みニューラルネットワーク、CNN)を採用。
  • 前年度まではサポートベクターマシンが主流だったが、ここからCNNに切り替わったことになる。

3.📘人工知能分野の問題

3-1.📘トイプロブレム(おもちゃの問題)

  • ルールが決まっている問題(迷路、オセロなど)は解けても、現実世界に存在する複雑な問題は解けないという問題。

3-2.📘フレーム問題

  • Wikipedia
  • 1969年、🎩ジョン・マッカーシーと🎩パトリック・ヘイズが提唱。
  • 人工知能における重要な難問の一つ。
  • 有限の情報処理能力しかないロボットには、現実に起こりうる問題全てに対処することができない。
  • 🎩ダニエル・デネット
    考えすぎて何も解決できないロボットを例示し、フレーム問題の難しさを伝えた。

3-3.📘強いAI・弱いAI

  • 🎩ジョン・サールが提唱。
  • 強いAI
    人間のような心、自意識を持つAI。
  • 弱いAI
    便利な道具であればよいという考え方によるAI。

✅ 汎用AI、特化型AI

  • 汎用AI
    フレーム問題を打ち破るAIのことで、人間のように様々な課題に対処することができる。
  • 特化型AI
    フレーム問題を打ち破っていないAIのこと。

中国語の部屋

  • 🎩ジョン・サールが論文で発表した。
  • 強いAIは実現不可能だという思考実験。

中国語を理解できない人を小部屋に閉じ込めて、マニュアルに従った作業をさせるという内容。チューリング・テストを発展させた思考実験で、意識の問題を考えるのに使われる。(引用

✅ 🎩ロジャー・ペンローズ

  • イギリス生まれの数学者、宇宙物理学・理論物理学者。
  • 「量子効果が絡んでいるため強いAIは実現できない」と主張した。

3-4.📘身体性

  • 知能の成立には身体が不可欠であるという考え方。
  • 物理的な身体により外部環境との相互作用を行うことができる。
  • しかし、GoogleFacebookの研究スピードでは、身体性の研究をすっ飛ばして概念獲得や意味理解ができてしまう可能性もある。

3-5.📘シンボルグラウンディング問題

  • 🎩スティーブン・ハルナッド。
  • 記号(シンボル)と現実世界の意味はどのようにして結びつけられるのかという問題。
  • 外部世界を内部化(記号化、シンボル化)した時点で、外界との設置(クラウディング)が切れてしまうという問題。

✅ 知識獲得のボトルネック

  • 人間が持っている知識は膨大であり、それらを獲得することは困難である。
  • 特にエキスパートシステムの開発において問題となった。

✅ ニューラル機械翻訳

「ルールベース機械翻訳RMT:Rule Based Machine Translation)」は、登録済みのルールを適応することで原文を分析し、訳文を出力する機械翻訳の方法です。
「統計的機械翻訳(SMT:Statistical Base Machine Translation)」は、コンピュータに学習用の対訳データを与え、統計モデルを学習させることで訳文を出力させる方法です。(引用

seq2seq
  • 再帰ニューラルネットワーク(RNN)を使った文の生成モデル。
  • 時系列データを入力し、時系列データを出力する。
  • 別の言語に置き換えたり(翻訳)、質問を回答に置き換えたり(質問・回答)できる。

3-6.📘特徴量設計

  • モデルの性能は、注目すべきデータの特徴(特徴量)の選び方により決定づけられるが、それを人間が見つけ出すのは難しい。
  • 機械学習自身に発見させるアプローチを特徴表現学習という。

3-7.📘チューリングテスト

✅ ローブナーコンテスト

3-8.📘シンギュラリティ(技術的特異点

  • 🎩レイ・カーツワイルの著書で提唱された。
    • 2029年:人工知能が人間よりも賢くなる
    • 2045年:シンギュラリティの到来(2045年問題ともいわれる)
  • 「収穫加速の法則」により「強いAI」が実現され、人間には予測不可能な変化が起こるとされている。
✓ 収穫加速の法則
  • Wikipedia
  • レイ・カーツワイルが提唱した経験則。
  • 一つの重要な発明が他の発明と結び付くことで、次の重要な発明の登場までの期間を短縮する。これによりイノベーションの速度が加速され、科学技術は直線的ではなく指数関数的に進歩するというもの。
✓ シンギュラリティに関する発言等
氏名 発言等
🎩レイ・カーツワイル 「シンギュラリティは2045年に到来する」
🎩ヒューゴ・デ・ガリ 「シンギュラリティは21世紀の後半に来る」
🎩オレン・エツィオーニ 「シンギュラリティの終末論的構想は馬鹿げている
🎩ヴィーナー・ヴィンジ 「機械が人間の役に立つふりをしなくなること」
🎩スティーブン・ホーキング 「AIの完成は人類の終焉を意味するかもしれない」
🎩イーロン・マスク 危機感を持ち非営利のAI研究組織 OpenAI を設立。
OpenAI Gym(強化学習のシミュレーション環境)を発表。

4.📘機械学習の具体的手法

4-1.📘代表的な手法

教師あり学習

✓ 回帰問題
  • 線形回帰:
  • ラッソ回帰:
    • lasso regression
    • Wikipedia
    • 直線回帰に正則化項の概念を加えた回帰分析。
    • 最小二乗法の式に正則化項(L1ノルム)を加え、その最小を求めることでモデル関数を発見する。
    • Lasso:自動的に特徴量の選択が行われる。不要なパラメータを削減できる。
  • リッジ回帰:
    • ridge regression
    • 直線回帰に正則化項の概念を加えた回帰分析。
    • 最小二乗法の式に正則化項(L2ノルム)を加え、その最小を求めることでモデル関数を発見する。
    • Ridge正則化:特徴量選択は行わないが、パラメータのノルムを小さくおさえる。(=過学習をおさえる)
  • 参考
✓ 単回帰分析・重回帰分析
  • 単回帰分析
    ひとつの説明変数により、ひとつの目的変数を予測するもの。
  • 重回帰分析
    複数の説明変数から、ひとつの目的変数を予測するもの。
✓ 重回帰分析の注意事項
✓ 分類問題
  • ロジスティック回帰
    • logistic regression
    • 重回帰分析により対数オッズを予測し、ロジット変換(正規化)によりクラスに属する確率を求める。
    • 最小化を行う関数として尤度関数(ゆうどかんすう)が用いられる。
    • 用語 : 正例、負例、閾値
    • シグモイド関数 : 2分類で利用
    • ソフトマックス関数 : 複数分類時に使用
  • ランダムフォレスト
    • random forest
    • ブートストラップサンプリングにより、アンサンブル学習を行う。
    • バギングに該当する。
  • バギング
    • データ全体からランダムに一部データを用いて、複数のモデルを作る(学習する)方法。並列処理になる。
  • ブースティング(boosting)
    • 一部のデータを繰り返し抽出し、複数のモデルを学習させる。
    • 逐次処理のため、ランダムフォレストより時間がかかる。
    • AdaBoost、勾配ブースティング、XgBoost
  • サポートベクターマシン
    • コンセプトはマージンの最大化を行うこと。
    • スラック変数
      • 誤分類を許容する工夫をする、線形分離不可能なデータのマージンを最大化する。
    • カーネル法
    • カーネルトリック
      • 写像の際に計算が複雑にならないように式変形するテクニック。計算量を大幅に削減する。
  • ニューラルネットワーク

★TODO:詳細化★

教師なし学習

k-means法
主成分分析(PCA)
  • 次元削減の手法のひとつ。
  • 寄与率:各成分の重要度がわかる。
  • 主成分:各成分の意味を推測できる。

強化学習

  • エージェントの目的は収益(報酬・累積報酬)を最大化する方策を獲得すること。
  • エージェントが行動を選択することで状態が変化し、最良の行動を選択する行為を繰り返す。

4-2.📘データの扱い

  • 訓練データ、テストデータ
  • 訓練データ、検証データ、テストデータ・・・検証データで一度パラメータを更新し、テストデータで再評価。
  • 交差検証
  • ホールドアウト検証:たとえば7対3でデータを分ける
  • k-分割交差検証:テストデータを順次入れ替える

✅ 欠損値処理

✓ リストワイズ法
  • 欠損があるサンプルをそのまま削除する方法。
  • 欠損に偏りがある場合はデータの傾向を変えてしまうので注意が必要。
✓ 回帰補完
  • 欠損しているある特徴量と相関が強い他の特徴量が存在している場合に有効。

✅ カテゴリデータ

マッピング

順序を持つデータの場合、数値の辞書型データにマッピングする。

✓ ワンホットエンコーディング

順序を持たないデータの場合、各カテゴリごとにダミー変数を割り当てる。

4-3.📘応用・評価指標

✅ 混同行列

  • 正解率(全体の精度を上げたい場合)
  • 適合率偽陽性を削減したい場合)
  • 再現率偽陰性を削減したい場合)
  • F値(適合率と再現率の調和平均)

✅ オーバーフィッティング、アンダーフィッティング

正則化

  • 訓練誤差ではなく、汎化誤差を小さくするための手法。オーバーフィッティグを防止する。
  • L1正則化:ラッソ回帰、一部パラメータをゼロにする(スパースする)。
  • L2正則化:リッジ回帰、パラメータの大きさに応じてゼロに近づける、パラメータのノルムにペナルティを課す。
  • 上記組合せ:Elastic Net

5.📘ディープラーニングの概要

5-1.📘ニューラルネットワークディープラーニング

✅ 単純パーセプトロン

  • 線形分類しかできない。

✅ 多層パーセプトロン

  • 多層化することで、非線形分類が出来るようになった。

ディープラーニング

  • 概念としては1960年代には既に存在していた。
  • 特徴
  • 検証方法
    • 通常はデータ量が多いため、ホールドアウト検証でよい(十分である)。
  • 問題
    • オーバーフィッティング(過学習)しやすい。(但し、精度に特別バラつきが出やすいというわけではない。)
    • 勾配消失問題を起こしやすい。
    • 事前に調整すべきパラメータ数が非常に多い。

✅ 用語

5-2.📘既存のニューラルネットワークにおける問題

  • 課題
    • 隠れ層を増やすと誤差(誤差逆伝播)が最後まで正しく反映されない。(=入力層付近で学習が進まなくなる)
  • 理由
    • シグモイド関数導関数の最大値が0.25のため、伝播させる誤差がどんどん小さくなってしまう。(勾配消失問題
      → 対策が必要!

5-3.📘ディープラーニングのアプローチ

✅ オートエンコーダ(autoencoder、自己符号化器)

  • 🎩ジェフリー・ヒントンが提唱。
  • 入力と出力が同じになるニューラルネットワーク。(=正解ラベルが入力と同じ)
  • 次元削減が行える。

✅ 積層オートエンコーダ

  • オートエンコーダを積み重ねて、逐次的に学習させる(事前学習)ことで重みを調整する

✅ ファインチューニング

  • 積層オートエンコーダにロジスティック回帰層(あるいは線形回帰層)を追加し、仕上げの学習を行う。

✅ 深層信念ネットワーク(参考

  • 🎩ジェフリー・ヒントンが提唱。
  • 確定的モデルに分類される。(深層ボルツマンマシンは確率的モデルに分類される)
  • 隠れ層の数が多いニューラルネットワークで、効率の良い近似学習手法を提案した。
  • 具体的には、教師なし学習による事前学習(制限付きボルツマンマシン)により効率的な学習を実現。
  • ※ボルツマンマシン(参考
    ヒントンらによって開発された、確率的に動作するニューラルネットワーク。ネットワークの動作に温度の概念を取り入れ、最初は激しく徐々に穏やかに動作する(擬似焼きなまし法)ように工夫している。

✅ 現状

  • 事前学習は計算コストが非常に高いので今は使われておらず、活性化関数を工夫することで解決している。

5-4.📘CPU と GPU

✅ CPU

  • Central Processing Unit、中央演算処理装置

GPU

  • Graphics Processing Unit
  • リアルタイム画像処理に特化した演算装置。
  • GPGPU
    • General-Purpose computing on GPU
    • 画像以外の目的に最適化されたGPU
  • NVIDIA
  • Google
    • TPU(Tensor Processing Unit)、テンソル計算に最適化されたもの。
    • 分散並列技術であるDistBeliefもGoogleにより提案されたものである。

5-5.📘ディープラーニングにおけるデータ量

✅ バーニーおじさんのルール

モデルのパラメータ数の10倍のデータ数が必要。

✅ 次元の呪い

データの次元が増えることにより、様々な不都合が生じる法則のこと。

✅ その他の機械学習に関する定理

  • ノーフリーランチ定理
    あらゆる問題に対して万能なアルゴリズムは存在しない。

  • みにくいアヒルの子定理
    機械学習で、「普通のアヒル」と「みにくいアヒル」を見分けることはできない。
    認知できる全ての客観的な特徴に基づくと全ての対象は同程度に類似している、つまり特徴を選択しなければ表現の類似度に基づく分類は不可能である、ということ。

  • モラベックのパラドックス
    機械にとっては、高度な推論より1歳児レベルの知能・運動スキルを身に着ける方が難しい。

ディープラーニングフレームワーク

フレームワーク 概要
Tensorflow Google社が開発。
プログラムによりネットワークを記述する。
※設定ファイルによりネットワークを記述 : Caffe, CNTK
Keras Google社が開発。
プログラムによりネットワークを記述する。
※設定ファイルによりネットワークを記述 : Caffe, CNTK
Chainer Preferred Networks が開発。
Define-by-Runという形式を採用しており、
データを流しながらニューラルネットワークを構築する。
※構築後の実行はDefine-and-Runといわれる。
※プログラムによりネットワークを記述する。
2019年12月、開発を終了しPyTorchに移行すると発表。
PyTorch Wikipedia
Chainerから派生。Facebookが開発。

🎩ヨシュア・ベンジオ

  • ディープラーニングの父のひとりといわれる。
  • 人間の知識では気づくことが出来ない共通点のことを「良い表現」としている。
    • 複数の説明変数の存在
    • 時間的空間的一貫性
    • スパース性
  • ディープラーニングのアプローチとして以下に着目している。
    • 説明変数の階層的構造
    • タスク間の共通要因
    • 要因の依存の単純性

6.📘ディープラーニングの手法

6-1.📘活性化関数

  • シグモイド関数以外にもいろいろある。
  • 出力層はシグモイド関数またはソフトマックス関数で確率を表現する必要がある(制約事項)、しかし隠れ層は工夫ができる。
  • ソフトマックス関数:各ユニットの出力の総和を1に正規化する機能がある

tanh関数(ハイパボリックタンジェント関数):双曲線正接関数

  • シグモイドの値の範囲は0~1だが、この関数は-1~1である。
  • 微分のMAX値について、シグモイド関数の 0.25 に対し、この関数は 1 になるため勾配が消失しづらい

✅ ReLU関数(Rectified Linear Unit):正規化線形関数

  • 特徴
    • 現在、最もよく使われている。
    • xが1より大きい場合、微分値が1になるため、勾配消失しにくい
    • xが0以下の場合は微分値が0になるため、学習がうまくいかない場合もある。
  • 派生
    • Leaky ReLU関数 0以下でもわずかな傾きを持たせることで微分値を0にしない。
    • Parametric ReLU 、 Randomized ReLU などもある
    • どれが一番よいと一概には言えない。

過学習

  • 訓練誤差は小さいが、汎化誤差が大きい状態。

6-2.📘学習率の最適化

  • 損失関数を最小にすることが目標。
  • 微分偏微分)により最小を求めたいが、多次元なので難しい。(計算量が多くなってしまう)

✅ 勾配降下法

  • 微分値(傾き)を下っていくことで最適化する。パラメータごとに行う。
  • ハイパーパラメータ
    • イテレーション:繰り返し計算の数
    • 学習率:ハイパーパラメータ、勾配に沿って一度にどれくらい下るか
  • 具体例
    • バッチ勾配降下法
    • ミニバッチ勾配降下法:学習データから複数(バッチサイズ)を選択し誤差を計算&パラメータ更新
    • 確率的勾配降下法SGD):学習データから1つを選択し誤差を計算&パラメータ更新

✅ 勾配降下法の問題と改善

  • 局所最適解にはまり、大域最適解が求められない場合がある。
  • 学習率の値を大きくすることで抜け出せるが、適宜値を小さくしていく必要がある。
  • 2次元の場合は停留点、3次元の場合は鞍点(あんてん)にはまることもある。
  • はまった状態をプラトーという。次元が高いほど発生しやすい。
  • プラトーを抜け出す方法としてモーメンタム、AdaGrad、Adadelta、RMSprop、Adamなどがある。
    現在はRMSprop、Adamが利用される。(参考
✓ モーメンタム(Momentum、慣性)
  • 以前に適用した勾配の方向を、現在のパラメータ更新にも影響させる。(慣性を効かせる)
✓ AdaGrad
  • 学習率をパラメータに適応させることで自動的に学習率を調整する。
  • 稀なパラメータに対しては大きな更新、頻繁なパラメータに対しては小さな更新を行う。
  • 具体的には、勾配を二乗した値を蓄積し、すでに大きく更新されたパラメータほど更新量(学習率)を小さくする。
  • 課題 : 更新量が飽和したパラメータは更新されなくなる。
✓ Adadelta
  • AdaGradの発展形
  • 急速かつ単調な学習率の低下防止をはかったモデル。
✓ RMSprop
  • AdaGradの発展形
  • 急速かつ単調な学習率の低下防止をはかったモデル。
  • Adadeltaと同時期に提唱された、ほぼ同様の内容。
  • 指数移動平均を蓄積することにより解決をはかったモデル。
✓ Adam
  • それぞれのパラメータに対し学習率を計算し適応させるモデル。
  • 勾配の平均と分散をオンラインで推定した値を利用する。

6-3.📘更なるテクニック

更に精度を高めるためのテクニックがある。

ドロップアウト

✅ early stopping

  • 学習を早めに打ち切ることで、ディープラーニングのオーバーフィッティング対策を行う。
  • どんな手法でも使えるため、非常に強力である。

✅ データの正規化・重みの初期化

✓ データの正規化

データの途中処理ではなく、始めの工夫も必要かつ有効である。

  • 正規化(Normalization、≒Scaling)
    スケールを合わせることで、学習時の収束を早める。
    一番簡単なのは各特徴量を 0~1 の範囲に変換すること。(LASSOなど)

  • 正則化(Regularization)
    過学習の回避を目的とする。
    正則化項を追加することで、値の偏りを防止する。

  • 標準化
    標準積分布(平均0、分散1)にする。

  • 白色化
    各特徴量を無相関化したうえで標準化する、計算コストが高い

  • 局所コントラスト正規化
    減算正規化と除算正規化の処理を行う。画像処理で利用される。

✓ 重みの初期化
  • ディープニューラルネットワークでは伝播を経て分布が崩れるため、上記手法が有効に働かない場合がある。
  • 重みの初期値を工夫することで解決をはかることができる。
  • 乱数にネットワークの大きさを合わせた適当な係数をかけることにより、データ分布の崩れにくい初期値が考案されている。
ベイズ最適化
  • ハイパーパラメータを含めた最適化問題とすることで、効率的なチューニングができる。
✓ スパースなデータ
  • 疎なデータ。スパース性を用いて計算量を削減するといった工夫がなされる。

✅ バッチ正規化

  • 各層に伝わってきたデータを、その層でまた正規化するアプローチ。
  • データの正規化、重みの初期化と比較し、より直接的な手法となる。
  • 非常に強力な手法で学習がうまくいきやすく、オーバーフィッティングしにくい。
  • 学習が進むにつれて入力が変化する内部共変量シフトに対応することができる。(出力の分布の偏りを抑制する)
  • 内部共変量シフト:
    入力の分布が学習の途中で大きく変わってしまう問題。

✅ End to End Learning(一気通貫学習)

6-4.📘CNN(畳み込みニューラルネットワーク

  • 特徴
    • 画像(2次元)をそのまま入力にできる。
    • 人間がもつ視覚野の神経細胞(単純型細胞 S細胞、複雑型細胞 C細胞)を模している。
    • 順伝播型ニューラルネットワークの一種で、時系列データの分析でも使える。
  • ネオコグニトロン
    • 🎩福島邦彦が考案。
    • 上記を組み込んだ最初のモデルで多層構造になっている。
    • 学習方法は add-if silentであり 、微分(勾配計算)を用いない。
  • LeNet
    • その後の1998年、🎩ヤン・ルカンFacebookに招かれた研究者、「MNIST」の作成者)によって考案されたモデル。
    • ネオコグニトロンと基本的には同じ。
    • 畳み込み層プーリング層(サブサンプリング層)による複数組合せ構造。
    • 誤差逆伝播が使われる。

✅ 畳み込み層

  • フィルタ(カーネルにより画像の特徴を抽出する操作。
  • ストライド:フィルタを移動させる刻み。
  • フィルタを通して特徴マップを得る、フィルタの各値が重みにあたる。
  • 畳み込みは移動不変性の獲得に貢献、位置ずれの強いモデルが作れる。
  • パラメータ数は全結合層よりも少ない。重み共有により有用な特徴量を画像の位置によって大きく変化させないためである。

✅ プーリング層

  • 決められた演算を行うだけの層。(ダウンサンプリング、サブサンプリング)
  • そのため、学習すべきパラメータはない。
✓ maxプーリング
  • 2×2ごとに画像(特徴マップ)の最大値を抽出していく。
avgプーリング
  • 平均値をとる。平均プーリング。
✓ Lpプーリング

✅ 全結合層

  • 分類のためには出力を1次元にする必要があ。全結合層によりデータをフラットにする。
  • 最近の傾向:
    全結合層を用いない方法が増えており、1つの特徴マップに1つのクラスを対応させる Global Average Pooling がほとんどになっている。

✅ データ拡張

  • 課題:
    同じ物体でも「明るさ」「角度」「大きさ」などにより見え方が異なる。
  • 対応:
    データ拡張(データの水増し)を行う。
    → ずらす、反転、拡大・縮小、回転、歪め、切り取り、コントラスト変更 など
  • 注意点:
    データ拡張により意味の変わってしまう画像がある。(ex.いいねマークを逆さまにすると違う意味)

✅ CNNの発展形

  • AlexNetの場合(基準として)
    (畳み込み+プーリング)×3層 の構造をとる。

  • VGG(VGG16教師あり学習),GoogLeNet
    AlexNetよりも深いモデルになっている。

  • 課題①
    層を深くすると計算が大変

  • 工夫①

    • 小さなサイズの畳み込みフィルタにより次元(計算量)を削減する。
    • GoogLeNet : Inceptionモジュールというブロックを構成することで、並列計算を行いやすくする。
    • VGG16 : 2014年、GoogleNetに劣らない精度をたたき出した。オックスフォード大学による。
  • 課題②
    超深層になると誤差の逆伝播がしづらくなるため、逆に性能が落ちる。

  • 工夫②
    Skip Connection : 層を飛び越えた結合を加える。

  • ResNet
    Skip Connection を導入したモデル、伝播しやすくアンサンブル学習にもなる。
    入力層から出力層まで伝播する値と入力層の値を足し合わせたモデルである。
    入力層まで勾配値がきちんと伝わるようになり、1000 層といったかなり深い構造でも学習が可能となった。
    2015 年の ILSVRC では人間の成績を上回る成果をあげている。

  • ILSVRCのモデル推移
    image.png http://image-net.org/challenges/talks_2017/ILSVRC2017_overview.pdf

6-5.📘RNN(リカレント ニューラルネットワーク

  • 特徴

    • 時間情報を反映できるモデル。隠れ層に時間情報(過去の情報)を持たせることができる。
    • 特徴は前回の中間層の状態を隠れ層に入力する再帰構造を取り入れたこと。
    • BackPropagation Through-Time(BPTT) : 時間軸に沿って誤差を反映していく。
    • 自然言語処理でもよく用いられる。
    • 再帰ニューラルネットワークで、閉路がある。
  • 課題 (参考参考

    • 勾配消失問題
    • 入力重み衝突、出力重み衝突 : 重みが上下して精度が上がらない問題
    • ネットワークにループ構造が含まれるため、中間層が1層でも勾配消失問題が起こる。
  • 解決策
    LSTM手法を使う。

✅ LSTM(Long Short-Term Memory)

  • 時系列データにおいてはデファクトスタンダードGoogle翻訳でも利用されている。
  • 🎩ユルゲン・シュミットフーバーと、ケプラー大学の🎩ゼップ・ホフレイターによる提案。
  • 過去から未来に向けて学習し、遠い過去の情報でも出力に反映できる。
  • 活性化関数の工夫ではなく、隠れ層の構造を変えることで解決する。
  • LSTMブロック機構を適用
    • CEC(Constant Error Carousel) : 誤差を内部にとどまらせ勾配消失を防ぐセル。
    • ゲート : 入力、出力、忘却の3つ。
    • 各重み衝突に対応しつつ、誤差過剰を防止する忘却を持たせる。
  • 機械翻訳画像からのキャプション生成(画像の説明文生成)などにも利用できる。
  • 課題
    • ゲートが多いため計算量が多い

✅ GRU(Gated Recurrent Unit)

  • LSTMの計算量を少なくした手法。
  • リセットゲート、更新ゲートからなる。

✅ RNNの発展形

✓ Bidirectional RNN
  • 未来から過去方向にも学習できるモデル。
✓ RNN Encoder-Decoder
  • 他モデルの問題
    入力は時系列だが出力が一時点になってしまう。

  • 特徴
    出力も時系列である(sequence-to sequence)。
    モデルはエンコーダとデコーダからなる。

✓ Attention
  • 他モデルの問題
    どの時点の情報がどれだけ影響力を持っているかまではわからない。

  • 特徴
    時間の重みをネットワークに組み込んでいる。

  • Attention GAN
    文章から画像を生成することができる。

その他の応用

✅ 転移学習

  • 学習済みのモデルを用いて追加学習を行う。
  • 過学習を抑制することが出来る。

✅ 蒸留

  • 学習済みの大規模モデルの入力と出力を使って新たに学習させる方法。
  • 少ない計算資源で従来と同程度のモデルを作ることが出来る。

6-6.📘深層強化学習

DQN(Deep Q-learning)

  • 強化学習の手法であるQ学習深層学習の組合せ。CNNの一種である。
  • Q関数(=行動価値関数)の最大化を目指す。
  • DeepMind ブロック崩しで採用された。
  • 改良モデル:Double DQN, Dueling Network, Categorical DQN, Rainbow
  • 応用事例:AlophaGo(アルファ碁)

6-7.📘深層生成モデル

ディープラーニングは生成タスクにも応用されている。

✅ 画像生成モデル

✓ VAE(Variable AutoEncoder)
  • 変分オートエンコーダ、変分自己符号化器
  • 変分ベイズ推定法の一種。
  • 入力を統計分布に変換(平均と分散を表現)する。
  • ランダムサンプリングしたものをデコードすると新しいデータが生成できる。
✓ GAN(敵対的生成ネットワーク)
  • 🎩イアン・グッドフェローが提唱。
  • 2種類のネットワーク(ジェネレータ:生成、ディスクリミネータ:識別)で競わせる。
  • 画像生成への応用が顕著である。
  • これ自体はモデルでなくアーキテクチャを指す。
  • これを実装したモデルがDCGAN(Deep Convolutional GAN)
  • 🎩ヤン・ルカンは「機械学習において、この10年で最もおもしろいアイデア」とコメント

7.📘ディープラーニングの研究分野

7-1.📘画像認識

✅ ILSVRC(Imagenet Large Scale Visual Recognition Challenge)

  • 画像認識のコンペティション、課題は位置課題、検出課題の2つ。
  • Imagenet
    • スタンフォード大学がインターネットから収集した画像群。
    • 1400万枚を超える画像を収録したデータベース。
    • 物体名は2万種以上。

✅ AlexNet

  • 2012年、ILSVRCで優勝したSuperVisionでのモデル。
  • 特徴は、ReLU、SRN、データ拡張、2枚のGPU利用。
  • パラメータ数は6千万個にものぼった。(ディープラーニングのパラメータは多い)

✅ R-CNN(Regional CNN)

  • 関心領域の切り出し(一課題)は従来の手法を用いて行う。
    バンディングボックス(物体検出。関心領域を表す矩形領域のこと)を求める回帰問題となる。

  • 検出課題についてはCNNを用いる。

  • 上記組合せは、時間のかかる手法である。

✅ 高速RCNN(fast RCNN)

  • 関心領域の切り出しと物体認識を高速に行う手法。
  • 最初から最後まで深層学習でできるようになった。

✅ faster RCNN

  • 高速RCNNが改良され、ほぼ実時間で処理できるようになったモデル。
  • 16フレーム/秒程度で処理可能。

✅ YOLO(You Only Look at Once)

SSD(Single Shot Detector)

  • YOLOより高速である。
  • Faster RCNNと同等の精度を実現。

✅ セマンティックセグメンテーション

  • R-CNNのような矩形切り出しではなく、より詳細(画素単位)な領域分割を得るモデル。
  • 完全畳み込みネットワーク(FCN)のモデルがあり、すべての層が畳み込み層で構成される。(単体では画像認識を行えない)
  • 同じカテゴリに属する物体はすべて同一ラベルになる。

インスタンスセグメンテーション

  • 同じカテゴリに属する物体でもすべて別ラベルにできる。

✅ 完全畳み込みネットワーク(FCN)

全ての層が畳み込み層。

✅ 画像データの前処理

  • リサイズ、トリミング

  • グレースケール化 カラー画像を白黒画像に変換して計算量を削減する。

  • 平滑化 細かいノイズの影響を除去する。

  • ヒストグラム平均 画素ごとの明るさをスケーリングする。

7-2.📘自然言語処理

✅ 関連ワード

キーワード 概要
言語モデル 「単語の意味は、その周辺の単語によって決まる」
分散表現 記号を計算機上で扱うための方法論。
単語を高次元の実数ベクトルで表現する技術(参考)。
構文解析 文章、具体的にはマークアップなどの注記の入っていないベタの文字列を、
自然言語であれば形態素に切分け、さらにその間の関連(修飾-被修飾など)といったような、
統語論的(構文論的)な関係を図式化するなどして明確にする(解析する)手続きである。
照応解析 照応詞(代名詞や指示詞など)の指示対象を推定したり、
省略された名詞句(ゼロ代名詞)を補完する処理のこと。
談話解析 形態素解析構文解析、意味解析など
1文内の言語要素を対象にした解析とは異なり、
文章中の文と文の間の役割的関係や話題の推移を明らかにするものです。
形態素解析 文を単語に分解し品詞を特定する。
N-gram 文字数ごとに分割する手法参考

✅ bag-of-words

文章に単語が含まれているかどうかを考えて、テキストデータを数値化(ベクトル化)する。

✅ TF-IDF(Term Frequency - Inverse Document Frequency)

文章に含まれる単語の重要度を特徴量とする。

✅ word2vec

  • ベクトル空間モデル、単語埋め込みモデルともいわれる。
  • 2013年、Googleにより開発。
  • 中間層の活性値を単語の意味ベクトルとみなす。
  • 王様-男性+女性=女王 というのが有名。
  • かつては隠れマルコフモデルによって推論が行われていた。
  • スキップグラムCBOWの2つの手法がある。
✓ スキップグラム(Skip-gram)

ある単語を与えて、その周辺の単語を予測する。

✓ CBOW(Countinuous Bag-of-Words)

周辺の単語を与えて、ある単語を予測する。

✅ fastText

  • 🎩トマス・ミコロフらが開発。
  • 単語表現に文字の情報も含めることができる。
  • 訓練データにない単語が作れるようになる。
  • WikipediaCommon Crawlによる157言語の訓練データがある

✅ ELMo

  • 文章表現を得るモデル。

マルチタスク言語処理

マルチタスク学習は単一のモデルで複数の課題を解く機械学習の手法。
自然言語では品詞づけ・文節判定・係り受け・文意関係(補強・反対・普通)・文関係の度合いを同時に学習させる。
参考 AI研究所

✅ ニューラル画像脚注付け

NIC、Neural Image Captioning。
画像認識モデルの全結合直下層の情報を、言語生成用リカレントニューラルネットワークの中間層の初期値として用いる。

✅ ニューラルチューリングマシン

✅ 💻Tay

✅ BERT (参考

Bidirectional Encoder Representations from Transformers。
Google AI Languageの研究者が最新論文で発表した。

7-3.📘音声処理

✅ WaveNet

✅ それまでの音声認識

7-4.📘ロボティクス (強化学習

  • 動作制御にはモンテカルロ法Q学習が応用されている。

  • DQN(Deep Q Networks) アタリのゲームに対して応用された。

  • アルファ碁 モンテカルロ木探索で成果を挙げた。

  • アルファ碁ゼロ セルフプレイにより学習を進め、アルファ碁を凌駕した。

  • RAINBOWモデル 強化学習の性能を改善するための3つのモデルをすべて適用したもの。

    • 方策ベース
    • 状態価値関数(価値ベース)
    • モデルベース

強化学習の課題

  • 学習時間

    • 理論的には無限に学習できるが、実際は有限なため損耗し学習継続が困難になることがある。
  • マルチエージェント応用

    • 複数のエージェントで相互学習を開始すると、初期段階での知識が不十分なため学習過程において不安定化が見られる。
    • 対応のため、強化学習DQNなどが適用されている。

7-5.📘マルチモーダル

  • 五感や体性感覚(平衡感覚、空間感覚など)の複数の感覚情報を組み合わせて処理すること。
  • 機械学習においては、複数の異なる情報を用いて学習することを、マルチモーダル学習という。

8.📘ディープラーニングの応用に向けて

8-1.📘産業への応用

✅ ものづくり

  • 自動車ギヤ不良検出
    良品データの特徴を抽出し、その差分から不良品を検出する。(武蔵精密工業/ABEJA)

  • 射出成形機の予防保全
    熟練技術者の知見をディープラーニングに応用し、安定生産を目指す。(ファナック/Preffered Networks)

  • バラ積みピッキング
    ロボットに求められる作業レベルは高度化。複雑な作業の実現へ。(ファナック/Prefered Networks、安川電機/クロスコンパス)

  • 不良品検出
    食品製造ラインでの不良検出を行う。(キューピー/ブレインパッド)

✅ モビリティ

  • 自動運転
    • 内閣官房IT総合戦略室等、2020年無人自動走行による移動サービス。
    • 2022年高速道路でのトラック隊列走行の商用化を目指す。
    • あわせて各種検討が行われている。(安全基準、交通ルール、保険等の責任関係、制度設計)
  • 自動運転レベル

    レベル 概要
    レベル0 自動運転化なし
    レベル1 運転支援
    レベル2 部分運転自動化
    レベル3 条件付運転自動化
    レベル4 高度運転自動化
    レベル5 完全自動運転
  • ロボットタクシー

    • 移動サービス(ロボットタクシー)の開発が進められている。

✅ 医療

✅ 介護

✅ インフラ・防犯、監視

  • コンクリートひび割れ検出
    5年に1回の近接目視点検に対応。CNNを応用し80%以上の精度。(NEDO等)

  • 舗装道路損傷判断
    路面のわだち掘れとヒビ割れを同時に検出。専門技術者と同等のレベル。(福田道路、日本電気
    スマートフォン画像から損傷状態を判別(千葉市等)

  • 橋梁内部損傷
    目視だけでは判断が難しい。センサーによる振動データ解析から損傷を推定。(富士通/富士通研究所

  • 送電線点検
    異常画像の収集が困難。GANによる画像生成で解決をはかる取組み。(東芝デジタルソリューションズ

  • 地質評価
    CNNにより岩盤強度を特定。マルチスペクトル画像を活用。(安藤ハザマ)

  • 屋内型混合廃棄物選別
    廃棄物の判別を自動化。選別作業15人を2人まで削減。8時間から24時間化へ。(シタラ興産)

  • 困っている方の検知
    カメラ映像による挙動から困っている方の自動検知。(三菱地所、ALSOK等)

✅ サービス・小売

  • タクシー需要予測
    Stacked denoising Autoencoder(SdA)を使用し、需要を92.9%の精度で予測(NTTドコモ

  • 商業施設の来店者分析
    来店者数、年齢・性別判定。店舗スタッフの人員体制最適化等に活用。(パルコ、ABEJA)

  • 無人コンビニ
    天井に取り付けたカメラで来店者を特定。商品状態を管理する小型カメラで商品を手にしたことを検知。(東日本旅客鉄道、サインポスト)

  • 双腕型マルチモーダルロボット
    マルチモーダルAIロボットにより、人が人に作業を教えるようにロボットに学習させる。(デンソーウェーブ等)

✅ その他

  • 物量画像判別
    荷物の寸法や破損状況などを自動判別。(鈴与、佐川急便、Automagi、NTTデータ

  • 倉庫運用最適化
    CNNモデルにより、倉庫内ピックアップルートの最適化。(Zalando(ベルリン))

  • 収穫・仕分け
    果梗(かこう)の認識に応用。(パナソニック

  • 農薬散布
    害虫の多い箇所にピンポイントで農薬散布。ドローン画像による解析。農薬量を1/10以下へ。(オプティム)

  • 株価予測
    時系列解析により短期的な予測を実施。(AlpacaJapan)

  • 不正取引検知
    オンラインバンキングでの不正検知における誤検知を大幅に改善。(Danske Bank/TERADATA)

  • 講義動画内の文字検知
    スタディサプリの講義動画からテキストを検知し、検索対象にする。(リクルートテクノロジーズ)

  • 採点支援
    記述式解答への対応として、文字認識率を向上。(EduLab)

  • ユーザーコメント分析
    インコニコ動画等における不適切なコメントを検知。LSTMモデル。(ドワンゴ

  • 画像商品検索
    Image Search を開発。類似商品の検索を可能に。(Alibaba)

  • レコメンド
    キョウチョウフィルタリングにより、類似曲をレコメンド。(Spotify

  • 出品者監視
    ラクマにおいて、近視出品物の監視。類似画像検出。(楽天

  • 音声認識
    ヤフー音声認識サービスYJVOICEで応用。DNN-HMM hybrid 音響モデルを活用。誤り率が改善。(ヤフー)

  • チャットボット
    顧客対応の24時間化等で利用されている。

✅ 応用路線

  • Google 社・Facebook
    言語データによる RNN や映像データからの概念・知識理解を目指す。

  • UC Berkeley
    実世界を対象に研究を進め知識理解を目指す。

  • DeepMind
    🎩デミス・ハサビスにより設立。
    オンライン空間上でできることをターゲットにして知識理解を目指す。

8-2.📘法律

✅ 法

✅ プライバシー・バイ・デザイン

  • Privacy by Design:PbD
  • 仕様検討段階からプライバシー侵害の予防を指向する。
  • 他に、セキュリティ・バイ・デザイン や バリュー・バイ・デザイン がある。

✅ データの収集

以下を考慮する必要がある。

  1. 著作権法
  2. 不正防止競争防止法
  3. 個人情報保護法
  4. 個別の契約
  5. その他の理由

成果(データ)をラボの外に出さなくても問題になるケースがある。(取得自体が問題になるケースも)

✅ 日本の著作権法

  • 日本では「情報解析を行うために著作物を複製してもよい」とされており、世界的に見ても先進的である。

✅ オープンイノベーションの弊害

  • 複数企業による研究開発が進んでいるが、トラブルも散見される。
  • 認識のズレやプロジェクト管理の甘さから高額訴訟に至るケースもある。
  • システム開発の協力義務を念頭に、プロジェクトを注意深く推進することが求められる。

AI・データの利用に関する契約ガイドライン

  • 2018年、経済産業省が策定。
  • 開発プロセスは ①アセスメント、②PoC、③開発、④追加学習 の4段階。
  • 契約類型は3つ、データ提供型、データ創出型、データ共用型。

✅ 知的財産法

一定の条件を満たせば知的財産として保護される。
事前にケースを整理しておくとよい。

✅ 次世代知財システム検討委員会報告書

✅ 利用者保護

  • 当初目的以外でデータ利用する場合は再度レビューを行うこと。
  • 利用目的はできる限り特定すること(個人情報保護法 15条1項)
  • 利用目的変更では事前の本人同意が必要(16条1項)
  • 本人の通知と公表を行う(18条1項)
  • 個人データの漏洩防止など安全管理措置を講じること(20条)
  • 従業員の監督義務(21条)、委託先の監督義務(22条)
  • データ内容の正確性の確保などに関する努力義務(19条)
  • EU一般データ保護規則GDPR)にも注意。

✅ ドローンでの利用(参考

✓ 許可が必要になる飛行場所
  • 空港周辺
  • 150m以上の上空
  • 人家の密集地域(人口集中地区、DID地区)
✓ 承認が必要になる飛行方法
  • 夜間飛行
  • 目視外飛行
  • 三者やその所有物(家や車)の30m未満の距離での飛行
  • 催し場所での飛行
  • 危険物の輸送
  • 物件投下

8-3.📘倫理

IEEE P7000シリーズ

  • 「倫理的に調和された設計」レポート。
  • 倫理的な設計を技術段階、開発段階に取り込む試み。

✅ データセットの偏り

  • データセットによっては偏り・過少代表・過大代表などが生じる。
  • データベースに登録されていないことによる偏りも生じる可能性がある。
  • 現実世界の偏りが増幅されることで、問題が生じる場合がある。

カメラ画像利活用ガイド

  • 経済産業省総務省、IOT推進コンソーシアムによる。
  • 企業が配慮すべきことをまとめている。

✅ 自律型致死性兵器(LAWS:Lethal Autonomous Weapon Systems)

  • 人工知能などにより完全に自律した殺傷能力を持つ兵器のこと。
  • 現段階では存在しないが、専門家間で協議が続いている。
  • 一連の会議において、「LAWSの定義」、「人間の関与」等が議論された。
  • 参考

人工知能学会 9つの指針

  1. 人類への貢献
  2. 法規制の遵守
  3. 他者のプライバシーの尊重
  4. 公正性
  5. 安全性
  6. 誠実な振る舞い
  7. 社会に対する責任
  8. 社会との対話と自己研鑽
  9. 人工知能への倫理遵守の要請

8-4.📘現行の議論

✅ 日本ディープラーニング協会の見解

✅ 目標間のトレードオフ

  • 協調フィルタリングにより、フィルタ・バブル(好みの情報にしか触れられなくなる)が生じる。
  • 個別性と社会性のトレードオフになる。
  • FAT(Fairness, Accoutability, and Transparency:公平性・説明責任・透明性)という研究領域やコミュニティがある。

✅ Adversarial Example(Adversarial attacks) (参考

  • ディープラーニングにおける重要な課題の一つ。
  • 分類器に対する脆弱性攻撃のようなもの。
  • 学習済みのディープニューラルネットモデルを欺くように人工的に作られたサンプルで、人の目には判別できない程度のノイズを加えることで作為的に分類器の判断を誤らせる。
  • 絶対的に安全な技術はないことを認識しておくこと。

✅ クライシス・マネジメント(危機管理)

  • 火消し(危機を最小限に抑える)、復旧(再発防止)が主眼。
  • エスカレーションの仕組みづくりが重要。防災訓練を行うこと。
  • 危機管理マニュアルの有効性を検証する。

✅ 透明性レポート

  • プライバシーヤセキュリティについては、積極的に社会と対話する必要がある。
  • いくつかの個別企業では透明性レポートを公開している。

✅ 指針作り

  • Google

  • Partnership on AI(PAI)

  • シロマAI原則

    • 2017年2月、世界中のAI研究者らが集まり発表。
    • AIの短期的、長期的な課題について公開。
    • 「AIによる軍拡競争は避けるべきである」ことが明示された。

その他

✅ 日本

✓ 新産業構造ビジョン
✓ 「人間中心のAI社会原則」及び「AI戦略2019(有識者提案)」

✅ 中国

✓ 中国製造2025
  • 2025年までの中国製造業発展のロードマップ。
  • AI技術に関する取組み強化が明言されている。
  • ドイツのインダストリー4.0の影響を受けて作成されたと言われている。
✓ インターネットプラスAI3年行動実施方案
  • 2016年、人工知能産業の促進に向けてインターネットプラスAI3年行動実施方案が発表された。
  • AI技術を重点領域で活用することで世界に通用するトップ企業を育成することを目的としている。

✅ 英国

✓ RAS2020戦略
  • 2015年3月、政府はロボット工学・自律システム(RAS)分野の発展を支援すると表明。

✅ ドイツ

✓ デジタル戦略2025(参考
  • 2017年3月、ツィプリス大臣は連邦政府が2016年3月に策定した「デジタル戦略2025」を発表。
  • 2025年までにドイツがいかにしてデジタル化を具体化していくか取り組むべき10の施策について提案している。

✅ Coursera

  • 🎩アンドリュー・ング(Andrew Ng)による。(「GoogleBrain」にも携わり、Baidu研究所に勤務する)
  • 初級から上級までAIに関する講義が行われている。