生成的人工知能
生成的人工知能(せいせいてきじんこうちのう、英: generative artificial intelligence)または生成AIは、プロンプトに応答してテキスト、画像、または他のメディアを生成することができる人工知能システムの一種である[5][6]。生成AIモデルは、入力された訓練データの規則性や構造を学習し、同様の特性を持つ新しいデータを生成する[7][8]。ジェネレーティブAI、ジェネラティブAIともよばれる。
著名な生成AIシステムとして、OpenAIがGPT-3やGPT-4の大規模言語モデル[9]を使用して構築したチャットボットのChatGPT(および別形のBing Chat)や、GoogleがLaMDA基盤モデルに構築したチャットボットBardがある[10]。その他の生成AIモデルとして、Stable DiffusionやDALL-Eなどの人工知能アートシステムがあげられる[11]。
生成AIは、アート、執筆、ソフトウェア開発、ヘルスケア、金融、ゲーム、マーケティング、ファッションなど、幅広い業界で応用できる可能性がある[12][13]。生成AIへの投資は2020年代初頭に急増し、Microsoft、Google、Baiduなどの大企業だけでなく、多数の中小企業も生成AIモデルを開発している[5][14][15]。しかし、生成AIを訓練する目的での著作物の無法図な利用や人をだましたり操作したりするフェイクニュースやディープフェイクの作成など、生成AIの悪用の可能性も懸念されている[16][17][18]。
歴史[編集]
機械学習の分野では、その誕生以来、データをモデル化し予測することを目的として、統計的モデルを使用してきた。2000年代後半、ディープラーニング(深層学習)の登場により、画像や動画処理、テキスト分析、音声認識などのタスクで進化と研究が進んできた。しかし、ほとんどのディープニューラルネットワークは識別的モデルとして、画像認識 (en:英語版) のような分類タスクを実行していた。
2014年、変分オートエンコーダや敵対的生成ネットワークなどの進歩により、画像のような複雑なデータの生成的モデルを学習し、生成することができる実用的なディープニューラルネットワークが登場した。
2017年、Transformerネットワークはより大規模な生成的モデルの実現を可能にし、2018年に最初の生成的事前学習トランスフォーマー(GPT)が開発された[19]。2019年、GPT-2がこれに続き、基盤モデルとして教師なし学習を多くの異なるタスクに汎化する能力を実証した[20]。
2024年、映像生成AIの実用化の成功は、イラスト生成AIの成功が人間の仕事の質を超えるのと同じようになると専門家は予想している[21]。
これ以降の応用面における進化については次節のモダリティを参照のこと。
モダリティ[編集]
生成AIシステムは、教師なしまたは自己教師ありの機械学習を、データセットに適用することにより構築される。生成AIシステムの能力は、訓練に使用するデータセットのモダリティや種類によって異なる。
生成AIは、ユニモーダルシステムとマルチモーダルシステムに大分でき、ユニモーダルは1種類の入力(例:テキスト)しか受け入れないのに対し、マルチモーダルは複数種類の入力(例:テキストと画像)を受け入れることができる[22]。たとえば、OpenAIのGPT-4はテキストと画像の両方の入力を受け入れる[23]。
- テキスト
- 単語や単語トークンで訓練された生成AIシステムには、GPT-3、LaMDA、LLaMA、BLOOM、GPT-4などがある(大規模言語モデルを参照)。これらは自然言語処理、機械翻訳、自然言語生成が可能であり、他のタスクの基盤モデルとして使用することができる[24]。データセットとして、BookCorpus、Wikipediaなどがある(テキストコーパスの一覧を参照)。
- コンピュータープログラム
- 自然言語のテキストに加えて、プログラミング言語のテキストを大規模な言語モデルに訓練することで、新しいコンピュータプログラムのソースコードを生成することができる[25]。たとえば、OpenAI Codexがある。
- 画像
- 説明文付きの画像セットで訓練された生成AIシステムには、Imagen、DALL-E、Midjourney、Stable Diffusionなどがある(人工知能アート、生成的アート、合成メディア参照)。これらは、テキストからの画像生成やニューラルスタイル変換によく使われる[26]。データセットにはLAION-5Bなどがある(コンピュータビジョンにおけるデータセット参照)。
- 分子
- 生成AIシステムは、アミノ酸の配列や、DNAやタンパク質を表すSMILESなどの分子表現で訓練することができる。AlphaFoldのようなこれらのシステムは、タンパク質の構造予測や創薬に利用されている[27]。データセットには、さまざまな生物学的データセットが含まれる。
- 音楽
- MusicLMのような生成AIシステムは、レコード音楽のオーディオ波形とテキスト注釈をともに訓練することで、たとえば「歪んだギターリフに乗った落ち着きのあるバイオリンのメロディ」といったテキスト記述に基づいて、新しい音楽サンプルを生成することができる[28]。
- 動画
- 注釈付き動画で訓練された生成AIは、時間的に一貫性のあるビデオクリップを生成することができる。システムの例として、RunwayMLのGen1や[29]、Meta PlatformsのMake-A-Videoがあげられる[30]。
- ロボット制御
- ロボットシステムの動きを学習させた生成AIは、モーションプランニングのために新しい軌道を生成することができる。たとえば、Google ResearchのUniPiは、「青いボウルを取る」や「黄色のスポンジで皿を拭く」といったプロンプトを使用して、ロボットアームの動きを制御する[31]。
課題[編集]
著作権とデータ倫理の問題[編集]
生成AIには訓練データが必要になるが、訓練に使用された著作物を巡り、著作権やデータ倫理上の問題が指摘されている。生成AIの普及に伴い、出版社やクリエイターを中心として、AIの訓練データに彼らの著作物が使われることへの懸念が広がっており、AI企業への訴訟が多数発生している。欧州連合で検討中の生成AI規制法案では、AIシステム構築時に使用する著作物についての情報の表示が義務づけられる見込みである[17][18]。
データの無許諾利用に対抗するための技術も開発されている。ベン・ジャオらシカゴ大学の研究者は、Nightshadeと呼ばれる技術を発表した。この技術では画像ファイルに人間の目では知覚困難だが、その画像ファイルを訓練に用いた生成AIモデルが破綻するような編集を加える。例えば、城を自動車であると間違って学習させ、テキストプロンプトを使った画像生成を困難にさせる。少数の画像が混入するだけでも有効で、論文ではStable Diffusionで実験を行い100枚のサンプルで効果を確認した[32]。
欧州[編集]
欧州では、DSM著作権指令4条3項により著作者が明示的に学習利用を拒否している場合には著作物をAI学習に利用できない[33]。
2023年12月には欧州議会で生成AIを含む人工知能技術を規制するAI Actの法案が合意に至った。この法案は顔認証技術を構築する目的での顔写真の無差別なスクレイピングや監視カメラの利用、職場や教育現場での感情認識技術、自由意志を奪い人間を操作するAIシステム、社会信用システムの禁止を含んでいる。また、AIの訓練にあたってはEU著作権法の遵守と訓練データについての詳細な報告書の提出により透明性が求められる[34]。
アメリカ[編集]
アメリカサンフランシスコ在住のアーティスト、カーラ・オルティスは2023年1月、仲間のアーティスト2人とともに画像生成AI「Stable Diffusion」を運営する英スタビリティーAI社やMidjourney社などを相手取り、著作権侵害で集団訴訟を起こした[35]。しかし、2023年3月8日時点で、米国内で生成AIを使って作成された作品は著作権保護の対象から外れていた[36]。原告側は訴状で「生成AI企業がAIの訓練に使う許可を(我々から)得ずに勝手に使い、原告の作品を複製した」と主張している[35]。被告のスタビリティーAI社の側は日本の新聞社の取材に対し「係争中なのでコメントしない」と回答しつつも、実際には「次のバージョンの訓練データから、アーティストが希望すればその作品をAIの訓練データから除外できる「オプトアウト」の対応を進めている」とコメントした[35]。カリフォルニア州連邦地方裁判所のウィリアム・オリック判事は10月30日(米国時間)、原告側の訴えを概ね棄却する裁定を下したが[37]、11月には原告らは訴状を修正した上でStability AIに対する訴訟を再度提起した。原告には元の3人にさらに7人が加わった[38]。
2023年6月、Adobeは、Fireflyを使って生成された画像の使用が著作権を侵害した場合、Adobeが罰金などを支払うこと、そもそも生成AI「Firefly」によって生成された画像自体が著作権を侵害する懸念はないことを約束した[39]。
2023年9月、マイクロソフトもCopliotで生成されたものが著作権を侵害した場合、その罰則もユーザーではなくマイクロソフトのみが負うと約束している[39]。
2023年10月30日、アメリカはAIの開発に関する大統領令を出したが[40]、DeepLearning.AIは、生成AIに関して基礎となる基盤モデルの規制が開発を妨げており、そのアプリだけを規制すべきだと抗議した[41]。
フェアユース法理と生成AI開発目的での著作物利用[編集]
アメリカでは機械学習(AI)のデータ利用を促進する法政策が必ずしも望ましくない点が指摘されている[42][43]。
まず、人工知能は著作物についての事実の統計分析ではなく、その表現方法から特徴量を抽出する点で、従来の情報分析とは異なる。仮にフェアユースが適用されるにしても、機械学習により、無限に新たな著作物を安価に創出でき、人の創作による著作物を駆逐することとなり、人による創作を推奨するという著作権法の趣旨に反すると指摘されている[42][43]。
従来では巨大な著作権者(放送局、出版社、新聞社、映画会社)と弱い公衆との二項対立で公益性を認める形でフェアユースが主張されてきたが、AI分野ではフェアユースを利用できるのはGoogleなどの巨大プラットフォーマーであり、弱い著作権者に対して大きなプラットフォーマーが無償で著作物を利用できるのは望ましくないとも指摘されている[43]。
人工知能の開発では、その学習の過程で、データの複製、次元削減などの改変が多段階で実行される。入力データと出力データないしは中間生成物が類似する可能性が大きく、「変容的利用目的でない」ことと、「入力データや著作者の市場を代替する可能性が大きい」という理由で、理論的にフェアユースに当たるかについても疑問視されている[42][44]。
日本[編集]
生成AI開発目的でのデータ利用と著作権法[編集]
日本においては、2018年の著作権法改正で「著作物に表現された思想又は感情の享受を目的としない利用」を権利制限の対象とする規定が設けられた[45]。
著作権法第30条の4には、著作物は、次に掲げる場合その他の当該著作物に表現された思想又は感情を自ら享受し又は他人に享受させることを目的としない場合には、その必要と認められる限度において、いずれの方法によるかを問わず、利用することができる。ただし、当該著作物の種類及び用途並びに当該利用の態様に照らし著作権者の利益を不当に害することとなる場合は、この限りでない。と書かれている[46]。
2019年に文化庁が作成した資料によれば、第30条の4で規定される著作物に表現された思想又は感情の「享受」を目的としない行為の具体例として、「美術品の複製に適したカメラやプリンターを開発するために美術品を試験的に複製する行為や複製に適した和紙を開発するために美術品を試験的に複製する行為」「書籍や資料などの全文をキーワード検索して、キーワードが用いられている書籍や資料のタイトルや著者名・作成者名などの検索結果を表示するために書籍や資料などを複製する行為」「日本語の表記の在り方に関する研究の過程においてある単語の送り仮名等の表記の方法の変遷を調査するために、特定の単語の表記の仕方に着目した研究の素材として著作物を複製する行為」「人工知能の開発に関し人工知能が学習するためのデータの収集行為、人工知能の開発を行う第三者への学習用データの提供行為」「プログラムの著作物のリバース・エンジニアリング」「特定の場所を撮影した写真などの著作物から当該場所の3DCG映像を作成するために著作物を複製する行為」などが挙げられている[47]
一方で享受目的が存在する場合は適法とならない旨も記載されており、例として「写真などの著作物の表現上の本質的特徴を感得することができる態様でCG映像が作成されることとなる場合には、当該写真などの著作物の当該CG映像への複製行為は権利制限の対象とならない」と明記されている。「キーワードが用いられている書籍や資料のタイトルや著者名・作成者名などの検索結果とともに、キーワードを含む本文の一部分(著作物)を併せて提供する場合」は著作権法第30条の4の権利制限の対象とはならないものと考えられると書かれているが、軽微性等の要件を満たせば、 権利制限の対象となるものとも考えられるとも説明されている。「人を感動させるような映像表現の技術の開発を目的とすると言って、多くの一般人を招待して映画の試験上映会を行う」も適法とは考えられない旨が明記されている[48]
2023年に同庁により公表された資料によれば、「AI開発・学習段階」と「生成・利用段階」では、行われている著作物の利用行為が異なり、関係する著作権法の条文も異なり、そのため、両者は分けて考える必要があるとしている[49]。同資料では享受を目的としない利用行為では著作権者の許諾なく実施可能としており、AI開発のための情報解析のように、著作物に表現された思想又は感情の享受を目的としない利用行為は、原則として著作権者の許諾なく行うことが可能としている。これに対して「享受を目的とする利用行為」には本条は適用されないとしている。この例として、情報解析用に販売されているデータベースの著作物をAI学習目的で複製する場合などは、情報解析用としてのライセンス市場が 成り立っている著作物を、権利制限規定により許諾なく情報解析用に利用できるとしてしまうと、著作権者の利益を不当に害するおそれがあるとしている[50]。
同資料ではAI開発・学習段階で「著作権者の利益を不当に害することとなる場合」に該当するか否かは、著作権者の著作物の利用市場と衝突するか、あるいは将来における著作物の潜在的販路を阻害するかという観点から、最終的には司法の場で個別具体的に判断されると説明している[51]。
早稲田大学の上野達弘教授はこの著作権法30条の4項に定められた規定は、人工知能開発の目的であれば著作物等のコンテンツを商用・非商用を問わず自由に利用できるものとしており、世界的に見ても強力な権利制限規定であり、「機械学習パラダイス」とも評している[52]。
一方で、知的財産法を専門とする京都大学大学院法学研究科の愛知靖之教授は、著作権法30条の4の但書の解釈次第では、データベース著作物を記録・翻案する行為のみを権利制限の対象外としていた旧47条の7に比較して、著作権侵害が認められやすくなる可能性があるとしており、機械学習に用いられるデータが著作物に該当する限りは、但書の適用範囲に含まれて、侵害が肯定される余地は十分にあると述べている。例えばディズニー風の新しい映画を作るAIを開発するために、ディズニー映画を訓練データにして機械学習させる行為は、将来において、ディズニー映画と潜在的に競合する映画を作成するという用途で、著作物をデータとして入力していることになり、将来における著作物の潜在的販路を阻害すると認められる可能性があるとしている[53]。
一方で文化庁が作成した資料によれば、法第30条の4では、旧法第30条の4及び第47条の7の規定に該当する行為を第1号 及び第2号で例示し一方で、旧法第30条の4及び第47条の7には存在しなかった「著作権者の利益を不当に害することとなる場合はこの限りでない」とのただし書が規定されているが、旧法で権利制限の対象として想定していた行為は、今般の改正後においても、引き続き許諾なく行えるものと考えられる。著作権法上保護される権利を制限する場合、国際条約上の義務として、「著作者の正当な利益を不当に害しないことを条件とする」ことが求められており、我が国の 著作権法における権利制限規定は、全てこの条約に適合する形で整備し、旧法第30条の4及び第47条の7は、技術開発等の試験の素材として著作物を利用する場 面及びコンピュータによる情報解析のために著作物を複製するという場面をそれぞれ想定した規定である、いずれも、規定が整備された時点において著作権者の利益を不当に害することとなる事態が生じることが通常想定されなかったことから、あえてそのようなただし書を置くこととしていなかったものである。一方、法第30条の4では、「著作物に表現された思想又は感情を自ら享受し又は他人に 享受させることを目的としない場合」を幅広く権利制限の対象とするものであり、特定の利用場面を離れた、非常に柔軟性の高い規定へと見直しを行うこととしている。規定の性質上、現在想定できない行為も含め、様々な行為が同条の対象となり得ることから、前述の条約上の要請を踏まえ、同条では、権利者の正当な利益の適切な保護を図るため、ただし書を置くこととしてる。もっとも、これにより旧法第30条の4及び第47条の7により適法に行うことが想定され ていた行為の性質が変わるわけではなく、当該行為は基本的には著作権者の利益を不当に害するものではないと考えられることから、今般の改正後においても、引き続き許諾なく行えるものと考えられる。[54]
知的財産法を専門とする筑波大学の潮海久雄教授はフェアユース法理が採用されている米国と日本の知的財産法の権利制限規定を比較しつつ、人工知能による情報解析目的でのデータ利用について、現実には著作権法30条4項の適用範囲が極めて狭いと述べている[42]。
30条の4は一般的に、日本も加盟するベルヌ条約のスリーステップテスト(3 step test)に合致したものとされている[42]。
ベルヌ条約9条2項では著作物の複製を認める(権利制限)条件として
- 一定の特別な場合であって
- 当該複製が著作物の通常の利用を妨げるものであってはならず
- 著作者の利益を不当に害しないこと
の3点(3step)を条件とする例外的場合と定めている[42]。
また、知的所有権に関する条約の知的所有権の貿易関連の側面に関する協定(TRIPs協定)13条も排他的権利一般についてこの原則を規定している[42]。
著作権法30条4項はスリーステップテストの枠組みの個別制限規定であり、公益が考慮されないため、享受目的以外の他の目的が主目的であっても享受目的が少しでもあるようなグレーの部分は侵害となるとされる[42]。
この点を踏まえた上で潮海は著作権法30条4項をAIによる情報解析目的でのデータ利用に適用するにあたり、3つの問題が生じることを指摘している。すなわち、適用範囲の狭さ(1)、享受目的の不明確さ、一貫性のなさ(2)、情報の多目的性(3)である[42]。
一般的にAI開発には30条4項が適用されると言われているものの、潮海はベルヌ条約のスリーステップテストを前提とした場合に、適用範囲は極めて狭くなることを指摘している。企業は音声認識などの事業の目的のために開発済みの人工知能ソフトでデータを利用するか、事業目的に応じてAIを開発する。学習済モデルや学習処理を工夫してAIそのものを開発する事例は限定的である。学術分野以外では純粋にAIそのものを開発する目的は考えにくいという[42][55]。
スリーステップテストのように要件の累積適用となっている著作権法30条4項に関して言えば適用範囲はさらに狭くなり、プログラムを複製・翻案する場合や改変・実行する場合は30条4項は適用されず侵害となる。立法趣旨では、データベースからデータを利用する場合は、著作権者の通常の市場と衝突するとされており、権利制限の例外となる「著作権者の利益を不当に害することとなる場合」にあたるとされているが、データが契約で取引されている現状を見れば、画像データの大量利用は、著作権者の通常の市場と衝突し、侵害となりうるとされる[42]。
一方で文化庁が作成した資料によれば、リバース・エンジニアリングのようなプログラムの調査解析目的のプログラムの著作物の利用は、プログラムの実行等によってその機能を享受することに向けられた利用行為ではないと評価できることから、法第30条の4の「享受」を目的としない利用に該当するものと考えられるとされてる。例えば、 「プログラムのオブジェクトコードをソースコードに変換するだけでなく、それをまたオブジェクトコードに変換し直す場合 」「ウイルス等の被害にあったコンピュータ内のOSやプログラム等について、被害当時の状況を保全するために複製し、第三者に調査解析を行わせる場合」 等であっても、プログラムの実行等によってその機能を享受することに向けられた利用行為ではないと評価でき、「享受」を目的としない利用に該当するものと考えられる。仮にプログラムを実行しつつ調査解析する場合や調査解析中の当該プログラムがアセンブリ言語に変換された画面を資料化する場合でも、そのプログラムの実行や資料化がその機能を享受することに向けられたものではないのであれば、同様に「享受」を目的としない利用に該当するものと考えられる。[56]
教育に関する(人間の学習)著作権法35条では、少量のデータ利用でも侵害とされている。著作権法35条では、著作権者の利用市場との衝突を考慮して、スリーステップテストへの合致を検証して、さまざまな条件により利用を限定し、廃棄処分を必要とするなど、人間の学習については原則侵害とされる。これを考えると、著作権法30条4項では、機械に学習させる目的での大規模データ利用を非侵害とみなすことは、スリーステップテストの元で正当化することは困難であると言える[42][57]。
米国では機械学習目的での大規模データ利用を促進する法政策が必ずしも望ましくない点が指摘されている[43]ように、人間の学習と比べてもより強く著作権者の通常の市場と衝突することが指摘されている[42]。この前提に立った場合にはデータ利用について公益性などの強い正当化事由が必要とされるが、30条の4項の立法趣旨によれば、単なる私益の衝突であるとして公益や産業振興等を考慮していないことを明言している[42]。
潮海はさらに著作権法30条4項における享受目的の不明確さ、一貫性のなさを指摘する。利用目的の中核概念である「享受」という概念には明確な定義がなされていない。また、AI開発に関わる著作物として考えられる、大規模データ、事実著作物としてのデータ、芸術著作物としての画像データ、機能著作物としてのプログラムの実行・複製・改変について、一貫した説明ができず、権利制限の例外となる「著作物に表現された思想又は感情を自ら享受し又は他人に享受させることを目的としない場合」としない場合がどのような場合か不明である。後述するように、データ利用の実態に即して解釈すれば、人工知能学習目的の大規模データ利用も享受目的に該当しうるという[42]。
一般的な著作権法30条4項の説明では、情報解析目的での画像等のデータ利用は、その思想を享受していないため、非侵害とされるのに対して、プログラムの実行はプログラムの機能の享受を目的としているので侵害とされる。データ(事実)については、統計処理などに利用されて、情報解析目的ではその思想を享受していないとする[42]。
しかし、画像データについて、人間が見ても見えただけでは享受にあたらないとして、電子計算機も享受しないとする一方で、プログラムでは人の知覚すら全くないにもかかわらず、プログラムの実行はコンピューターが機能を享受するので侵害とする点で、論理が破綻するとしている[42]。
地図やデータベースなどの事実著作物は、鑑賞目的ではなく情報を正確に伝達する目的であり、同様に考えれば、プログラムに供されるデータもプログラムを機能させることが本来の目的であり享受であると解釈できる。事実著作物もプログラムも、最終的に電子計算機への指令か否かが異なるだけで、学習済みモデルの生成に寄与して享受させていると評価できる。特に学習データは人工知能プログラムの実行に不可欠であり、学習用のデータによって学習済みモデルのパラメータが変更されるため、目的にあったデータでモデルを学習させる必要がある。人工知能のプログラムは汎用化されつつあるが、その一方で良質なデータが重要となっており、情報解析においてデータが全く寄与せずに、その思想が何ら享受されないことは考えられないとされる[42][43]。
ときめきメモリアルメモリーカード事件では、データが映像等に大きな影響を与える場合には同一保持権の侵害とされた。著作権法30条4項の立法趣旨では、データベースを利用する場合には侵害としており、それは何らかの享受目的を前提としているとされるためである。これを前提とすれば、構造化されていないビッグデータは著作権法2条10号の3で著作物と定められた構造化されたデータベースと同じく享受目的利用とされる。現状としてデータが取引の対象となっていることからも、ビッグデータを人工知能プログラムで利用することはデータの本来的な用途とみなすことができ、これは著作者の通常の市場と衝突し、対価回収の機会を損なうこととなる。また、HTMLのようにデータとプログラムの区別が不明確な場合もあり、これをプログラムとデータのどちらとして扱うのかは不明であるという[42]
潮海は最後に情報の多目的性を指摘する。つまり、著作物を含めた情報は、人工知能学習などの利用でも将来時点での通常利用となりうるため、その利用目的を著作物の享受目的などの本来的用途として特定できない。また、著作権法30条4項の前提とされるスリーステップテストの枠組みでは、情報の汎用利用はすべて侵害となる。現に、目的を限定しないアーカイブでの保存も、将来の享受目的があるとして30条の4が適用されないという[42]。
フェイク情報の作成に利用される可能性[編集]
生成AIは、詐欺や思考誘導や世論操作を行う目的で、捏造した顔画像や映像、フェイク音声、フェイク文章などを作成し流通させるために悪用される可能性がある。すでに日本国内においてもStable Diffusionを使って捏造された災害画像が拡散した事例もあり、AIを悪用した詐欺や詐称、名誉毀損は現実の脅威となっている。このため国内外でディープフェイク対策のための研究が進められている[58]。
日本赤十字社東京都支部が、2023年8月26日から9月7日にかけて、関東大震災の体験記などを生成AIに読み込ませることで、新たな「証言」を作成し展示する企画展を計画した。ところが、この計画に対し、SNS上で「記録の捏造である」などの批判が殺到し、同支部は企画展の中止に至った。専門家からは「生成AIは情報の信頼性が担保されておらず、これを使って史実を伝えようとしたことは問題」との指摘が出ている[59]。
2023年、同年夏頃に生成AIを利用して制作されたと推測される日本の内閣総理大臣である岸田文雄の偽動画が動画投稿サイトやSNSに投稿・拡散された。この動画には日本テレビ運営のニュース専門チャンネル『日テレNEWS24』の番組ロゴや「BREAKING NEWS(ニュース速報)」といったテロップもあり、同局は「放送や番組ロゴをこのような形で悪用されたことは到底許すことはできない。必要に応じてしかるべき対応をとる」との声明を出した[60][61][62]。また、日本政府も内閣官房長官である松野博一が定例会見において、一般論としながらも「政府の情報を偽って発信することは、場合によっては民主主義の基盤を傷つけることにもなりかねず、行われるべきではない」として、偽動画の作成や拡散を行わないように呼び掛けた[63][64][65]。
2023年、日本テレビは同局で製作・放送されているニュース番組や同局所属のアナウンサーを生成AIで加工して投資を呼びかける偽動画(なりすまし広告)が確認されているとして、同局は同動画の制作に関与しておらず、投資の推奨も行っていないことを表明する事態になった[66][67][68]。
ハルシネーション (幻覚)[編集]
人工知能の用語のハルシネーション(hallucination。幻覚)とは、AIの訓練に用いたどの学習データとも整合しない回答をAIが堂々としてしまうという問題である。人間の幻覚に喩えて「幻覚」と呼ばれているが、作話(confabulation)という表現のほうを好む研究者もいる。
アメリカでは2023年、ニューヨーク州の弁護士が審理中の民事訴訟の資料作成にChatGPTを利用した結果、存在しない判例を「引用」 してしまったことが問題となっている。弁護士がニューヨーク州連邦裁判所に提出した資料の中で引用された判例が実際には見つからなかったため、裁判官が確認したところ、その弁護士が資料作成にChatGPTを使っていたことが発覚した。弁護士は資料の中で、デルタ航空やユナイテッド航空などが関連しているとする実在しない判例の「引用」を6件行っていた。[69][70]
2023年11月、複数の俳優が国政政党「れいわ新選組」を応援している旨のメッセージを載せたまとめサイトが確認され、俳優の所属事務所を始め、れいわ新選組もそのサイトや応援を否定する事態になった[71][72]。このサイト作成者はメディアの取材に対し、「該当記事はAIに書かせたものであり、その芸能人が実際にれいわ新選組を応援しているかどうか確認せずに掲載してしまった」と説明している[73][74]。
利益独占に関する不確実性[編集]
生成的人工知能は現在、その創造的な能力で世界的な注目を集めているが、ビットコインが2022年に価値が暴落し、その価値の約3分の2が蒸発したように、現在商業的な利益につながる方程式が不確実であるため、生成的人工知能の将来を心配する専門家もいるが、多くの投資が報われることが期待されている[75]。生成的人工知能の利益は年間2.6兆ドルから4.4兆ドルであると推測される。技術を民主化し、誰も利益を貰えるのが最善的な道であると分析されている[76][77]。
脚注[編集]
- ^ “生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について”. utelecon. 2023年7月1日閲覧。
- ^ “生成AI(Generative AI)のビジネスへの影響|Deloitte AI Institute|Deloitte”. デロイト・メンバーファーム. 2023年7月1日閲覧。
- ^ “Nature読者のChatGPT利用法 | Nature ダイジェスト | Nature Portfolio”. www.natureasia.com. 2023年7月1日閲覧。
- ^ “生成AIモデル:ビジネスにおけるリスクおよび潜在的なリターン - KPMGジャパン”. KPMG (2023年5月30日). 2023年7月1日閲覧。
- ^ a b “Anthropic Said to Be Closing In on $300 Million in New A.I. Funding”. en:The New York Times (2023年1月27日). 2023年3月14日閲覧。
- ^ Lanxon, Nate; Bass, Dina; Davalos, Jackie (2023年3月10日). “A Cheat Sheet to AI Buzzwords and Their Meanings”. Bloomberg News 2023年3月14日閲覧。
- ^ Pasick, Adam (2023年3月27日). “Artificial Intelligence Glossary: Neural Networks and Other Terms Explained” (英語). The New York Times. ISSN 0362-4331 2023年4月22日閲覧。
- ^ “Generative models”. OpenAI (2016年6月16日). 2023年5月20日閲覧。
- ^ Metz, Cade. "OpenAI Unveils GPT-4, Months After ChatGPT Stunned Silicon Valley." The New York Times, March 14, 2023, https://www.nytimes.com/2023/03/14/technology/openai-gpt4-chatgpt.html
- ^ Thoppilan, Romal; De Freitas, Daniel; Hall, Jamie; Shazeer, Noam; Kulshreshtha, Apoorv; Cheng, Heng-Tze; Jin, Alicia; Bos, Taylor; Baker, Leslie; Du, Yu; Li, YaGuang; Lee, Hongrae; Zheng, Huaixiu Steven; Ghafouri, Amin; Menegali, Marcelo; Huang, Yanping; Krikun, Maxim; Lepikhin, Dmitry; Qin, James; Chen, Dehao; Xu, Yuanzhong; Chen, Zhifeng; Roberts, Adam; Bosma, Maarten; Zhao, Vincent; Zhou, Yanqi; Chang, Chung-Ching; Krivokon, Igor; Rusch, Will; Pickett, Marc; Srinivasan, Pranesh; Man, Laichee; Meier-Hellstern, Kathleen; Ringel Morris, Meredith; Doshi, Tulsee; Delos Santos, Renelito; Duke, Toju; Soraker, Johnny; Zevenbergen, Ben; Prabhakaran, Vinodkumar; Diaz, Mark; Hutchinson, Ben; Olson, Kristen; Molina, Alejandra; Hoffman-John, Erin; Lee, Josh; Aroyo, Lora; Rajakumar, Ravi; Butryna, Alena; Lamm, Matthew; Kuzmina, Viktoriya; Fenton, Joe; Cohen; Aaron; Bernstein, Rachel; Kurzweil, Ray; Aguera-Arcas, Blaise; Cui, Claire; Croak, Marian; Chi, Ed; Le, Quoc (20 January 2022). "LaMDA: Language Models for Dialog Applications". arXiv:2201.08239 [cs.CL]。
- ^ Roose, Kevin (2022年10月21日). “A Coming-Out Party for Generative A.I., Silicon Valley's New Craze”. The New York Times. 2023年3月14日閲覧。
- ^ “Don't fear an AI-induced jobs apocalypse just yet”. The Economist (2023年3月6日). 2023年3月14日閲覧。
- ^ “Generative AI: Unlocking the future of fashion”. 2023年3月14日閲覧。
- ^ “The race of the AI labs heats up”. The Economist (2023年1月30日). 2023年3月14日閲覧。
- ^ “Google Cloud brings generative AI to developers, businesses, and governments” (2023年3月14日). 2023年3月15日閲覧。
- ^ Justin Hendrix (2023年5月16日). “Transcript: Senate Judiciary Subcommittee Hearing on Oversight of AI”. techpolicy.press. 2023年5月19日閲覧。
- ^ a b “「チャットGPT」にEUが要求:情報源を開示せよ”. The Wall Street Journal. 2023年4月28日閲覧。
- ^ a b "Artists are alarmed by AI — and they're fighting back". The Washington Post (英語). 2023年2月18日閲覧。
- ^ “finetune-transformer-lm”. GitHub. 2023年5月19日閲覧。
- ^ Radford, Alec; Wu, Jeffrey; Child, Rewon; Luan, David; Amodei, Dario; Sutskever, Ilya; others (2019). “Language models are unsupervised multitask learners”. OpenAI blog 1 (8): 9.
- ^ “Hopes for 2024 from Anastasis Germanidis, Sara Hooker, Percy Liang, Sasha Luccioni, Pelonomi Moiloa, Kevin Scott” (英語). Hopes for 2024 from Anastasis Germanidis, Sara Hooker, Percy Liang, Sasha Luccioni, Pelonomi Moiloa, Kevin Scott (2023年12月27日). 2023年12月28日閲覧。
- ^ https://www.marktechpost.com/2023/03/21/a-history-of-generative-ai-from-gan-to-gpt-4/
- ^ https://www.marktechpost.com/2023/03/21/a-history-of-generative-ai-from-gan-to-gpt-4/
- ^ Bommasani, R; Hudson, DA; Adeli, E; Altman, R; Arora, S; von Arx, S; Bernstein, MS; Bohg, J; Bosselut, A; Brunskill, E; Brynjolfsson, E (16 August 2021). "On the opportunities and risks of foundation models". arXiv:2108.07258 [cs.LG]。
- ^ Chen, Ming; Tworek, Jakub; Jun, Hongyu; Yuan, Qinyuan; Pinto, Hanyu Philippe De Oliveira; Kaplan, Jerry; Edwards, Haley; Burda, Yannick; Joseph, Nicholas; Brockman, Greg; Ray, Alvin (6 July 2021). "Evaluating Large Language Models Trained on Code". arXiv:2107.03374 [cs.LG]。
- ^ Ramesh, Aditya; Pavlov, Mikhail; Goh, Gabriel; Gray, Scott; Voss, Chelsea; Radford, Alec; Chen, Mark; Sutskever, Ilya (2021). "Zero-shot text-to-image generation". International Conference on Machine Learning. PMLR. pp. 8821–8831.
- ^ Heaven, Will Douglas (2023年2月15日). “AI is dreaming up drugs that no one has ever seen. Now we've got to see if they work”. MIT Technology Review. Massachusetts Institute of Technology. 2023年3月15日閲覧。
- ^ Agostinelli, Andrea; Denk, Timo I.; Borsos, Zalán; Engel, Jesse; Verzetti, Mauro; Caillon, Antoine; Huang, Qingqing; Jansen, Aren; Roberts, Adam; Tagliasacchi, Marco; Sharifi, Matt; Zeghidour, Neil; Frank, Christian (26 January 2023). "MusicLM: Generating Music From Text". arXiv:2301.11325 [cs.SD]。
- ^ Metz, Cade (2023年4月4日). “Instant Videos Could Represent the Next Leap in A.I. Technology” (英語). The New York Times. 2023年4月30日閲覧。
- ^ Queenie Wong (2022年9月29日). “Facebook Parent Meta's AI Tool Can Create Artsy Videos From Text”. cnet.com. 2023年4月4日閲覧。
- ^ Sherry Yang, Yilun Du (2023年4月12日). “UniPi: Learning universal policies via text-guided video generation”. Google Research, Brain Team. Google AI Blog. 2023年5月24日閲覧。
- ^ Samantha Sonnet (2023). Nightshade: A Defensive Tool For Artists Against AI Art Generators (Report) (英語). AMT Lab, Carnegie Mellon University.
- ^ "Directive (EU) 2019/790 of the European Parliament and of the Council of 17 April 2019 on copyright and related rights in the Digital Single Market and amending Directives 96/9/EC and 2001/29/EC (Text with EEA relevance.)". Act of 17 April 2019. The European Parliament & Council of the European Union.
- ^ European Parliament (2023). Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI (Report) (英語).
- ^ a b c 朝日新聞デジタル『アーティストの作品でAI訓練 「無断で複製された」米国で集団提訴』
- ^ “U.S. Will Not Recognize Copyrights for AI-Generated Images” (英語). U.S. Will Not Recognize Copyrights for AI-Generated Images (2023年3月8日). 2023年12月1日閲覧。
- ^ “第9回 ミッドジャーニーなど画像生成AIを巡る著作権訴訟でクリエーターらの訴えが概ね棄却される | 研究員コラム | KDDI research atelier | KDDI総合研究所” (2023年11月30日). 2023年12月15日閲覧。
- ^ “Artists take new shot at Stability, Midjourney in updated copyright lawsuit” (英語). Reuters (2023年12月1日). 2023-12-015閲覧。
- ^ a b “Microsoft Commits to Cover Copyright Violation Costs for GenAI Services” (英語). Microsoft Commits to Cover Copyright Violation Costs for GenAI Services (2023年9月13日). 2023年12月25日閲覧。
- ^ House, The White (2023年10月30日). “Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence” (英語). The White House. 2023年12月1日閲覧。
- ^ “Problematic White House AI Policy, Parked Cruise Robotaxis, and more” (英語). Problematic White House AI Policy, Parked Cruise Robotaxis, and more (2023年11月1日). 2023年12月1日閲覧。
- ^ a b c d e f g h i j k l m n o p q r s t 潮海 2019, pp. 679–722.
- ^ a b c d e Sobel 2017, pp. 45–97.
- ^ Sobel 2017, pp. 47–78.
- ^ 文化庁著作権課 2019.
- ^ “著作権法 | e-Gov法令検索”. elaws.e-gov.go.jp. 2023年12月19日閲覧。
- ^ “デジタル化・ネットワーク化の進展に対応した 柔軟な権利制限規定に関する基本的な考え方”. 2023年12月18日閲覧。
- ^ “デジタル化・ネットワーク化の進展に対応した 柔軟な権利制限規定に関する基本的な考え方”. 2023年12月18日閲覧。
- ^ “令和5年度 著作権セミナー AIと著作権”. 2023年12月16日閲覧。
- ^ “令和5年度 著作権セミナー AIと著作権”. 2023年12月19日閲覧。
- ^ “令和5年度 著作権セミナー AIと著作権”. 2023年12月19日閲覧。
- ^ 上野 2021, pp. 745–749.
- ^ 愛知 2020, pp. 131–146.
- ^ “デジタル化・ネットワーク化の進展に対応した 柔軟な権利制限規定に関する基本的な考え方”. 2023年12月20日閲覧。
- ^ 中島 & 潮海 2019, p. 10.
- ^ “[デジタル化・ネットワーク化の進展に対応した 柔軟な権利制限規定に関する基本的な考え方 https://www.bunka.go.jp/seisaku/chosakuken/hokaisei/h30_hokaisei/pdf/r1406693_17.pdf]”. 2023年12月22日閲覧。
- ^ 加戸 2013, pp. 280–283.
- ^ 越前巧、馬場口登、笹原和俊「インフォデミック時代におけるフェイクメディア克服の最前線」『人工知能』人工知能学界 2023年3月号 pp.189 - 196
- ^ 生成AIで関東大震災「新証言」を作成…「捏造」批判受け日赤の企画展中止 読売新聞 2023年9月3日
- ^ 日本テレビ (2023年11月4日). ““岸田首相の声”のフェイク動画拡散…ニュース画面に見せかけ”. 日テレNEWS NNN. 2023年11月4日閲覧。
- ^ “生成AIで岸田首相の偽動画、SNSで拡散…生中継のようにニュース番組のロゴも表示”. 読売新聞 (2023年11月4日). 2023年11月4日閲覧。
- ^ “岸田文雄首相の「フェイク動画」拡散で日テレが注意喚起「放送、番組ロゴを悪用」卑猥な言葉も”. 日刊スポーツ (2023年11月4日). 2023年11月4日閲覧。
- ^ TBSテレビ (2023年11月6日). “岸田総理の偽動画拡散 松野官房長官「民主主義の基盤を傷つけかねない」慎むよう呼びかけ”. TBS NEWS DIG. 2023年11月7日閲覧。
- ^ 石田仁志 (2023年11月6日). “政府情報を偽っての発信、行われるべきでない=首相の偽動画で官房長官”. ロイター通信 2023年11月7日閲覧。
- ^ 古川宗 (2023年11月6日). “岸田首相の偽動画が拡散 官房長官「民主主義の基盤を傷つける」”. 毎日新聞. 2023年11月7日閲覧。
- ^ 日本放送協会 (2023年11月1日). “生成AIでニュース番組に似せた偽広告 日本テレビ“注意を””. NHKニュース. 2023年11月4日閲覧。
- ^ 日本テレビ (2023年11月1日). “生成AIでニュースを偽造? 日テレ番組悪用の詐欺広告 一体どうやって? #みんなのギモン”. 日テレNEWS NNN. 2023年11月4日閲覧。
- ^ 徳光一輝 (2023年11月2日). “女子アナが「もう働く必要ない」と偽投資広告 生成AI悪用か、日テレのニュース番組を加工”. 産経新聞. 2023年11月4日閲覧。
- ^ “ChatGPTで資料作成、実在しない判例引用 米国の弁護士”. 日本経済新聞 (2023年5月31日). 2023年8月15日閲覧。
- ^ “ChatGPT: US lawyer admits using AI for case research” (英語). BBC News. (2023年5月27日) 2023年8月15日閲覧。
- ^ “れいわ、虚偽サイト注意呼びかけ 芸能人応援「事実なし」”. 共同通信 (2023年11月10日). 2023年11月12日閲覧。
- ^ “れいわ、偽サイトに注意呼びかけ 俳優3人が「応援メッセージ」?”. 朝日新聞 (2023年11月10日). 2023年11月12日閲覧。
- ^ 日本テレビ (2023年11月10日). “○○さんらの“偽コメント”ブログ 作成者が日テレの取材に回答(一部伏せ字)”. 日テレNEWS NNN. 2023年11月12日閲覧。
- ^ “サイト運営者「AIに書かせた」 れいわ新選組の虚偽応援”. 共同通信 (2023年11月10日). 2023年11月12日閲覧。
- ^ “Feel the Fear! AI Turns Deadly, Data Disappears, Criminals Clone Voices, and more” (英語). Feel the Fear! AI Turns Deadly, Data Disappears, Criminals Clone Voices, and more (2023年10月25日). 2023年11月3日閲覧。
- ^ “McKinsey Projects Generative AI's Impact on Global Economy” (英語). McKinsey Projects Generative AI's Impact on Global Economy (2023年6月21日). 2023年12月9日閲覧。
- ^ “AI Risk and the Resource Curse” (英語). AI Risk and the Resource Curse (2023年6月14日). 2023年12月9日閲覧。
注釈[編集]
参考文献[編集]
- 上野, 達弘「アーティクル:情報解析と著作権——「機械学習パラダイス」としての日本」『人工知能』第36巻第6号、人工知能学会、2021年、745-749頁。
- 潮海, 久雄「スリーステップテストからフェアユースへの著作権制限規定の変容―機械学習(AI)における情報解析規定の批判的検討―」『民商法雑誌』第155巻第4号、有斐閣、2019年、679-722頁。
- 愛知, 靖之「AI生成物・機械学習と著作権法」『パテント』第73巻第8号、日本弁理士会、2020年、131-146頁。
- Sobel (2017). “Artificial Intelligence’s Fair Use Crisis.”. The Columbia Journal of Law & The Arts (Columbia University Libraries) 41 (1): 45–97 .
- 加戸, 守行『著作権法逐条講義 (6訂新版)』2013年。
- 中島, 裕美、潮海, 久雄「AI関連発明における特許要件」『一般社団法人日本国際知的財産保護協会月報』第64巻第7号、日本国際知的財産保護協会、2019年7月、578-591頁。
- 文化庁著作権課『デジタル化・ネットワーク化の進展に対応した 柔軟な権利制限規定に関する基本的な考え方』(レポート)2019年10月 。
関連項目[編集]
- 計算論的創造性
- コンピュータを使用して創造性をモデル化、シミュレート、または複製することを目指した学際的な試み
- 人工的創造
- 人間の想像力を人工的にシミュレーションすること
- 人工知能アート
- 人工知能プログラムによって制作されたアートワーク、特に画像や楽曲
- 音楽と人工知能
- 国際コンピュータ音楽会議におけるさまざまな課題(音楽の作曲、演奏、理論、デジタル音響処理におけるAIの応用など)
- 敵対的生成ネットワーク
- 生成AIに対応する機械学習の枠組みの一つで、2つのニューラルネットワークが互いに競い合う
- Generative pre-trained transformer (GPT)
- transformerアーキテクチャに基づく人工ニューラルネットワークの一種
- 大規模言語モデル
- 多数のパラメータを持つニューラルネットワークで構成される言語モデル
- 無限の猿定理、中国語の部屋