国内最大級のAI(人工知能)関連メディアLedge.aiが、2023年の年末から2024年の年始にかけて公開した参加費無料の年末年始特集「Ledge.ai 23to24」。 本特集ではサイト内で掲載していた、有識者・業界をリードする企業への特別インタビューや、Ledge.ai編集部が執筆する「2024年のAI」など、見どころコンテンツの全文を公開する。
2023年は「生成AI著作権法」に関するニュースが数多く取り上げられ、6月には文科省が「AIと著作権の関係等について」の資料を発表するなど、生成AIの普及とともに「著作権」についても注目される年となった。 今回は、様々なジャンルのAIスタートアップの顧問弁護士として活躍し、2020年5月より日本ディープラーニング協会(JDLA)の有識者委員にも就任している柿沼太一弁護士へ、「AI×著作権」について語ってもらった。
STORIA法律事務所 弁護士 柿沼太一
専門分野はスタートアップ法務及びデータ・AI法務。現在、様々なジャンル(医療・製造業・プラットフォーム型等)のAIスタートアップを、顧問弁護士として多数サポートしている。経済産業省「AI・データ契約ガイドライン」検討会検討委員(~2018.3)。日本ディープラーニング協会(JDLA)有識者委員(2020.5~)。「第2回 IP BASE AWARD」知財専門家部門グランプリを受賞(2021)。
AIの民主化により著作権に関する相談が増加
──2023年はAIが一般に広がった印象的な年となりました。2022年と2023年を比較して、大きく変化した実感などはありますか?
柿沼弁護士 私がAI関連の案件を始めたのは2017年ぐらいからなのですが、その頃はAI開発ベンダーからの相談がほとんどでしたね。開発における契約周りや著作権を含む知的財産権、個人情報に関する相談・案件がとても多かったと記憶しています。 しかし、2022年の7月にMidjourneyが登場し、一般の方がAIを利用するようになったことで、大きな変化がありました。画像生成AIと著作権に関する記事を2022年8月以降に執筆しはじめたのですが、AIベンダーだけでなく、生成AIの利用者側からも大きな反響があり、主に画像生成AIに関する相談・案件が爆発的に増えました。
もっとも、画像生成AIを多くの一般企業がすぐにビジネス利用するようになったかというと、まだそこまでではなかったと思います。しかし、2022年11月にリリースされたChatGPTのような文章生成AIは、ビジネスへのインパクトが画像生成AIと比較すると桁違いで、一般的にも「生成AIは相当使えそうだ」という認識が多くなされたと思います。その結果、生成AIの利用者が爆発的に増え、ビジネス利用のニーズも激増しました。 その状況を受けて、JDLAは、理事長である松尾先生のご発案で『生成AIの利用ガイドライン』(https://www.jdla.org/document/#ai-guideline)を作成し2023年5月に公開しましたが、ガイドラインを公開以降も生成AIを利用したいという企業がさらに増加していきました。
私がAIに携わり始めた2017年頃と比較すると、AIを”作る側”だけでなく、”使う側”の案件が非常に増えたので、AIの民主化を身近に感じるようになりましたね。
──生成AIに関する相談や案件が爆発的に増えた1年だったのですね。改めて、生成AIの利活用において、どのような場合に著作権の侵害に当たるのかをお教えいただけますか。
柿沼弁護士 ビジネス利用に絞ってお伝えしますが、生成AIの開発側(学習・作る側)で問題になるポイントと、生成AIを業務のために利用する側(使う側)で問題となるポイントが異なるので、後者に絞ってお伝えします。
生成AIの1番シンプルな利用法は、文章生成AIを用いて文章を生成するというパターンです。アイデア出しや、業界リサーチに利用する場合は著作権侵害リスクはかなり低いと考えますが、その場合でも内容の正確性の担保や著作権侵害リスクの低減からも、「ChatGPTを業務で利用して生成された文章をそのまま使う」ということは避けた方が良いです。一方、他人が著作権を持つ文章の要約や翻訳などをChatGPTを用いて行い、その生成文をそのまま公表・利用した場合、元の文章の著作権侵害に当たる可能性があります。
画像生成AIを用いて画像を生成するパターンも多い利用法かと思いますが、生成した画像を業務で利用する場合も注意が必要です。例えば「〇〇キャラ風にできる画像生成AI」など、特定のものだけ学習したような特化型モデルを利用すると、学習用データと類似した生成物が生成され、その結果、著作権侵害が容易に起こり得るためです。また、プロンプトを入力する際に「〇〇風なものを作成してほしい」などの指示を出した場合は、著作権侵害のリスクが高くなります。 さらに、生成されたものについて、既存の第三者著作物に似ていないかをチェックすることが必要です。web検索くらいしか出来ないかもしれませんが、画像生成AIを利用して画像を生成・利用する場合は特にしっかりと確認を行ってください。
日本の著作権法が与える影響
──生成AIと著作権に関して、問題になった、あるいは訴訟になった判例などはあるのでしょうか?
柿沼弁護士 判例ではないですが、文章生成では2023年9月にウェブメディアが生成AIを用いて執筆していた記事の文面が、大手メディアの記事に酷似していることで、同メディアが盗用に関する謝罪を行った問題がありましたね。これは謝罪と該当記事を全て削除することで終息しました。 生成AIと著作権関連での裁判は私が知る限り日本では起こっていないと思います。アメリカでは集団訴訟が起きていますが、「AIを使う側」ではなくて、「AIを作る側」であるStableDiffusionやMidjourneyに対する学習データをめぐっての裁判のようです。
──日本の著作権法は、AI開発に際しての学習データの扱いについて非常に寛容な法律ですよね。
柿沼弁護士 仰る通り、日本の著作権法はAI学習に関しては非常に寛容な規定となっています。具体的には著作権法30条4や同47条の5ですが、これらの規定については、ここ1年くらいで非常に広い範囲に知れ渡ったのではないかと思います。 一方で、学習データとして利用されたくないと考える方からは「著作権法を改正すべき」という意見が多く出始めています。意見の発信者は大きく分けて2種類あり、1つは俳優さんやイラストレーターさんなどのクリエイター側、もう1つは新聞社をはじめとするメディア側ですね。後者は有料コンテンツ等を無断で学習・利用されてしまうことへの反発が大きくなっていると思われます。
ビジネス利用者が今後取り組むべきこと
──生成AIに関して、ビジネス利用する企業が取り組むべきことはなんですか。
柿沼弁護士 やはり、社内ガイドラインや社内規定の整備を進めるというのが、直近で取り組めることかと思います。 現時点では、JDLAが公表している『生成AIの利用ガイドライン』を参考にして頂ければ、最低限のガイドラインは準備できます。 また、政府が2023年9月にAI戦略会議を開いて、事業者向けの生成AIガイドラインの骨子案(スケルトン)を発表しました。今後、このスケルトンを基に政府が正式なガイドラインを出すと思うので、そちらも参照するのが良いと思います。 このスケルトンを見ると、AIモデルを作る事業者、AIモデルを利用する事業者、AIモデルを使ったサービスを提供する事業者など、ターゲット毎に様々な注意事項が書いてあります。もっとも、生成AIの場合、「使う側」が同時に「作る側」にもなるため、どのような・どこまで規制を課したらよいのかなどの適用範囲を判断するのが難しいと思います。基本的には、JDLAのガイドラインや、政府が今後発表するガイドラインを参照し、それをベースに社内のガイドラインを作成していく方法が良いのではないでしょうか。
── これからの生成AI活用の動きに関してはいかがでしょうか。
柿沼弁護士 これは明らかな流れが1つありまして、独自データと外部データを利用してLLMからの出力の精度を向上させる動きですね。ビジネス利用を考えたときに、「素」のLLMのままだと正確な出力は当然出てきません。そのため、出力の精度向上に向けた社内外のさらなるデータ活用が、この1・2年では大きくなるのではないでしょうか。 その過程で、自社(自分)が著作権を保有していない外部データを利用する場合に、著作権の問題が出てくるかと思います。これまでは”モデル開発”の部分、主として生成AI開発者側の著作権の論点が問題となっていましたが、これからは生成AI利用者側でも著作権の論点が多く問題になっていくのではないかと考えます。
──ちなみに、柿沼先生は業務などに生成AIを利用されていますか。
柿沼弁護士 生成AIを弁護士業務で使うとすると、まずリサーチツールが考えられるのですが、現状、正確性や根拠が分からない等もあるので業務では利用していません。一方、今後是非使いたいと思っているので、所内で小規模ですが開発を行うなど色々試行錯誤している段階です。AIを活用した契約レビューツールなどもありますが、うちの事務所では現状は利用していません。
生成AIの利用領域は、大きく分けると、医療や法律分野などの「ある程度の正解がある領域」と、画像生成などのクリエイティブ領域「正解がない領域」があるように思います。前者の「正解がある領域」で生成AIを利用する場合、生成AIからの出力が正解かを判断できる利用者が利用することは良い使い方だと思います。たとえば、弁護士が法律領域のリサーチで生成AIを利用するケースですね。 一方、「ある程度の正解がある領域」で、正解が何かを判断できない利用者(たとえば、一般の方が法律領域のリサーチで生成AIを利用するケース)が利用することは、お勧めできません。大きな間違いにつながる可能性があるためです。そのため、当該領域では、自ら正解が判断できる範囲で、業務効率化のために利用するという使い方が適しているように思います。
ちなみに、私は弁護士なので、「生成AIが進化していくと弁護士のような専門家のの仕事が奪われるのでは?」とよく聞かれます。ただ、これまで依頼者が弁護士に頼んでいた業務について「弁護士に頼まなくとも生成AIを使って答えを出せるので専門家に依頼しなくなる」というような世界は、あまり来ないのではないかと個人的には考えています。依頼数自体が減る懸念より、専門家の中でAIを使いこなす人・使いこなせない人が出てくることで、業務効率に歴然とした差がついてしまう懸念の方があると思います。使いこなす人の業務効率は上がっていくため、その分多くの仕事を引き受けられるようになり、使いこなせない人の仕事を奪ってしまう形になってしまう方が、課題としては大きいのではないでしょうか。