注目のリターン
✿ 5/16 活動報告更新のお知らせ ✿
最新の画像保護技術の情報とソースコードを提供するための記事として、「2025年最新の画像保護技術とソースコード」を全体公開しました!
■□■ 第3ゴール挑戦中 ■□■
皆さまから多くのご支援を賜り、プロジェクト開始から2週間でネクストゴール「150万円」を達成することができました。
深く御礼を申し上げるとともに、私たちからのメッセージと第3ゴール「300万円」について、お伝えさせていただきます。
第3ゴールを達成した場合には、最新の画像保護研究を直接利用できる環境を皆さまに提供します。
この環境の提供は、皆さまからアカデミックな技術に対する率直なご意見をいただき、「今後こうなって欲しい」といったフィードバックを受け取ることで、研究開発に活かせると考えています。
ぜひ、引き続きお力添えをいただけますと幸いです。
■□■ 目標達成の御礼 ■□■
初日より多くのご支援を賜り、プロジェクト開始の告知から23時間で目標金額「100万円」を達成することができました。
深く御礼を申し上げるとともに、私たちからのメッセージとネクストゴール「150万円」について、お伝えさせていただきます。
詳細: https://camp-fire.jp/projects/832033/view/activities/682105#main
自己紹介
この度は、本プロジェクトにご関心を持っていただきありがとうございます。
私たちは、東京大学の研究員および卒業生を中心とする有志の研究チームで、アーティスト、クリエイターの著作権を保護するための研究と開発に取り組んでいます。
メンバーの専門分野は、知的財産法、情報法、計量経済学、コンピュータビジョン、機械学習など多岐にわたりますが、いずれも著作権保護に関する社会的課題に強い関心を持つメンバーが集まっています。
将来的には、全世界の人が安心して作品を投稿できる著作権保護プラットフォームを開発し、普及を目指しています。
詳細: https://lovlet.jp/about-us
プロジェクトの背景
生成AIの学習における著作権侵害や無断使用が近年深刻な問題となっています。
画像生成AIや音楽生成AIにおいては、オリジナルの作品が無断で利用され、その結果、アーティストやクリエイターが経済的損失を被っているという事態が起きています。
世界各国で訴訟が起きており、アメリカでは、著作権を持つアーティストやクリエイターが、自身の作品が無断でAIに学習され、生成されたコンテンツに使用されているとして、生成AIを提供する企業に対して訴訟を起こしています。日本でも、著作権法を適用した生成AIの利用に関する議論が進んでいるものの、現行の法律ではAIが生成したコンテンツに対しての権利が明確でないなどの課題があり、今後の法改正が求められています。
このような問題を解決するためには、業界全体での協力や、法的な枠組みの見直し、クリエイターの権利を保護するための技術的な対策が必要となります。さらに、生成AIを利用したコンテンツが市場に氾濫する中で、偽作や盗用のリスクも増加しており、コンテンツの真正性や品質を確保するための対策も急務です。
実現したいこと
このプロジェクトの第一段階では、著作権保護を目的とした画像保護プラットフォームを構築し、どなたでも使える形で公開します。
このプラットフォームは、主に次の2つの役割を担います。
1. 生成AIによる学習からコンテンツを守り、自身の作品を保護できる環境を提供します。
2. 自身が生成AIを使用していないことを明示し、作品の信頼性を示せる環境を提供します。
現段階でも、プロジェクトの実現に向けて、現行の生成AIによる学習の仕組みや法律を踏まえた画像保護プラットフォームのプロトタイプを開発し、公開しています。
次のものは、プラットフォームのトップ画面です。
次のものは、プラットフォームの作品公開画面です。
プロトタイプのリリース
2025年1月19日にテスト版をリリースし、Xアカウント(@lovlet_jp)を通して、多くの方々からフィードバックをいただいています。
画像保護プラットフォームの詳細は、こちらに記載しています。
画像保護技術の開発
私たちは、プラットフォーム開発の他、画像保護のための研究開発に取り組んでおり、現在、画像保護技術を無償で提供しています。
画像保護技術の詳細は、こちらに記載しています。
詳細: https://lovlet.jp/image-protection-filter
◼️ 世界各国の取り組み
画像保護技術は、世界各国の研究機関で研究されており、同分野の研究としては、次のような取り組みがされています。
こちらは、本プロジェクトでも参考としている研究です。
MetaCloak (2024)
CAAT (2024)
VCPro (2024)
https://arxiv.org/abs/2408.08518
リターンについて
◆ 1,000円 支援プラン【お礼のメッセージ】
公式サイト内に、私たちからお礼のメッセージを掲載させていただきます。
本企画を応援してくださる方向けのライトプランです。
個別のリターンはありませんので、予めご了承ください。
◆ 3,000円 支援プラン【お名前掲載】
公式サイト内の「クラウドファンディング支援者」に、支援者様のお名前を掲載します。
支援時、掲載するお名前を備考欄にご記入ください。
◆ 10,000円 支援プラン【クラウドファンディング支援者限定バッジ付与+お名前掲載】
お名前掲載の他、サービス内で表示される名前の横にクラウドファンディング支援者限定バッジを表示します。
支援時、掲載するお名前とサービス内でご使用されるメールアドレスを備考欄にご記入ください。
◆ 50,000円 支援プラン【特別支援者としてのお名前掲載】
公式サイト内に「特別支援者」として、支援者様のお名前、アイコン、プロフィール、コメント(任意)を掲載します。
支援時、掲載する内容を備考欄にご記入ください。
◆ 100,000円 支援プラン【企業名・ロゴ掲載】
公式サイト内の「クラウドファンディング支援企業」に、支援者様の企業名、ロゴ画像を掲載します。
支援時、掲載する内容を備考欄にご記入ください。
※ 補足
備考欄には文字数制限があり、内容が収まりきらない場合がございます。
その際は、メッセージ機能にて別途お送りいただければ対応します。
次のものは、「◆ 10,000円 支援プラン」 のクラウドファンディング支援者限定バッジのイメージです。
ご協力者の募集について
クラウドファンディング支援とは別途、本課題の解決と普及のために、ご協力いただけるクリエイターさま(写真家、漫画家、コスプレイヤー、イラストレーター、その他のメディアを使用する職業の方)を募集しています。
ご関心のある方は、こちらのフォームからお問い合わせください。
https://forms.gle/KP4bLkLmEvnVbRnv6
スポンサー企業の募集について
クラウドファンディング支援とは別途、ご支援いただける企業さまを募集しています。
ご関心のある方は、こちらのフォームからお問い合わせください。
https://forms.gle/DP5vKxbNQtKUS9vK8
資金の使い道
皆様からお預かりした資金は、主に「プラットフォームの運用費」に使用させていただきます。
支援資金が目標金額である100万円を上回った場合は、次の費用に使用させていただきます。
・プロジェクトの運営費(人件費)
・プロジェクトの普及活動費
・プラットフォームの開発費
・プラットフォームの改善費
・関連技術の研究費
支援資金が目標金額を大幅に上回った場合は、次の費用に使用させていただきます。
・画像サイズや枚数上限の拡張費
・音楽・映像・その他メディアを対象とした、新たなプラットフォームの構築検討
本支援は、アカデミックな研究を実際に活用していただくための運用費の調達を一番の目的としています。一方で、目標金額を大幅に超えた場合には改めて検討し、その結果を続報としてお知らせいたします。
スケジュール
本プロジェクトの支援募集期間については、次の通りです。
2025/3/13(木)〜2025/5/31(土)23:59まで
リターンについては、募集終了後から順次開始し、6月末までに全てのリターンを実施完了予定です。その後は、皆さまからの支援資金、フィードバックを元に上記の内容を実施していく予定です。
最後に
作品を多くの人に楽しんでもらうために公開しているにもかかわらず、不安や課題を抱えているアーティストやクリエイターが大勢います。本プロジェクトは、小さな研究チームではありますが、この課題を解決するために全力を尽くしたいと考えています。ご支援・ご協力をいただけますと、大変ありがたく思います。
最新情報については、Xアカウント(@lovlet_jp)を中心に発信してまいりますので、こちらもフォロー、応援いただけたら幸いです。
最新の活動報告
もっと見る2025年最新の画像保護技術とソースコード
2025/05/16 10:00この度は、本プロジェクトにご関心をお寄せいただきありがとうございます。本記事では、「2025年最新の画像保護技術とソースコード」と題し、現在公開されている最新の画像保護技術の中から、学術的に認められているものに限定して、全てソースコード付きでご紹介いたします。本記事は、これらの技術を皆様個人でご利用いただく他、民間企業や団体によるサービスの提供、また本課題の学術的状況や問題意識の共有につながることを期待しています。以下、技術名称の横に記載の括弧内の文言は、各研究が発表された、または発表予定の国際会議の名称を表しています。また、掲載している図は、各論文および公開されているソースコードから引用しています。■ Anti-DreamBooth (ICCV'23)論文:Van Le, Thanh, et al. "Anti-dreambooth: Protecting users from personalized text-to-image synthesis." Proceedings of the IEEE/CVF International Conference on Computer Vision. 2023.コード:https://github.com/VinAIResearch/Anti-DreamBoothDreamBoothと呼ばれる技術を利用すると、特定の人物の画像をわずかに学習させるだけで、その人物の新たな画像を生成することができます。Anti-DreamBoothは、こうしたDreamBoothの悪用から個人を保護することを目的に開発された技術です。この技術を利用することで、画像がDreamBoothの学習に使用された場合でも、低品質の画像しか生成できないようにすることが可能です。■ Photoguard (ICML'23)論文:Salman, Hadi, et al. "Raising the cost of malicious AI-powered image editing." Proceedings of the 40th International Conference on Machine Learning. 2023.コード:https://github.com/MadryLab/photoguardPhotoguardは、上記の技術と同様の目的を持ちつつ、より幅広い画像生成モデルに対応した防御を提供する技術です。Anti-DreamBoothは、比較的シンプルかつ軽量なことから導入しやすい一方、DreamBoothによる顔画像の不正学習の防止に特化しています。これに対し、Photoguardは、様々な画像や生成モデルに対応した防御手段を実現しており、より汎用的な保護性能を持つ技術と言えます。■ Mist (ICML'23)論文:Liang, Chumeng, et al. "Adversarial example does good: preventing painting imitation from diffusion models via adversarial examples." Proceedings of the 40th International Conference on Machine Learning. 2023.コード:https://github.com/psyker-team/mistMistは、Textual Inversion、Stable Diffusion、NovelAIといった、より実践的かつ広く利用されている画像生成モデルに対する防御を提供する技術です。本技術は、画像のスタイルやコンテンツの模倣を防ぐことを目的に設計されています。■ MetaCloak (CVPR'24)論文:Liu, Yixin, et al. "Metacloak: Preventing unauthorized subject-driven text-to-image diffusion-based synthesis via meta-learning." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2024.コード:https://github.com/liuyixin-louis/MetaCloakMetaCloakは、上記の技術と同様の目的を持ちながら、転送可能な防御効果(Stable Diffusion v1.5, v2.1といったモデルを跨いでの防御効果)を備えている防御技術です。また、Mistでは対象としていなかったLoRAに対する防御性能があることが実証されています。■ CAAT (CVPR'24)論文:Xu, Jingyao, et al. "Perturbing attention gives you more bang for the buck: Subtle imaging perturbations that efficiently fool customized diffusion models." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2024.コード:https://github.com/CO2-cityao/CAAT/tree/mainCAATは、北京交通大学、Google Research、セントラルフロリダ大学によって共同開発されたもので、MetaCloak同様に転送可能性を備えた防御技術です。論文では、Anti-DreamBooth・Mistと比較して、顕著な有効性を持つことが述べられています。また、Anti-DreamBooth・Mistと比較して、約2倍の速度で実行可能であることから、より実用的な保護手段といえます。■ EditShield (ECCV'24)論文:Chen, Ruoxi, et al. "Editshield: Protecting unauthorized image editing by instruction-guided diffusion models." European Conference on Computer Vision. Cham: Springer Nature Switzerland, 2024.コード:https://github.com/Allen-piexl/Editshield/EditShieldは、PhotoGuardなどの技術と同様の目的を持ちつつ、特に指示誘導型の画像編集に対する防御を提供する技術です。本技術を適用することで、生成された画像の品質が、元画像と比べて、大きく低下することが確認されています。また、その他の種類の編集に対しても有効であり、PhotoGuardと比較して、優れた性能を示すことが確認されています。なお、PhotoGuard・EditShieldと比較して、より優れた性能を示すGuardDoorと呼ばれる技術もあるので、興味のある方はこちらもご覧ください。■ Nightshade (IEEE S&P'24)論文:Shan, Shawn, et al. "Nightshade: Prompt-specific poisoning attacks on text-to-image generative models." 2024 IEEE Symposium on Security and Privacy (SP). IEEE, 2024.コード:https://github.com/Shawn-Shan/nightshade-releaseNightshadeは、学習対象の画像に「毒」を仕込むことで、指示誘導型の画像編集に対する防御を実現する技術です。本技術を用いることで、適用した画像が100枚未満であっても、Stable Diffusionなどの画像生成モデルにおけるプロンプトの挙動を破壊できることが確認されています。なお、公開されているソースコードは、研究目的の基本実装であるため、個人で使用する場合には、公式ウェブサイトに掲載されているPC向けソフトウェアが利用ができます。■ ACE (ICLR'25)論文:Zheng, Boyang, et al. "Targeted Attack Improves Protection against Unauthorized Diffusion Customization." The Thirteenth International Conference on Learning Representations.コード:https://github.com/caradryanl/ACEACEは、Mistの開発者らによって提案された新たな防御技術です。本技術は、最新の画像生成モデルであるStable Diffusion v3に対して、LoRA耐性の有効性を示した最初の研究とされています。なお、2025年5月現在では、ソースコード上で「Mist v2」として、安定版が公開されています。■ AtkPDM (AAAI'25)論文:Shih, Chun-Yen, et al. "Pixel is not a barrier: An effective evasion attack for pixel-domain diffusion models." Proceedings of the AAAI Conference on Artificial Intelligence. Vol. 39. No. 7. 2025.コード:https://github.com/AlexPeng517/AtkPDMAI分野に関するトップ国際会議の一つ「NeurIPS'24」の「Safe Generative AI」ワークショップにおいて、これまでの画像保護技術に関する重要な見落としと脆弱性が指摘されました。AtkPDMは、これらの課題に対処した新しい対象への防御技術です。本研究に至るまでの研究動向や詳細については、支援者限定記事「2025年最新の画像保護技術と研究動向」でもご紹介しているので、興味のある方はこちらもご覧ください。■ EditGuard (CVPR'24) / OmniGuard (CVPR'25)論文1:Zhang, Xuanyu, et al. "Editguard: Versatile image watermarking for tamper localization and copyright protection." Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2024.論文2:Zhang, Xuanyu, et al. "OmniGuard: Hybrid Manipulation Localization via Augmented Versatile Deep Image Watermarking." Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2025.コード:https://github.com/xuanyuzhang21/EditGuardEditGuardは、画像に目に見えない形で著作権情報を埋め込む技術であり、さらに、改ざんが行われた箇所を正確に特定できるウォーターマーキング技術です。論文では、著作権情報の復元、改ざん箇所の特定精度の高さが実証されており、実用性の高いウォーターマーキング手段といえます。最近では、本技術の改良版であるOmniGuardが、コンピュータビジョン分野のトップ国際会議の一つである「CVPR'25」にて採択されており、さらなる改良が見られています。■ WAM (ICLR'25)論文:Sander, Tom, et al. "Watermark Anything with Localized Messages." The Thirteenth International Conference on Learning Representations.コード:https://github.com/facebookresearch/watermark-anythingWAMは、Meta社によって提案されたもので、EditGuard同様、画像に目に見えない形で著作権情報を埋め込むだけでなく、改ざんが行われた領域を特定することが可能なウォーターマーキング技術です。現時点で、透かしの位置を特定できる手法は、WAMとEditGuardのみであり、両者はこの分野において先進的な技術と言えます。従来の技術では、画像の一部を切り貼りする「スプライシング」操作などに対して脆弱でしたが、WAMは、画像が切り貼りされた場合にも対処可能です。さらにWAMは、EditGuardを上回る性能を持つだけでなく、同一画像内に埋め込まれた複数の透かしを検出・抽出できる初の技術とされています。■ DiffusionShield (NeurIPS'23) (SIGKDD'25)論文1:Cui, Yingqian, et al. "DiffusionShield: A Watermark for Data Copyright Protection against Generative Diffusion Models." NeurIPS 2023 Workshop on Diffusion Models.論文2:Cui, Yingqian, et al. "DiffusionShield: A watermark for data copyright protection against generative diffusion models." ACM SIGKDD Explorations Newsletter 26.2 (2025): 60-75.コード:https://github.com/Yingqiancui/DiffusionShieldDiffusionShieldは、画像に目に見えない形で著作権情報を埋め込むだけなく、それが画像生成AIの出力で再生成されるように設計されているウォーターマーキング技術です。本技術は、画像の品質を損なうことなく高精度でウォーターマークを検出できるだけでなく、ガウシアンノイズ、ぼかし、グレースケール変換、JPEG圧縮、リサイズといった各種の加工・攻撃に対して高い耐性を持ちます。さらに、長文メッセージの埋め込みができる点も特徴です。長いメッセージを埋め込めることは、より決定的な侵害の証拠を提供できるという点で、透かし技術において重要な要素となります。このような研究の需要は年々高まっており、2025年4月には、深層学習分野におけるトップ国際会議の一つである「ICLR'25」にて、生成AIに関するウォーターマーキング技術の初のワークショップが開催されました。 今後は、こうしたワークショップでの議論も、着目すべき情報となります。URL:https://sites.google.com/view/genai-watermark/本記事では、学術的に認められている一部の研究に絞ってご紹介しましたが、より最先端の研究については、arXivといったプレプリントサーバー(査読前の学術論文をインターネット上で公開する仕組み)からご覧いただけます。本記事が、個人の方々だけでなく、より大きな団体や民間企業の皆さまにとって参考となり、実際の導入にも繋がれば嬉しく思います。現在実施中のクラウドファンディングにおいても、第3ゴールを達成した際には、これらの技術の中から選定し、皆様に触っていただける環境の提供を予定しています。クラウドファンディングは、2025年5月31日まで受付中ですので、もし本取り組みにご協力いただける方は、引き続き応援、ご支援いただけますと幸いです。Lovletプロジェクトメンバー一同 もっと見る2025年最新の画像保護技術と研究動向
2025/04/04 03:12こちらの活動報告は支援者限定の公開です。150%達成の御礼と第3ゴールに向けて
2025/03/31 17:30この度は、本プロジェクトに多くのご支援を賜りありがとうございます。プロジェクト開始から2週間、ネクストゴールの150万円を達成することができました。また、皆さまからの温かい応援のメッセージは、私たちにとって大きな励みとなっています。改めまして、心より御礼申し上げます。皆様からの応援に応えるため、いただいたフィードバックを元にこの2週間でも多くのアップデートを実施しました。詳細については、こちらをご確認ください。皆様へのメッセージこの数日のニュースでは、OpenAI社のCEOであるサム・アルトマン氏が、画像生成AIを用いて作成した「スタジオジブリ風」のアイコンを自身のXアカウントの画像に設定したことが話題となり、著作権侵害の可能性について議論が巻き起こっています。学術研究の分野においても、スタジオジブリの画像を用いた画像生成の研究が行われている例は少なくありません。実際、近々紹介予定の画像保護に関する研究論文でも、ジブリの画像や新海誠監督のアニメーション映画の画像が使用されています。2025年現在の状況を整理すると、「画像生成AIによって出力されたものが著作権を侵害しているか否かについて、本格的な議論が始まった段階にある」と言えます。この流れは良い兆しである一方で、裏を返せば、「画像生成AIは、著作権を考慮せずに多くの画像を学習している」という現実も浮き彫りになっています。このような事実を踏まえても、利用規約による保護や著作権法の適用の有無だけでなく、技術的な側面からも、生成AIに学習されない仕組みの構築は必要不可欠であると考えられます。第3ゴールに向けて私たちの画像保護技術では、最新の画像保護技術と深層モンテカルロ木探索(世界トッププレイヤーに勝利した囲碁AIである"AlphaGo"に導入されているような強化学習技術の一つ)に見られる近似アルゴリズムなどを用いて、高速化を図っています。最新の画像保護技術の多くは、GPUの利用が前提となっており、高コストな計算資源を必要としますが、「Mist V2 などの最新の画像保護技術を直接利用したい」というご要望も多数いただいております。そこで、第3ゴールを「300万円」と設定し、達成した場合には、これらの最新技術を直接利用できる環境を提供いたします。この環境の提供は、単なるご要望への対応ではなく、皆さまからアカデミックな技術に対する率直なご意見をいただき、「今後こうなって欲しい」といったフィードバックを受け取ることで、研究開発に活かせると考えています。また、専用の環境を別途構築するのではなく、あくまでご支援いただいた研究開発のための資金の中で、研究開発用の計算資源を一部開放し、皆さまにご利用いただく、といったイメージとなります。当該分野の研究の進捗は著しく、具体的にどの技術を提供できるのか、また、その効果を保証できるのかについては、どうしても基礎研究であるため、不確定な要素が伴ってしまいます。そのため、300万円に達しなかった場合でも、別の形でリターンを還元できるよう、現在検討を進めています。今後の活動やリターンの詳細については、改めてご報告させていただきます。画像保護技術の品質の向上、新たな技術の開発、さらには社会実装と運用に向けて、引き続き尽力してまいりますので、どうぞ引き続きご支援のほどよろしくお願いいたします。Lovletプロジェクトメンバー一同 もっと見る
コメント
もっと見る