見出し画像

【徹底調査】国産許諾型AI「ミツア」はStable Diffusionに追いつけるのか?—性能差の理由と必要予算を試算してみた

【訂正および追加情報 2025/03/17】

本記事の内容に関して、Mitsua Likesの開発者である株式会社アブストラクトエンジンの花井様より、いくつかの技術的な誤りとコスト試算の更新に関するご指摘をいただきました。読者の皆様に正確な情報を提供するため、以下の通り訂正および追加情報を記載いたします。

【技術的な訂正】

  • VAE未搭載 → ミツアには独自に学習・搭載された8ch VAEが実装されている。

  • OpenCLIPや同等の技術が未実装 → ミツアでは、独自に学習・実装された「Mitsua Japanese CLIP」が搭載されている。

【コスト試算の更新】 最新の研究成果を反映したコスト見積もりによると、以下のように費用を大幅に抑えた学習が可能であることが示されています。

  • CLIP: 約1万ドルで学習可能(従来の24万ドルと比較して大幅な削減) 参考: https://arxiv.org/abs/2306.15658

  • 画像生成: 約2,000ドルでSDXL相当のモデルが学習可能 参考: https://arxiv.org/abs/2410.08261

  • VAE: 約1,700ドルで学習可能

これらの更新情報を踏まえると、ミツアがSDと同等の水準に到達するための総コストは2万ドル以下であり、記事中で試算していた約7,000万円という見積もりは過剰である可能性があります。

今後も新たな情報を随時反映し、より正確な技術評価とコスト分析を行ってまいります。読者の皆様には引き続きご理解とご協力を賜りますようお願い申し上げます。


以下の記事は原文のままです。訂正とあわせて読んで下さい🙇‍♂️


こんにちは、榊正宗です。最近、「ミツア」の名前を出して生成AIに批判的な意見を述べる方が多いので、実際にミツアとStable Diffusionなどの生成AIの違いを徹底的に調べました。また、国産の許諾ベースのAIプロジェクトであるミツアが、Stable Diffusionの性能に追いつくために必要なリソースやコストも試算しました。調査にはChatGPTのDeepResearchを使っています。試算の正確性には限界がありますが、ミツアの現状や位置づけを理解する参考になるかと思います。志がとても高いプロジェクトなので応援していますが、実現には莫大な資金が必要だと分かりました。

今回も本文が非常に長いので、要点だけを手軽に読めるようGPTsを準備しました。ぜひそちらで要約や質問などご活用くださいませ🙇‍♂️

第1章 ミツアプロジェクトの現状とStable Diffusionとの技術的差異の詳細分析

画像生成AIの分野では、「Stable Diffusion(以下、SD)」が世界中で広く普及し、画像生成技術のスタンダードのひとつとして高い評価を受けている。一方、日本のベンチャー企業である株式会社アブストラクトエンジンが進めるAI画像生成プロジェクト「ミツア」は、SDを意識した取り組みを行いながらも、いくつかの重要な要素が未搭載のため、性能面での差異が生じているのが現状である。本章では、まずミツアプロジェクトの概要を確認した上で、具体的に技術的な差異を丁寧に分析し、SDに追いつくために何が不足しているのかを明らかにする。

ミツアプロジェクトの背景と概要

ミツアは2022年に株式会社アブストラクトエンジンが開始した、AIを用いた画像生成型のVTuberプロジェクトである。VTuberというと一般的には人間が演じるキャラクターだが、ミツアの場合はAI自体がクリエイター兼キャラクターという斬新な位置づけで、視聴者がYouTubeのコメントを通じて直接制作に参加できる形式をとっている。
プロジェクトの根幹となる哲学は、「完全に許諾済み、倫理的かつ透明性のあるAI学習」であり、著作権的にクリーンなデータだけを用いてモデルを育てるという新しい試みを行っている。これはStable Diffusionなど多くの画像生成AIが、インターネットからスクレイピングしたデータを用いて学習している状況に対して、倫理的な問題提起を行っているとも言える。結果的にミツアのモデルは、学習データの許諾を重視し、パブリックドメイン(著作権切れ)やCC0ライセンス、またはユーザーが明示的に許諾したデータだけを利用しているという点で、大きく差別化されている。
しかし、このような思想的な価値がある一方で、技術的な面から見たとき、ミツアにはSDに劣るとされるいくつかの課題が存在する。具体的には、ミツアのAIモデルが「VAE(Variational Autoencoder)」と「OpenCLIP」の2つの重要なコンポーネントを搭載していないという点である。次のセクションでは、これらが技術的にどのような役割を担っているかを深掘りし、ミツアとの差異を詳細に明らかにしていく。

VAE(Variational Autoencoder)の役割とミツアへの影響

Stable Diffusionは、U-Net型のDiffusionモデルとCLIPによるテキスト・画像連動に加え、「VAE」(変分オートエンコーダ)を使うことで高品質な画像を生成している。VAEとは、入力画像を潜在空間(Latent Space)へと圧縮し、ノイズの多い画像からクリアな画像を再構築する役割を持つ。このためSDでは画像の質感や細部の精密さが保たれ、鮮明でリアルな画像を生成できるようになっている。
一方、ミツアの現在のモデルにはこのVAEが搭載されておらず、画像生成の過程で細部や質感の表現に難が生じやすい。特にイラストや写真における細かいテクスチャ表現や色の再現性、細部の精度という面でSDに劣ることは明らかであり、この問題を改善するためにはVAEを導入し、適切なトレーニングを行うことが必須となる。しかしVAEの導入は技術的にも簡単ではなく、画像再構成に必要なエンコーダとデコーダを十分なデータと計算リソースで訓練しなければならない。仮にVAEを追加するとなれば、最低でも数万GPU時間規模の追加計算リソースが必要で、費用的には数百万円~数千万円規模の予算が求められることになる。

CLIP(特にOpenCLIP)欠如が生む問題点

Stable Diffusionのもう一つの大きな特徴は、OpenAIが開発したCLIP(Contrastive Language-Image Pretraining)のオープン版であるOpenCLIPを利用していることである。CLIPは、テキストと画像の埋め込み空間を事前に学習し、「テキスト入力に応じた画像生成」を可能にする。特に、OpenCLIPはオープンデータ(LAIONなど)を使った大規模学習によって、高度に抽象的なテキスト指示を画像に忠実に反映する能力を獲得しており、Stable Diffusionの驚異的な表現力を支える根幹技術になっている。
一方で、ミツアにはOpenCLIPや同等の技術が未実装であるため、テキスト指示に対する理解度や柔軟性に課題があり、ユーザーが与える指示に応じて精密で自由な画像を作り出す能力が著しく劣る状況にある。この課題を解決するためには、大規模なCLIPモデル(OpenCLIP相当)の導入と、そのための学習リソース(GPUリソース、データセット、人材)を確保することが不可欠となる。
しかし、CLIPの再現には数十億件の画像テキストペアデータが必要であり、GPUを数万~数十万時間単位で占有する莫大な計算資源と人材確保も不可欠となる。具体的な試算では、OpenCLIPをゼロから再現する場合には数千万円~数億円規模の予算が必要となることが確認されている。特に、データ収集を完全許諾方式(著作権問題を回避するため、許諾された画像のみを使用する場合)で進めるとなると、データ収集費用も膨れ上がり、実務的にも資金調達やプロジェクト管理の負担が非常に重くなることは避けられない。

U-Net(Diffusionモデル)自体の再学習の必要性

また、ミツアのDiffusionモデル部分(U-Net)の完成度も現状では不十分であり、画像の細部再現力や多様性に問題がある。この部分の再学習には、数万~数十万GPU時間規模の計算資源が必要であり、予算としては最低でも数千万円規模の費用がかかる。これに伴う人材育成や設備構築も必須であり、全体の開発予算をさらに押し上げる要因となっている。


第2章 ミツアがStable Diffusionに追いつくために必要な学習リソースと許諾データ収集のコスト試算

はじめに

ミツアが画像生成AIとしてStable Diffusion(以下、SD)に追いつくためには、単に技術的にモデルを強化するだけでは足りない。その前提として、SDと同等の性能を実現するためには膨大な「学習リソース」を確保する必要がある。AIの性能は、投入されるデータの量と質、そしてそれを処理するための計算リソースの規模に依存するからだ。この章では、具体的にSDがどのようなリソースを使ってモデルを訓練したのかを詳細に分析した上で、ミツアがSDレベルに追いつくために必要となる具体的な学習リソースと、そのために必要な許諾データ収集の現実的なコスト試算を徹底的に行う。

Stable Diffusionが使った学習リソースの具体的分析

Stable Diffusionは、Stability AIを中心にLAIONコミュニティとの協力によって作られた大規模な拡散型画像生成モデルである。このモデルの学習には、LAION-2Bという約20億枚規模の画像テキストペアデータセットが用いられている。LAION-2Bはインターネット上から収集した画像とキャプションを自動処理し、大規模にクリーンアップして作成されたものであり、実際のモデル訓練にはそのうち約6億枚の高品質なデータが選択され使われている。
この6億枚という規模は、画像生成モデルとしては非常に巨大であり、それゆえにモデルは極めて汎用的で高品質な画像を生成可能な能力を獲得した。これらのデータを学習するためには、莫大なGPU時間が必要だった。Stable Diffusionの初期学習に用いられたGPU時間は約15万~20万GPU時間とも報告されている。具体的に使われたGPUは主にNVIDIA A100で、1枚当たりのレンタルコストは時間あたり約3ドル~5ドルである。仮に中間の4ドル(約600円)で見積もると、15万GPU時間では60万ドル(約9,000万円)、20万GPU時間では80万ドル(約1億2,000万円)に達することになる。
また、これだけ大規模なデータセットを扱うには、数十テラ~数百テラバイト規模のストレージと、高速なデータパイプラインの構築が必要となる。このインフラ自体にも数百万~数千万円規模のコストがかかるため、SD規模のモデルを構築するには最低でも1億円超の予算規模が妥当となる。さらに、Stability AIが行ったように試行錯誤や失敗による学習のやり直しも加味すると、実際のコストはこれを大きく上回る可能性もある。

ミツアが完全許諾データのみでSDに追いつくためのデータ規模と課題

一方で、ミツアが掲げるのは「完全許諾型」のデータモデルである。つまり、画像生成モデルの学習に使うデータをインターネットから無断スクレイピングするのではなく、著作権的に完全にクリアなデータのみを使って学習を進めることを目指している。この思想は倫理的には非常に価値が高いが、実務的には大きなハードルとなる。
Stable Diffusionが使用した6億枚規模のデータセットを「完全許諾」の形で用意するためには、どれほどの労力が必要になるかを試算してみよう。仮に画像提供者を広く募り、1人あたり平均で10枚の画像提供を行ったとすると、単純計算で6億枚を揃えるためには6,000万人の参加が必要となる。現実的に考えてこの数は非現実的である。そこで実務的に実現可能な枚数を100万枚〜1,000万枚と仮定し、これを基に推計を進めていくこととする。
この規模であれば、ミツアが実際に行ったようなハッシュタグを利用したTwitterなどSNSを活用したキャンペーン、イラストレーターや写真家コミュニティとの協力など、いくつかの現実的な収集方法が考えられる。しかし、参加者への報酬や感謝金、インセンティブを設定した場合、画像1枚あたり10円~100円程度のコストが生じる可能性がある。100万枚のデータを許諾で揃える場合、最も安くても1,000万円、最大1億円程度の直接費用が生じることになる。1,000万枚まで拡大すれば当然コストは10倍で1億円~10億円に膨れ上がる。
これらのデータを収集するだけでなく、画像データをキャプション化する(画像の説明文を付与する)作業が必要となる。自動生成は可能だが、完全な精度が求められる場合には人間による確認が不可欠だ。1枚あたり数円~数十円規模の追加費用が発生する可能性があり、許諾データのコストに加えてさらに数百万円~数千万円規模の作業費がかかることになる。

学習リソースの具体的な必要予算の試算

許諾ベースの学習データ(100万~1,000万枚)を使った場合にモデルを学習するための計算リソースの試算を考える。画像生成AIの学習では、最低でも1万~数万GPU時間が必要であることは知られている。仮にSDレベルを目指し、少なくとも3万~5万GPU時間規模で高品質なモデルを目指すと仮定すると、GPU利用料金だけで1,800万円~3,000万円(1GPU時間600円の場合)が必要となる。
許諾データの収集コストを前述のとおり最低でも1,000万円〜1億円と考えると、GPU費用と合算して少なくとも数千万円~1億円超の予算を用意することが最低条件となる。さらに、人材(エンジニア・研究者)の人件費、データ処理・保管インフラのコストも含めれば、最終的に数億円の予算が見込まれる。

結論:完全許諾モデルの可能性とコストの現実

以上の試算を踏まえると、ミツアプロジェクトが掲げる完全許諾型の学習モデルを実現するには、莫大な予算と労力が必要であることが明らかになった。Stable Diffusionのようにインターネット上から無作為にデータを収集する手法と比べると、倫理性は高いが、データ規模やコスト面で圧倒的に不利になることは避けられない。ミツアがこの課題を乗り越えてSDに追いつくためには、コミュニティや公的支援など、新たな形でのリソース調達が必須となるだろう。

第3章 OpenCLIPをゼロベースで構築するための詳細試算と技術的ハードル

はじめに

画像生成AIにとって、テキストと画像を結びつける技術は極めて重要である。特にStable Diffusion(SD)が採用しているOpenCLIP(オープンソース版CLIP)は、その高度なテキスト理解力と画像表現力で世界的に注目されている。しかし、ミツアプロジェクトは現状、このOpenCLIPを搭載していないため、SDとの性能差が生じている。本章では、OpenCLIPのようなマルチモーダルモデルをゼロから日本のベンチャーが独自に構築すると仮定した場合の、必要となる具体的なリソース(データセット、GPU、技術人材)とコストを徹底的に分析し、その技術的ハードルの高さを明らかにする。

OpenCLIPとは何か?

まず、OpenCLIPの技術的な概要と役割を詳しく解説する。OpenCLIPは、OpenAIが開発したCLIP(Contrastive Language-Image Pre-training)をオープンソースで再現しようとする取り組みであり、画像とテキストを関連付け、テキストに応じた画像生成を可能にするマルチモーダルAI技術である。元々のCLIPモデルは、インターネット上から収集した4億件以上の画像・テキストペアで学習されているが、OpenCLIPはLAIONコミュニティが公開しているLAION-2BやLAION-5Bといった数十億枚規模のデータセットで学習され、オープンな環境で誰でも再現できる形で提供されている。
OpenCLIPは主にViT(Vision Transformer)という画像認識モデルと、Transformer型テキストエンコーダを使い、それぞれ画像とテキストを同じベクトル空間(埋め込み空間)に変換して関連付ける。この関連付けの精度が非常に高く、抽象的な文章を忠実に再現した画像を生成できる能力の基礎となっている。このマルチモーダルな特徴により、Stable Diffusionのような画像生成AIは、ユーザーがテキストで自由自在に生成内容を指定し、鮮明で多彩な画像生成が可能になったのである。

OpenCLIP再現のための技術的要件

では、このOpenCLIPをゼロベースで構築する際の具体的な技術的要件を細かく見ていこう。ここでポイントとなるのは以下の三点である。

1. データセットのスケールと取得方法

OpenCLIPクラスのモデルを学習するには、数十億枚規模の画像とテキストのペアが必要である。LAION-2Bデータセットは約20億枚、LAION-5Bでは50億枚を超えるデータが提供されている。この規模のデータを一から自前で準備するのは現実的ではなく、利用可能なオープンデータセット(LAIONシリーズ)を使うことが妥当である。しかし、仮に完全に許諾ベースで独自のデータを用意するとすれば、先述したように数億~数十億枚ものデータを自主収集する必要があり、データ取得だけでも数億円~数十億円という莫大な予算が必要となる。日本国内において許諾済みの大量データを迅速に収集するのは非常に困難なため、オープンデータセットの活用が必須となるだろう。

2. 計算資源(GPUリソース)のスケール

OpenCLIPは大規模なGPUクラスターを使用し、数十万GPU時間の学習を経て高精度なマルチモーダル表現を獲得している。具体的に、例えばOpenCLIPがViT-B/16を学習した際には176枚のNVIDIA A100 GPUを約61時間連続稼働(計約10,700 GPU時間)させており、より高性能なモデル(ViT-L以上)では数万~数十万GPU時間規模で計算を行っている。この規模のGPU計算を日本のベンチャー企業がゼロから単独で準備するには莫大な資金が必要であり、仮にGPU時間単価を600円と見積もっても、例えば10万GPU時間なら約6000万円、50万GPU時間では約3億円に達する。実際にはGPUインフラの保守・運用費も含め、数億円規模の予算が必要である。

3. モデルの安定した訓練と学習技術

大規模な分散学習は、技術的に容易ではない。OpenCLIP開発時も、初期には学習の途中でモデルの損失が発散する問題が頻繁に発生し、その解決のために数週間から数ヶ月もの試行錯誤が必要であったと報告されている。実際、モデルが巨大化するほど勾配消失や発散のリスクが高まり、学習の中断や失敗を防ぐためのノウハウが重要である。特に混合精度学習(Mixed-precision training)の最適化や大規模分散処理の調整には高い専門知識が要求されるため、専門的な知識を持つ研究者・エンジニアのチームが不可欠になるだろう。

OpenCLIP再構築の具体的なコスト試算

上記の要件を踏まえ、日本のベンチャー企業がゼロベースでOpenCLIPを開発するときの具体的な費用シミュレーションを行う。データセットはLAION等のオープンデータを活用する前提とし、完全許諾モデルのケースは第4章で検討するとして、ここでは主に計算リソースや人材などの技術的側面に集中する。

  • データセット利用コスト(ストレージ・インフラ):約500万円~1000万円

  • GPUリソース(10万~20万GPU時間):約6000万円~1億2000万円

  • 人件費(研究者2~3名+エンジニア、1年):約2000万円~6000万円

  • 分散学習・大規模学習基盤構築コスト(クラウドインフラ):約1000万円~2000万円

  • その他雑費(クラウド・通信・トラブル対応費):約500万円~1000万円

総合すると、ゼロベースからOpenCLIPを開発するためには、最低ラインで1億円規模、実際には余裕を見て1億5000万円~2億円程度の予算が必要になることがわかる。さらに、実験や失敗のやり直しを含めると、この金額はさらに膨らむことも十分考えられる。

結論:日本企業によるOpenCLIPのゼロベース構築は可能か?

以上の詳細な分析から、日本のベンチャー企業がOpenCLIPに追いつくために必要な技術的・財政的ハードルは非常に高いものの、決して不可能とは言い切れない。必要な条件としては、資金調達環境が整い、計算資源の公的支援を受け、国内外の研究機関との協業体制を構築できれば、現実的に実現可能性はあるだろう。ただし、単独でこれを成し遂げるには極めて困難であり、産学連携や公的支援策を活用することが不可欠となる。

次章では、日本国内のAIスタートアップの資金調達状況や環境を具体的に分析し、これらの課題を乗り越えるための具体的な道筋を示していく。

第4章 日本のベンチャー企業のAI資金調達状況と環境分析

はじめに

OpenCLIPやStable DiffusionクラスのAIモデル開発は技術的なハードルだけでなく、資金調達という現実的な課題を乗り越える必要がある。日本国内のベンチャー企業が大規模な計算リソースを必要とするAIモデルを独自に開発する場合、数億円単位の投資を確保しなければならない。本章では、日本のAIベンチャーが実際に直面する資金調達環境を分析し、AIに特化した資金調達の可能性や投資家の動向、具体的な調達規模、海外との比較などを通じて、その課題と実現可能性について掘り下げて考察していく。

日本のベンチャー企業の資金調達の現状と課題

日本のベンチャー企業全体における資金調達状況は近年活発化しつつあるものの、世界の主要市場(特に米国や中国)と比べるとまだまだ規模は小さく、調達金額にも上限があるというのが現状である。日本ベンチャー企業の年間調達総額は2022年に約9600億円を記録したが、これは米国と比べると約30分の1以下、中国と比べても約10分の1以下であり、日本市場の資金調達規模の小ささが際立つ状況だ。
また、日本国内でベンチャーキャピタル(VC)などがAI技術やディープテック企業に積極的に投資を行うケースは増えているが、それでもスタートアップがAI開発のために数億円規模の資金を一度に調達することはまだ難しい。特に大規模AIモデルの開発はリスクが高く、開発途中での方向転換や成果が出るまでに数年を要するため、短期的な収益化を求める国内の投資家にとっては魅力的な投資対象とはなりにくいという事情もある。これにより、日本のAIベンチャー企業は欧米市場に比べて資金調達のハードルが高いのが現状である。
さらに、日本のベンチャー企業は資金調達の手法においても限界がある。国内のVCやCVC(コーポレート・ベンチャーキャピタル)は投資金額や投資ラウンド(ステージ)の制限があり、特にシード期からシリーズA期においては大規模資金の調達が難しい。これに対して海外の米国や中国市場では、AIスタートアップのシード期から数十億円を投入する例も珍しくなく、資金調達の柔軟性においても海外と比較して制約があることが明らかだ。

日本国内のAIスタートアップへの投資動向と事例

しかし一方で、近年AIブームの影響により、日本国内においてもAI関連スタートアップへの投資は急増している。特に、2023年から2024年にかけては生成AIやLLM(大規模言語モデル)関連技術への投資が急速に増え、日本の投資家やVCの関心も高まっている。
例えば、日本発の大規模言語モデル開発を進めるELYZAは2023年に合計で約20億円の資金調達に成功し、国内の主要VCや大手企業系ファンドが積極的に投資を行った。この調達は、日本国内においては非常に大規模なものであり、生成AI分野での国内投資の注目度の高さを示す重要な事例となった。
また、ELYZA以外にも、日本のAIスタートアップであるPreferred NetworksやABEJA、LeapMindなどが数億円~数十億円規模の資金調達を行っており、日本国内におけるAI企業への資金調達規模も徐々に大きくなりつつある。Preferred Networksは自社での大規模計算インフラ(GPUクラスター)の構築にも成功し、国内スタートアップとしては異例のスケールでのAI研究開発を進めている。これらの企業は、自社プロダクトの競争力向上や海外展開を前提に資金調達を行っており、投資家の理解を得ている。
また、近年の日本市場では、大企業との連携による「オープンイノベーション」型の投資が増加している。例えば、大手通信企業(NTTドコモ、ソフトバンク、KDDIなど)や大手メーカー(日立、富士通など)は、自社内でイノベーションを推進するだけでなく、外部スタートアップへの積極的な投資・連携を模索しており、この分野での資金提供も増加傾向にある。

海外と比較した日本のAI投資環境の課題

一方、日本のAIスタートアップへの資金提供が海外の競合市場に追いついているかというと、まだ課題が多いのも事実である。米国ではOpenAIやAnthropic、Cohereなどの生成AIスタートアップが数百億~数千億円規模の資金調達を実現しており、企業評価額も数兆円単位に達している。これらの企業は世界最高水準のAI研究者を大量に採用し、スーパーコンピュータクラスの計算インフラを自由に活用している。
中国市場でも、Baidu(百度)やByteDance(字節跳動)、Alibaba(阿里巴巴)などの巨大企業が生成AI開発に数百億円規模の投資を行い、自社のAI研究機関を設立している。こうした巨大市場に対し、日本のスタートアップが国内市場だけをターゲットとして資金調達を行う場合、投資家の期待収益が限定的であるため、海外のスケールに匹敵する資金を引き出すのが難しい状況にある。
さらに、日本のAI投資環境ではリスク許容度が比較的低く、「短期的な収益化の見込み」が求められる傾向が強い。このため、大規模な研究開発や実験的な技術開発に対して投資家が積極的になれず、長期的な視野で大規模AIモデルの開発に投資する土壌が醸成されていない。こうした状況が、日本のAIスタートアップが世界市場で競争力を持つことを困難にしている要因となっている。

結論:日本のベンチャー企業がOpenCLIP規模の資金調達をする可能性

以上の状況を踏まえると、日本のベンチャー企業がゼロベースでOpenCLIP並みのAIモデルを開発するために必要な規模の資金調達は、現状では極めて困難であることがわかる。資金調達規模の面では欧米や中国市場に比べ圧倒的に小規模であり、投資家のリスク許容度の問題も大きい。
しかし、近年の生成AIブームや政府による支援策(次章で解説)によって状況は改善しつつある。今後、日本のベンチャーが大規模AI開発を行うためには、VCだけでなく大企業との協業や公的支援など複合的な資金調達手法を活用する必要があるだろう。


第5章 日本の公的支援制度を活用した可能性分析

はじめに

ここまでの議論を通じて、Stable DiffusionやOpenCLIPのような高度なAIモデルを独自に構築するためには、莫大な資金や計算リソースが必要であることを明らかにしてきた。特に、OpenCLIPのような世界標準モデルをゼロから開発するためには、日本の一般的なベンチャー企業の資金調達力では到底実現困難であり、仮に資金が確保できたとしても、実際のモデル開発を進めるための人材や設備調達など、多くの現実的課題が存在する。
しかし、日本国内においても、AI分野に関する資金調達環境は徐々に整いつつあり、特に国や地方自治体、研究機関が提供する助成金や共同研究制度を活用することで、ベンチャー企業でも巨額の予算規模が必要なAI研究開発を実施する道筋が現実味を帯びてきている。この章では、日本国内で利用可能なAI研究開発に対する公的支援制度や産学官連携の可能性について詳しく分析し、それを活用することで日本のベンチャー企業がOpenCLIPのような大規模モデル開発を達成できるかを探る。

日本政府によるAI開発支援政策の概要

現在、日本政府は世界的なAI競争力強化を国家戦略として掲げ、多数の具体的施策を展開している。特に経済産業省、文部科学省、内閣府を中心に、大規模AIモデル開発に特化した補助金や助成金を提供しており、民間企業の研究開発プロジェクトを積極的に支援している。
具体的には、経済産業省が主導する「次世代AI・ロボット中核技術開発」プログラム(NEDO事業)は、大規模言語モデルやマルチモーダルモデルの開発を目的として、数億円規模の開発予算をスタートアップや企業・大学に提供する仕組みを持っている。この制度では、特に海外企業に依存しない「日本発」の基盤モデルの開発を奨励しており、近年は生成AI分野が重点支援対象となっている。
さらに、日本政府はスーパーコンピュータなどの高度計算資源を民間企業にも提供する施策を推進している。代表的なものが産業技術総合研究所(産総研)が運用する「ABCI(AI橋渡しクラウド基盤)」のような大規模計算リソースの提供である。ABCIは日本最大規模のAI専用スーパーコンピュータ基盤で、研究機関だけでなく、スタートアップ企業や民間企業も公募によって利用できる。このような公的資源を活用することで、企業側の計算コスト負担を劇的に削減できる可能性がある。

国内のAI研究支援の事例分析

実際に、国内AIスタートアップの中には、政府や公的機関からの支援をフル活用して成功を収めた事例が存在する。たとえば、東京大学発のスタートアップであるELYZAは、NEDO(新エネルギー・産業技術総合開発機構)の助成事業や産総研(産業技術総合研究所)のAI基盤ABCIを活用し、2023年に日本語特化型の大規模言語モデル(ELYZA-Japaneseシリーズ)の開発に成功した。このプロジェクトでは、ABCIの数千GPU時間に及ぶ計算リソースを無償で活用することができ、コストを大幅に削減しながら大規模な言語モデル開発を達成した。
また、日本の著名なAIスタートアップであるPreferred Networks(PFN)も、経済産業省の支援を得て、自社でスーパーコンピュータ級の計算インフラを構築し、大規模モデル開発を推進してきた実績がある。PFNの場合、自社のスーパーコンピュータに加えて、公的機関との共同研究を通じて研究成果を高めており、実際に世界水準のAI技術開発を日本国内で実現した稀有な例である。

公的支援制度を活用した場合の具体的なシミュレーション

こうした事例を踏まえて、日本のベンチャー企業が実際に公的支援制度を最大限活用した場合、OpenCLIP規模の大規模モデル開発がどの程度現実的になるかをシミュレーションしてみよう。
たとえば、仮にベンチャー企業が経済産業省やNEDOのAI基盤モデル開発向けの助成プログラムに採択され、2億円程度の補助金を獲得できたとする。この資金を利用して、クラウドGPU環境やスーパーコンピュータ(ABCIなど)の時間枠を1年間程度独占的に使用できると仮定した場合、実際のモデル開発コストは大きく圧縮できる。これにより、計算リソース費用をほぼゼロに近づけることも不可能ではなくなる。
さらに、政府主導のAIプロジェクトに採択された場合、大学や研究機関のAI専門家から技術指導や研究サポートを受ける機会も増える。結果として、ベンチャー企業が自社内だけで用意することが難しい高度な専門知識や研究リソースを補完することが可能になる。このように、公的資金だけでなく、産学官の人的ネットワークを活用できるという大きなメリットも享受できることになる。
また、AI特化のスーパーコンピュータ(ABCIや富岳など)の公募利用枠を取得できれば、通常であれば数億円規模に相当する計算資源を無償または低コストで活用できるようになる。これはGPUコストの負担が大きいAI開発にとって、決定的に重要なアドバンテージとなる。
こうした支援制度を組み合わせて最大限に活用した場合、企業が自社で負担するコストを数分の一から数十分の一にまで圧縮し、OpenCLIPのような大規模AIモデルを日本のベンチャー企業が開発することも現実味を帯びることになる。

結論:日本の公的支援制度の実効性と課題

以上の分析から明らかになったように、日本国内にはAI研究開発に対して充実した公的支援制度が整いつつある。しかし、ベンチャー企業がこれらの支援を実際に受けるためには高度な研究計画の策定、厳格な審査基準への対応、産学官連携の構築が必要であり、支援制度の存在だけでなく、利用できるような体制を整えることが重要である。
したがって、日本のベンチャー企業がOpenCLIP並みのAIモデル開発をゼロから達成するためには、これらの支援制度の効果的な活用と、企業自身の研究開発力の底上げ、そして明確な戦略的ロードマップの策定が鍵となるだろう。


第6章 ミツアが目指す「完全許諾モデル」実現可能性の考察

はじめに

AI画像生成モデルの技術的な課題や資金調達環境についてこれまで詳細に論じてきたが、本章ではミツアが掲げる「完全許諾モデル」という、著作権や倫理問題を完全に回避した画像生成モデル構築の可能性について徹底的に考察する。従来の画像生成AIは、膨大なインターネット上のデータを無許諾で収集していることが多く、著作権問題や倫理的課題を抱えている。これに対してミツアは、著作権的に明確な許諾が得られた画像のみを利用した、倫理的に完全にクリーンなAIモデルを作ろうとしている。本章では、その現実的な実現可能性、具体的なデータ量、データ収集方法、そしてこれらに伴うコストの詳細な試算を通じて、ミツアが目指す完全許諾型AIモデルの実現可能性を精査する。

完全許諾モデルとは何か?

AIのモデル開発における「完全許諾モデル」とは、学習に使う画像データやキャプション(テキスト)が、すべて著作権保持者や画像制作者の明示的な許諾を得て収集されたデータセットのみを使用して学習されたAIモデルを意味する。このようなモデルは、倫理的問題を完全にクリアできるという大きなメリットを持つが、反面、大規模なデータ収集という非常に大きな課題を抱えている。
Stable Diffusionなど多くの一般的なAIモデルは、インターネット上から数億枚~数十億枚規模の画像とキャプションを収集し、自動的に大量処理して生成されている。このような大規模なデータセットを「許諾取得」形式で収集する場合、極めて多くの提供者から個別に許諾を得る必要があるため、単純に考えても大変な労力が必要となる。まず、このデータ量が具体的にどれほどになるのかを明確にし、それをベースに許諾データ収集の現実的な可能性を検討する。

必要な学習データ規模の試算

Stable Diffusionが用いたデータ規模(約6億枚の画像)を基準に、ミツアが同レベルの性能を目指すと仮定すると、完全許諾形式で同等の枚数を収集するのはほぼ現実的に不可能と言える。例えば、許諾を得た画像提供者1人あたりの平均画像提供数を仮に100枚と仮定したとしても、6億枚を達成するには6000万人の画像提供者が必要である。日本の人口が約1億2000万人であることを考えると、これは非現実的であることがわかる。
現実的な落としどころとして、最低限のモデル精度を確保できる学習データ量を仮に100万~1000万枚の範囲で設定したとすると、許諾を得たデータ収集の可能性は飛躍的に高まる。これは、ミツアが実際に2023年に実施したTwitter上での「#みつあ勉強用」キャンペーンが参考になる。このキャンペーンでは、ユーザーから許諾画像を募集し、短期間で約4.4万枚の画像を収集することに成功している。この方法を継続的に拡大し、期間を長期化することで、100万枚規模のデータ収集は十分に実現可能であると推測できる。
しかし、この規模のデータ収集を行う場合、提供者へのインセンティブや報酬、または画像の品質を管理・担保するための運営コストが必要となる。具体的なインセンティブ費用として、画像1枚あたり10円~50円程度の報酬を設定した場合、100万枚の画像を集めるのに必要な最低コストは約1000万円~5000万円、1000万枚の場合は1億円~5億円となる。これは画像提供者への直接支払いのみの試算であり、広報やプロモーション、人件費を含めればさらに数千万円単位の費用増加が見込まれる。

完全許諾型データ収集方法の具体的シナリオ

許諾ベースでの画像収集方法には、いくつかの具体的なシナリオが考えられる。SNSを活用したキャンペーンはミツアの現行方式だが、他にも以下のような方法が挙げられる。

  • クリエイターコミュニティとの提携(イラストレーター、写真家に対するライセンス報酬型)

  • ストックフォトサイトや素材提供サイトとの提携(許諾を得た画像を商業的に安価で調達する)

  • 大学や研究機関、公共機関が持つアーカイブデータ(著作権フリーまたは許諾が容易なもの)の活用

これらを組み合わせれば、数十万~数百万枚の画像データを現実的な期間で収集可能となるが、それでも前述した通り、最低数千万円から最大数億円規模のコストは覚悟する必要がある。

完全許諾モデルの精度と実用性の課題

完全許諾データのみを用いて学習されたモデルは、倫理的な価値が高い反面、データの多様性と網羅性の不足という弱点を抱える可能性が高い。例えばインターネットから収集した無作為データは、非常に多様で広範囲な表現を含む一方で、許諾ベースでは提供者の偏りが発生しやすく、画像のバリエーションが狭くなってしまうリスクがある。
この問題を回避するためには、多様なジャンルの画像を意図的に幅広く募集する工夫が必要である。しかし、そうした工夫を施した場合でも、完全な網羅性や多様性を確保するには膨大な手間がかかるため、モデルとしての精度や汎用性がSDのような広範なデータベースを利用したモデルと同等レベルに到達するにはさらに困難が伴うだろう。

許諾型AIモデルの収益化戦略の考察

完全許諾モデルのもう一つの課題は、収益化戦略である。膨大な許諾データ収集コストやGPU計算費用、人件費を考えると、持続的なビジネスとして成立させるには明確な収益モデルが必要だ。その一つの可能性としては、倫理的で透明なモデルという付加価値を前面に打ち出し、大企業や公共機関向けにライセンスを提供することで収益を確保する方法が考えられる。また、モデルのアウトプットをCC0ライセンスで広く公開しつつも、商用利用にはライセンス料を課すモデルなどの方法も有効である。

結論:完全許諾モデルは実現可能か?

以上の考察から、ミツアが目指す完全許諾モデルは「倫理的には非常に価値が高いものの、実務的には膨大なコストと困難を伴う」ものであることが明らかになった。資金やリソース、コミュニティ形成などの課題を乗り越えるためには、産官学の連携、社会的理解の獲得、そして長期的な収益モデルの構築が欠かせない。これらの要件が揃った場合には、倫理的で透明性の高い完全許諾モデルが日本から誕生する可能性は十分にあるだろう。

第7章 ミツアがStable Diffusionに追いつくための最終的予算シミュレーションとロードマップ

はじめに

これまでに検討したミツアがStable Diffusion(SD)に追いつくための技術的な課題、データ収集の困難さ、OpenCLIPのゼロベースでの再構築に伴うコスト、日本のAIスタートアップにおける資金調達状況、公的支援制度の活用可能性、完全許諾モデルの実現可能性とその限界を踏まえ、本章では、これらすべてを統合した最終的な予算シミュレーションを行い、現実的かつ詳細なロードマップを提示する。

最終予算シミュレーションの前提条件

まず、以下の前提条件を明確に設定した上で、試算を進める。

  • AIモデル構築の対象:SD相当(VAE+OpenCLIP+U-Net)

  • モデルの規模:中規模以上(OpenCLIPのViT-B/16レベル)

  • 学習に使用する画像枚数:最低100万枚、理想1,000万枚(完全許諾ベース)

  • GPU使用時間:最低5万GPU時間、理想20万GPU時間

  • データ収集コスト:許諾画像1枚あたり平均30円で算定(報酬や運営コスト含む)

  • GPU単価:1GPU時間当たり600円で計算

  • 人材体制:研究者・エンジニア合計5名、開発期間1~2年

  • 政府や研究機関との連携・支援を想定(補助金・助成制度活用)

ミツアがSD相当モデルを構築するためのコスト詳細試算

ここで再び、ミツアがStable Diffusionに追いつくために必要な費用項目を整理し、詳細な内訳を試算する。

1. VAE導入に伴う費用試算

Stable Diffusionの特徴の一つであるVariational Autoencoder(VAE)をミツアに搭載するためには、新規の画像データを使用した再トレーニングが必要である。VAEを最低限の品質で構築する場合、約1万~2万GPU時間が必要である。GPU時間単価600円の場合、この費用は約600万円~1200万円である。VAEの設計・最適化を担当するエンジニアや研究者の人件費(約6ヶ月)を加算すると、この部分の最終的な予算は約1000万円~2000万円程度が必要となる。

OpenCLIP(マルチモーダルモデル)の再構築費用

OpenCLIPに相当するマルチモーダルモデルを構築するための具体的費用は、最低でも以下の通りになる。

  • GPUリソース:最低5万GPU時間〜理想20万GPU時間(3000万円〜1億2000万円)

  • データ収集費(許諾データ):100万枚で1000万円~5000万円、理想1,000万枚の場合は1億〜5億円

  • インフラ(データストレージやデータ前処理):約500万〜1000万円

  • 人件費(AI研究者・エンジニア、計3〜4名、1年間):約3000万円〜6000万円

上記を合計すると、最低規模のモデルでも約7100万円、理想的モデルでは2億8000万円以上の予算が必要となる。

U-Net(Diffusionモデル)の再学習費用

ミツアのDiffusion部分(U-Net)のモデルをSD並みの性能で再学習するために必要なGPUリソースは少なくとも5万~10万GPU時間と見積もられる。そのため、この部分だけでもGPUコストとして3000万円~6000万円が見込まれる。加えて、モデル最適化や調整のための人件費として1000万円~2000万円が追加で必要になるだろう。

その他インフラ整備・運用・雑費

  • クラウドストレージ利用・インフラ維持費:約500万円〜1000万円

  • 実験的な学習失敗に備えた予備費用:約500万円〜1000万円

完全許諾データ収集コストと運営費

画像データの収集は、完全許諾型の場合、100万枚収集するには最低1000万円〜5000万円、理想(1000万枚)なら1億円〜5億円の予算が必要となる。これに加え、画像に付随するキャプション処理や管理コスト、人件費などの間接コストを含めると、最低でも約2000万円、最大で数億円規模の費用が追加でかかることになる。

総合試算結果と推奨予算規模

これらをまとめた総合的な試算は以下の通りである。

  • 最低限の実現可能性ケース:

    • GPUリソース(VAE+OpenCLIP+U-Net):約7000万円〜1億円

    • 許諾データ収集(最低限100万枚):約1000万円〜5000万円

    • 人件費・インフラ費用:約4000万円

    • 最低合計:1億2100万円~1億5100万円

  • 理想的なケース(安定したSD水準を実現する場合):

    • GPUリソース:2億円以上

    • 完全許諾データ(1000万枚規模):5億円以上

    • 人件費・インフラ:約6000万円以上

    • 理想合計:約4億5000万円~7億円超

現実的には、少なくとも2億円規模の予算を調達できなければ、SDと競合可能なAIモデルを日本のベンチャー企業がゼロベースから構築するのは難しいことが示される。

実現のためのロードマップ

ミツアプロジェクトがSDに追いつくためには、以下のロードマップが現実的となる。

  1. 政府やNEDOのAI開発支援事業への採択(初期予算数億円規模の獲得)

  2. 大学や研究機関と連携した研究チーム体制の構築

  3. ABCIなど公的な計算資源を活用したモデルの学習と実験

  4. SNSやコミュニティを活用した画像許諾データの収集(段階的に実施)

  5. 許諾データのコミュニティ運営とデータ管理基盤の構築

  6. 試作モデル構築と評価の実施(小規模モデルから徐々にスケールアップ)

  7. モデルの逐次的な改善と定期的な性能評価の実施

  8. AI倫理・著作権に関する啓蒙活動や理解促進を通じた社会的支援獲得

結論

以上の試算を通じて、ミツアがStable Diffusionと肩を並べるまでに必要な予算規模や開発体制が明確になった。実現には公的支援の活用が不可欠であり、社会的理解を得ながら徐々にステップアップするアプローチが必要となる。日本のスタートアップがこの規模のAIモデルを達成することは不可能ではないが、極めて戦略的で現実的なアプローチが必要である。

第8章 総括:ミツアプロジェクトの課題と今後の展望

はじめに

これまでの記事を通じて、ミツアプロジェクトがStable Diffusion(SD)という世界的に成功したAI画像生成モデルに追いつくために必要な技術的要素、資金調達の現状、公的支援の活用可能性、完全許諾型のデータ収集モデルの課題、そして最終的な予算とロードマップを詳細に試算してきた。最終章となる本章では、これまでの分析を踏まえ、ミツアプロジェクトが直面している課題の本質を整理し、今後の現実的な展望と具体的な提言をまとめていく。

ミツアプロジェクトが直面する課題の整理

ミツアプロジェクトが直面する課題は主に以下の三つに分類できる。

1. 技術的な課題

ミツアが現状、SDに比べて劣っている最大の技術的要因は、画像再構成の品質を高めるVAE(Variational Autoencoder)と、テキストと画像の対応性を向上させるOpenCLIPのようなマルチモーダルモデルが未導入な点である。これらの技術をゼロから自前で導入するためには、数千万~数億円規模の莫大な予算が必要となり、また、それを実現するための専門的なエンジニアや研究人材が不可欠である。技術的なノウハウ不足を解決するためには、専門家の招聘や国内外の研究機関との協力が必須であることは言うまでもない。

2. 資金調達上の課題

日本のベンチャー企業にとってAI分野での資金調達は、欧米や中国などと比べると著しく難しい。日本国内のベンチャーキャピタルはリスク許容度が低く、特にミツアのような大規模な実験的プロジェクトに数億円規模の投資を行うケースは極めて少ない。ミツアが現実的に必要な規模の資金を確保するためには、従来型のVCだけでなく、国や研究機関による助成金や、公的なスーパーコンピュータ資源の利用といった複合的な資金調達戦略が不可欠になる。

3. 完全許諾型モデルに伴うデータ収集課題

ミツアが倫理性を重視し、完全許諾ベースで学習データを収集する方針を貫く場合、SDが利用しているような大量データの収集は極めて困難である。完全許諾型で収集できる画像の量は限られ、また、多様性や網羅性の不足という新たな問題も生じる。そのためには、コミュニティを積極的に巻き込んだ参加型データ収集の仕組みを作り、長期間にわたり継続的にデータ収集を行う仕組みの構築が求められる。

ミツアプロジェクトが取るべき具体的な戦略と提言

これらの課題を踏まえ、ミツアが今後取り得る具体的な戦略を以下に示す。

提言① 公的支援の積極活用と産官学連携の推進

ミツアは、経済産業省やNEDOなどが提供するAI研究開発のための助成制度を積極的に活用する必要がある。特に生成AI分野は現在日本政府の政策的な支援対象となっており、一定の規模の資金を公的に調達することが現実的に可能である。さらに、産業技術総合研究所(産総研)や国立大学などの研究機関との共同研究契約を締結し、高度なAI研究を共同で進める体制を構築することで、技術的な課題や計算資源の問題も解決しやすくなるだろう。

提言② 段階的開発ロードマップの策定

ミツアが現実的にSDに追いつくためには、すべてを一気に開発するのではなく、段階的なロードマップに沿って徐々にモデルの高度化を進める必要がある。例えば、初年度は小規模なVAEと小規模OpenCLIPモデルを開発・評価し、成果をもとにさらなる資金調達や追加支援を獲得する。こうした段階的なアプローチを取ることで、失敗リスクを最小限に抑えつつ、持続的な開発が可能となる。

提言③ 完全許諾モデルの収益化モデルを明確に設定

完全許諾型データで学習するという特徴を明確な強みとして打ち出し、ライセンス販売や企業向け提供といった収益化戦略を確立することが重要である。ミツアが持つ倫理的で透明なデータ収集モデルは、大企業や公共機関からの需要が見込めるため、BtoB向けのソリューション提供や、モデルを活用したコンサルティングなど、明確なマネタイズ戦略が求められる。

提言④ コミュニティ運営の強化とデータ収集の効率化

画像提供者を巻き込んだコミュニティ形成が鍵となるため、SNSやプラットフォーム上で画像提供者が参加するインセンティブや報酬体系を明確にする必要がある。さらに、許諾データの収集プロセスを簡素化し、提供者側の負担を最小限に抑えることで、より多くのユーザーから効率的にデータを集める仕組みを構築することが求められる。

最終的な展望

現状ではミツアがStable Diffusionに匹敵するモデルを構築するには、多くの困難が存在するが、戦略的な資金調達、公的支援活用、段階的開発、コミュニティ形成といった手法を組み合わせれば決して実現不可能ではない。むしろ日本のAI業界における新たなモデルケースとして、倫理的かつ透明性のあるデータ収集に基づいた画像生成AIモデルの社会実装が可能となるだろう。
ミツアプロジェクトは、その挑戦を通じてAI倫理問題への具体的な解決策を提示し、社会的な理解と支持を得られれば、日本発の世界水準のAIモデルとして認知される日も遠くないと考えられる。

(補足)
実際、Stability AIがStable Diffusionの開発に投じた資金は膨大であり、公式には具体的な総額は公表されていませんが、企業の運営、インフラ投資、人件費、試行錯誤によるコストを含めれば、数十億円から数百億円規模に達する可能性もあります。 先ほどの試算は純粋な「データ収集とモデル学習」の最小限コストに焦点を絞ったものでした。

しかし実際には、開発中に発生した失敗、試行錯誤、プロジェクトの方向転換、さらにはモデルの維持や継続的な改善に伴うコストを考えると、実質的な投資総額は遥かに大きくなることは確実です。 具体的にStability AIの場合は、LAIONなどの大規模データセットを用いた学習のほか、世界的な研究機関との協力、専用のスーパーコンピューター設備の運営費、人件費、研究開発費、またマーケティングやコミュニティ運営費用など、表に出てこない費用が大量に発生しています。

これらを合算すると、Stability AIがStable Diffusionの開発に投じた総費用は、少なく見積もっても数十億円、実際には百億円以上の規模になる可能性も高いと推測できます。 特に創業者のエマド・モスタク氏は、数億ドル規模(数百億円規模)の資金を投資家から調達しており、Stable Diffusionを含む一連のAIプロジェクトに莫大な資金が投入されています。

つまり、仮にミツアが本気でStable Diffusionと並ぶ性能や規模を目指すのであれば、最低でも数億円の予算、現実的には数十億円規模の予算が必要になる可能性が高いです。 つまり、実際の開発コストは、先ほど試算した理想ケースの数億円を大きく超え、数十億円規模になる可能性も現実的にあり得るということになります。


いいなと思ったら応援しよう!

コメント

8
myloin
myloin

Mitsuaは、クリーンなAIの開発を目的としており、SDとの性能競争を狙っているわけではありません。

独自学習されたVAEと初期化されたVAEエンコーダを採用しているため、I2Iやインペイント、さらにはユーザー自身の絵柄の再学習などできないようになっています。
 私は趣味で絵をかいていて、最近はAIを使って作品を作っているのですが、Mitsuaは機能面で使い物になりません。クリーンなAIを開発することと実用性にはトレードオフがあります。他人の知財を侵害する可能性があるからと、I2I機能の禁止やVAEデコーダの削除すると、自身の作品の修正や自分の絵柄Loraの作成ができなくなるように。(人を殺害するかもしれないからと、刃渡り3cmの包丁を作ったわけです)
 よって、Mistuaは使えるAIを作ることを目的にしているのではなく、クリーンで倫理的なAIを作ることが目的です。だから技術的にも面白くはないし、そもそもAIの技術者であればデータを制限している時点で他のモデルに実用面で勝てると考えてはいないと思います。結果的に、MitsuaはクリーンなAIは使えないということ実証したのです。

榊正宗@AI規制派
榊正宗@AI規制派

冒頭にもあるとおりミツアの名前をだしてAI利用者に誹謗中傷する事例がおおいので、つくった解説記事です。ミツアの理念から考えると、そういった実証ではないと思いますが如何でしょうか?

七瀬葵
七瀬葵

ミツアが許諾型って言っているけれど
Xだって利用規約に「機械学習に使いますよ」
って言っててそれで使ってるんだから
許諾してるわけじゃないんですかね?

それで「私たちは搾取されている」
とか頭悪いし自分の行動に責任持ってないお子様がなに言ってるんだろう
って気がするんですが

ネット使っててクリーンかどうかってそんなに気にする問題ですか?

無修正の絵を見たことがあったらその人の絵は全部18禁だくらいおかしいと思うんですが

一番アレなのは、自己管理してなくて規約に同意しつつ使っているべきなのにAIユーザーを泥棒扱いするところですね
もう本当に迷惑極まりない
それで人格否定やら名指しで侮辱してくるんだから地獄ですわ

榊正宗@AI規制派
榊正宗@AI規制派

七瀬先生

ミツアは他のAIに対抗しているわけではなく、実験的なプロジェクトだそうです。ミツアを叩き棒にしている反AIが悪いのであって、ミツアのチャレンジは国産AIとしては頑張っていると思いました。なかなかゼロから作ろうというベンチャーも少ないので。

ログイン または 会員登録 するとコメントできます。
【徹底調査】国産許諾型AI「ミツア」はStable Diffusionに追いつけるのか?—性能差の理由と必要予算を試算してみた|榊正宗@AI規制派
word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word

mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1