AIチョットワカル絵描きのイラストその他の生成AIに対する現在のスタンスと建設的な意見

以前こんな記事を書いたのですが、現在のスタンス等についてまた書きたいと思います。
結論から言うと、一部(というより一部以外と表現した方が良いかもしれない)の生成aiとその推進派のことを最低最悪だと思っています。

実は私も修士論文の研究で機械学習(最近aiと呼ばれている(後述しますがこの呼称も不愉快ですが))の一種を作っていました。
友人と話していて、専門に近い分野だからこそ見えていることもあるようでしたので、そういう点についても書いていきたいと思います。

現在の生成AIの問題点

倫理観のめちゃくちゃさ、私の現在のスタンス

以前、医療系のデータを研究のために使わせていただける機会がありました。
その際には事前に流出させないなどの同意に一筆書いた記憶があります。
データへのアクセスを受け取った時は緊張しましたし、細心の注意を払って扱いました。

「でかいデータで何かするぜ!」というタイプの機械学習の研究はデータが無ければ何もできません。データの共有を承諾して下さった人たちには感謝しますし、相手に不利益を与えないのは一筆書かずとも人として当然のことだと思います。

周囲や発表を聞く場で、特に承諾を得ないで収集したデータを使う研究をしている人も多かったですが、データの元になる相手にマイナスになるようなことを敢えてするようなことは一般的ではありませんでした。いたら流石に周囲が止めるし、ドン引かれたと思います。
それでは寄生です。理想は相利共生ですが、せめて片利共生にするべきでしょう。

しかし、現行のチャットの生成AIや画像生成のAIは、
「無断で他人のデータを利用」+「データの持ち主にに不利益を与える」
をバッチリやらかしています。
反反ai的な人が「被害なんて無い」などと言っているところを観測したことがありますが、お前が判断する事じゃねぇですし、誰かがコストをかけて生み出した成果物を勝手に利用をして、勝手に市場が競合する形で出力するのが搾取だと分からない理由が分かりません。

2022年の記事を書いた時には、
「なんか農家さんの役に立つかなって農薬が効かない害虫を研究してみました!」
「多分それはあまり役には立たないかな…」
「え?そうなの?あと逃げて野生化しちゃった」
くらいの感じで、迷惑ですが本気で気付かずに開発してしまったのではないかと思っており、技術者にそこまで悪気はないんじゃないか、と事態を楽観視していた部分がありました。人間、専門外のことに対してはアホなものなので。

しかし、データを使われたくないという声や、実際に起こってしまっている悪用に対する反応も酷いため、これは完全に間違っていました。すみません。


また、「反AIがー」というようなユーザーも論外だと思っています。「反AI」という言葉自体が悪い意味で変な言葉なので、使う人はほぼ変な方なのかなと思っています。
「特定のAIの特定の悪用が良くないと思う」という意見を持つ人に、「お前は反AIだ!」と相手が反対している対象を勝手に拡張したラベルを貼り、「反AIなくせにAIが使われている〇〇(ドラクエとか)をやってる!矛盾している!」と今度はAIの定義まで拡張して批判するような方が複数存在していらっしゃるようで、人類の多様性を感じます。

自分が使いたい生成aiを擁護したいがために「でも医療とかにもaiって使われている技術だし」というような主張をする方も時々目にします。

なぜ医療目的の
・きちんとデータの持ち主に同意を取っていて
・データの持ち主に不利益がないように注意している
・人を救う事ができるかもしれない
研究が、全く関係ない画像生成aiのような、
・データの持ち主に全く同意を取っていない
・データの持ち主の不利益お構いなし
・しかも大して良いことを生み出すわけでもない
・詐欺の被害者や自殺者も出している
ツールの擁護に、大して理解もできていないユーザーに引き合いに出されなければいけないのでしょうか?

考えるだけでも腹わたがもつ鍋になりそうです。寄生虫みたいな連中なので芽殖孤虫にでも寄生されたら面白いなくらいのお気持ちです。

前回の記事でも規制はするべき派でしたが、感情以外の面を考えても、絶対に適切な規制を早急に実施した方が人類全体にとって有益だと考えています。


ついでに私は現在言われている「AI」のことをAI(=人工知能)だとは考えていないのでこの名前もけっこう嫌いです。
機械学習(ですらないものも含まれていることもあるが)のことを「ai(=人工知能)」と呼称するのって優良誤認を狙うようなものだと思います。aiに確たる定義がない以上嘘というわけではないのかもしれないですが。
昔は学会等で機械学習のことをaiと呼ぶ研究(大体企業)があると、「ai(笑)、会社に言わされてるんだろうな…可哀想に」というような反応をしていた記憶があります。
もうみんな言ってて仕方ないのでaiと書きますが。「虫酸が走る」のことを人口の8割が「むしさんが走る」と読み出してそちらが正解になってしまった世界に来たような気分です。嫌な世界だ。

読み飛ばしていいのですが、他には下記の私怨でも一部の生成aiの推進派のことが好きではないです。
・私が機械学習の研究をしていることを知っている美術系の友人に、「ネットに上げてみたら作品を好きになってくれる人やチャンスに出会えたりするよ」などと昔勧めてしまったのが、今振り返るとテックカスの回し者みたいに見えて本当最悪。
・前回の記事に対して、規制派からも推進派からも批判的な反応があり、なるべく会話しようとしたのだが、推進派の方にはまともに会話が通じる相手が一人もいなくてげんなりした。(何もできない人はスキルのある人の価値が落ちた方が相対的にはマシになれるため、無条件に推進することは合理的ではあるので、彼らも気の毒な存在なのかもしれないが…)
・アート系のaiが出た時に情報系の知人が急に「芸術とは…」みたいなハーゲンダッツについてくるスプーンより浅い芸術論を語り出すのを複数観測して、聞くだけで恥ずかしくて不快だった。あれを聞かされるストレスだけでも存在しないで欲しかった。

起こりうる・すでに起きている問題

ショッキングな悪用の例として、ディズニーに遊びに来ていた子供が他人に撮影され、生成aiを用いて児童ポルノが作成されるという事件がありました。

ターゲットにされてしまった子に被害があるだけではなく、本物の写真と見分けが付かない画像が出回ることで、本当に存在している被害の捜査へも悪影響が生じてしまっているそうです。

現実と見分けがつかない作り物を
・早く大量に
・高クオリティに
・誰でも
作り出せてしまう状況をそのままにしていては、子供だけでなく、誰であれポルノを作成されたり犯罪行為をしている証拠を捏造される等の被害に遭う可能性があります。また詐欺も行いやすくなります。

逆に、何か悪事の証拠を撮影できたとしても、「これって本物?ディープフェイクじゃないの?」となってしまうため、デジタルデータの証拠能力が弱くなってしまう恐れもあります。

証拠を捏造することはもちろん今まででも可能でしたが、上手な偽物を作るのには技術が必要ですし、そこまで早く・大量に作れるものでもありません。既存手法よりも識別が難しいですし、今後もどんどん難しくなっていくことが予想されます。

災害が起こった時に、過去の別の災害の動画をインプレッションのために今撮影したかのように投稿をしてしまう人は今までもいました。これは誰かが「いつのどこの映像だ」と気付けたり調べられれば、フェイクであることがすぐに分かりました。
また、手作業でフェイクを作成して災害発生直後に投稿する、というのは時間的に困難です。
しかし、生成AIであればそういうこともできてしまいますし、きっと世界には実行してしまう人もいるでしょうし、それで本当の被害の把握が困難になってしまう、という事態も起きうることです。

あとは私は生物が好きなのですが、存在しない動植物の画像を生成して公開する人が出てしまっているのも最悪です。

また、イラストなどの著作物を何の了承も得ずに「学習」に利用して、丸ごと出力するのも最低だし全然良いことがないと思います。
また、前回の記事で「パブリックドメインのデータの利用ならいいのではないか」と書いてしまったのですが、現在、偽の歴史的風なデータが作られてしまっています。問題ありました。

「誰でも簡単に何かができるようになるのは技術革新じゃないか、良いことなんじゃない?」と思ってしまう人もいるようなのですが、生成aiは仕組み的にできる誰かの成果物に依存しているため、アンフェアな上に根本的に新規性がある表現も生み出せないし(仮にランダムに出てもaiユーザーだけでは固定できない)、持続可能ではありません。
例えば「アバターみたいなすごい映像を作りたい!」とか「派手なカークラッシュの映像を作りたい」とか思った時、現行の生成aiでは、誰かが作ったそういう映像を一定数利用することが必要です。「高画質なアフリカの動物の写真が欲しい」だったらカメラのメーカーが良いカメラを作り、写真家がそのカメラを買い、技術を磨き、アフリカまで行き、良いタイミングで写真を撮った成果が必要です。
最初に誰かがコストをかけて成果を作ってくれたらフリーライドすればいい、というような発想はカスだなぁ…という個人的感想を抱きますし、コストをかけて何かを作ることが損になってしまっていっては分野は先細りするだけです。

絵でも音楽でもなんでも、素敵な出力物が出るということは素敵な誰か(高確率で嫌がっている)の成果を食っているということなので、そんなものを好きになれる感性が分かりません。人間の学習の仕組みとも全然違いますし。
「可愛い猫をたくさん殺してバラバラにして、可愛いパーツを継ぎ接ぎして可愛い猫の'人形'を作ったよ!可愛いでしょ?可愛くないの?猫好きじゃないの?」
くらいにサイコパスに感じます。まあそういうタイプの形状だけ好きな猫好きもいるのかもしれないですが、私は違うのでできれば視界に入れたくないです。

また、アートやコンテンツに流れる市場はアートやコンテンツの数が増えれば大きくなる、というものでもありません。
「百万人の新海誠」がいたとして、新海誠一人の百万倍稼ぐと思いますか?現状ですらコンテンツは可処分所得と可処分時間の奪い合いなのに、誰が百万倍消費するんだという話です。
百万人の新海誠もどきが居ると、もどきが嫌いな人がコンテンツを開拓しなくなり、気にしない人は人に対価を払わないことも気にしないわけですし、新海誠のような本物のクリエイターは埋もれる事が想像できます。
また、絵には物を目立たせる広告の効果があり、人気なイラストレーターさんや凝ったイラストを使うことに投資すれば、今までは注目を集めることができました。誰もが生成AIで絵を付け出したら誰もが目立たなくなります。
市場が大きくなる可能性ってあるのでしょうか…?
特にコンテンツ産業が黒字の日本にとってはデメリットが強いと考えらます。

あと「自分で絵は描けなかったけど見る目には才能がある人物」は絵においては実在しないと思います…
なぜならやり直しができる画材を使って絵を描く場合、「見る目」を使って「ここが変」と言う箇所を修正していけば、最終的に見る目と同じレベルの絵が出来上がるはずだからです。奇しくも画像生成の仕組みと似ていますね。見る目のレベルは描ける絵のレベルの下限になるはずです。

デカすぎる期待

特に専門外の人から見ると急に技術が発展したように見え、この後も同様に急速に発展しそうだという期待が膨らんでいるようなのですが、多分そんなことはないと思っています。個人的な予想ですが。
というかインサイダーとかじゃない推測でも、期待が膨らみすぎてて怖いので持ってる半導体株大体売りました。本当に弾けそうだと思っています。

人工知能ブームというものはブームと冬の時代を繰り返していて今は第四次なのですが、今回はシンギュラリティに到達したぜ!とかまでは至らず過剰な期待への失望がまた繰り返されそうだなと予想しています。

前回の記事にも書いたのですが、現在の生成AIのコアになっている発想自体はかなり古い物です。
ではなぜ最近目覚ましい発展を遂げたのかというと、モデル(どういう構造で機械学習するー?みたいな話です)の発展もありますが、
①コンピュータの性能が上がった
②データが大量に蓄積された
の二点によるところが根本的には大きいと思います。

画像生成も音楽生成もLLMも以前から小規模な研究はいろいろとありました。元々知らない人からすると、急速に発展して出現し、急速に知能を獲得していっている…ように見えるかもしれませんが、①も②も急に増えないので、無(のように見えていたところ)から出現した時ほどのインパクトのある進歩はしばらく出ないと予測しています。

大規模なモデルはデモンストレーションとしては良いですが、電力を大量消費するため運用するのもコストが高く、環境にも悪く、しかも作ってから使い道を考えていてコストの割にリターンが無い状態になってしまっています。膨らんだ期待がいつまで保つのか怖いですし、弾けるとIT全般への影響もデカそうで、もう本当嫌だなーと思っています。嫌なことだらけです。

シンギュラリティに到達しそうなレベルの、画期的な新しい手法やモデルを誰か持っていたらこの弾けるという予想は外れるでしょうが、今のところ有力な話は聞いたことがないです。
現在の生成AIって問題集の答えを全部覚える小学生の究極版のような感じの挙動をしています(なので数学より国語や社会の問題を解く方が得意です)。

「色々な数字での問題と答えを暗記、ではなく説明を読んだら数学の問題が解ける」
「色々な絵を読み込んだら合成できる、ではなく絵の描き方の本を学んだら絵が描ける」
ような効率の良い理想の人工知能が作られ、すごく賢くなり、人間よりも資源に対して効率的に動き、人間がみんな楽できるようになることがAIへの究極の期待ではないでしょうか。
しかし、少なくともopenAIのような著作権問題抱えまくりの企業には、理想の人工知能のようなものが作れそうな見込みは今のところ特に無いように見受けられます。もしあったら敢えて訴訟リスクと軋轢を抱えまくる意味が分からないので。
また、生成AIの生み出せる価値は著作権や成果物のロンダリングと、それ以外の新規の部分と両方あるとは思いますが、出力を後者に絞り切る技術もどこも持っていなさそうですね。

理想的な強いAIの実現は、もしかしたら画期的な新しい手法ではなく、先ほどの①、②が今よりも桁違いに発達することで実現するのかもしれません。

しかし、②のデータの蓄積に関しては、誰もが生成AIを利用できるようにしてしまったせいで、今後の状況は悪化していきます。
AI生成したデータはAIの学習には適さないですし、AIに搾取されると分かっている状態では人間のデータも減っていくでしょうし。
先のことを何も考えないで誰でも使えるようにしちゃったのがそもそも間違いだったと思うんですよね。あーあ。

日本の方針のヤバさ

他国よりアレな法律、中国にも負けてる

こんな問題だらけな生成aiに対して
「規制はするべきではない」
「ソフトローで行こう」
などと言っている国があったらびっくりしませんか?
びっくりすることにうちの国なのですよね…

日本がどんな方針でやっているかを簡単に言うと、
「技術力も資源もない…けど!人権を制限すれば勝てるかもしれない!」みたいな感じです。
それで勝ってるかと言うと全然全く勝ってないです。アメリカにもEUにもイギリスにも中国にも法律の倫理観と技術の両方で負けていないですか?

政府は頭が大丈夫なのか心配になります。
「規制を緩くすれば技術は発達する!」という主張が引っ込められなくなってはいるのではないでしょうか…。「次勝って取り戻す!」というギャンブラーが他人の資産をベットするような最悪な状況です。

友人が生成aiの話題で「中国とか著作権軽視しててヤバそう」とか言っていたのですが、この話題に関しては著作権軽視は日本の方が断然ヤバいです。

日本では2018年の著作権法改正で、著作権法第三十条の四の二という著作物の利用を優遇する法律が作られてしまっていまして、機械学習に著作物を利用することがOKになっています(著作権者の利益を不当に害することとなる場合という但し書きが一応ありますが)。
中国を含む大抵の国では「研究目的であれば」著作物を使える、という扱いになっていますが、日本ではこの「研究目的であれば」がありません。

先日、なんと中国の裁判所で、ウルトラマンという日本のIPを守るような形にAI事業者が有罪判決になる事例がありました。

著作物を無断で使って、そっくりな出力が出せてしまうソフトを作り公開することが、著作権侵害の幇助になるという判断ですが、真っ当すぎて眩しいです。

日本では著作物や、イラストレーターの画風や、誰かの声を模したAIは無法地帯です。
遺体の画像をジブリ風に加工、なんてやっている人がいましたが、現在の日本ではそれでもツールの提供者に今回の中国の判例と同様の判決が下されることは不可能に近いかと思われます。

著作権はどこかの国だけでルールを決めて守れるものではないので、足並みを揃えましょうという感じで、ベルヌ条約という条約があります。日本や中国を含む世界の大体の国が加盟しています。
しかし、CISAC(著作権協会国際連合)から日本のこの著作権法第三十条の四の二はベルヌ条約に違反しているのではないかと名指し批判されています。恥ずかしいですね。
因みに反反AIの人がよく「違法じゃない!」と言っているのはこの改正著作権法が根拠かと思われます。「これからどういう規制法が作られるべきか」とか「こういう利用は嫌だよね」という文脈に対して、このような割合最近、推進派によって作られた国際条約違反疑惑の日本だけの悪法を持ち出すのは、話が通じ無さすぎて驚愕です。そもそもこの法律があったとしてもどこまでのケースで適法であるかは判例が増えない限り確定していませんし。


ところで中国といえば先日、731部隊に関する中国側の博物館の展示に訪れる機会がありました。731部隊について簡単に説明すると、旧日本軍の部隊で戦時中に細菌兵器や凍傷の研究のために人体実験を行なっていたことで知られています。

日本語の資料やNHKの取材した番組の引用も多数展示されており、恐ろしいですが良い展示でした。
その中に「なぜこのようなことが起きてしまったのか」の分析のようなパートがあり、展示によると、
・当時でも細菌兵器は国際条約に違反していたが
・「これからは細菌兵器の時代だ」と部隊設立者が強く主張し
・大きな予算を獲得して
・成果を焦り
・人権を軽視する
というような経緯があったようです。

これを見た時、残酷さや恐ろしさはもちろん流石に違いますが、現在進行形の何かに対する構図にそっくりだな…と思いました。
著作権も人権の一種です。うちの国はこういうことする国なんだな、と嫌な納得感があります。

無規制で良いことがあるのか?

生成AIに甘々な法律になっていますが、それで存在感のある成果って何か出ましたっけ?ディープフェイクでポルノを生成される被害者は日本人女性が世界三位らしいですが、それくらいでは。

一番最悪なパターンが、日本のコンテンツ等が一方的に利用され、日本の生成AI事業者が特に有利にもならない、むしろ出遅れるという状態です。
割とこれになりそうだと思っています。

画像のaiは数十億単位のデータが無断使用して作られていますし、利用も含めてどこかの国の中だけで完結する話ではありません。

まず、国内のコンテンツ産業や著作者ですが、国内の業者に不利益になるようなデータの使われ方を勝手にされていても裁判での勝ち目が薄くなります。国外の業者が相手で、相手国の法律で戦える時の方が勝てる可能性が高まりそうです。
ハードルも高くなりますが。

そして、無断学習で作られた生成AIは
・意図通りの出力を出せるわけでもないし、作業の効率化にも効率が悪い
・倫理的に最低なのでユーザーから嫌われ、信用を失う
・生成物には著作権が認められない可能性が高い
・違法にならないとも限らない
等の理由で利用価値も低いです。
特に英語で情報を拾っているとAI art擬き(AI slopと呼ばれています)は日本よりも激しく嫌われているため、バレると国外で売ることが困難になると考えられます。

また、国内の事業者ですが、法律が緩くて何の罰則もないから安心かというと、それも言い切れることではないですし、規制がないことに甘んじているとむしろ出遅れるのではないかと思っています。
多少は倫理的な規制がどこかの国で作られ、それに対応した生成AIが作られたら、嫌がらせ目的ではない限りユーザーはそちらの方が使いたいでしょう。
著作者の任意の範囲で利用されて納得できる使用料が分配される、少ないデータで効率的に作られる、といった方向にシステムや技術が発達していけば良いですが、「使いたい放題です」「違法じゃありません」に依存していてはそういったまともな発達が望めるとは思えません。

そもそも、日本において二兆円貿易黒字を出したりするコンテンツ産業の意見を全く聞かず、そちらを犠牲にして六兆円以上貿易赤字を生むようなIT産業に望みをかけるのって正気の沙汰なのでしょうか?
陰謀論みたいになっちゃいますが、「お前のところのコンテンツ産業を潰せ」的な密約でもあったりするのでしょうか?そちらの方がまだ理解できます。

どうするのが良いと思うか

こういう規制があると良いと思う

生成物が現実と区別が付かなくなる事は、詐欺に使えそうくらいのメリットしかありません。
ですので、生成物を必ず明記しなければならない、ウォーターマークを付ける、というような規制は罰則付きであった方が良いと思います。
それと分かるちょっと取り除きにくい透かしを付ける、くらいの対策は30分ほどで書けそうですし、各サービスが自主的にすぐやるかなと思っていましたが、全然そんなことはなかったです。

それどころか、「ウォーターマークを剥がす」「タイムラプスっぽい動画を作る」「レイヤーを分ける」といった著作者人格権の侵害と詐称くらいにしか使い道がない驚きのツールが存在しています。

事業者の自主的な改善が望めないことはもう明白ですので、規制なしとか罰則なしのソフトローで対応すると言うのは現実的ではないです。

「無断でデータを学習する」でも、相手に不利益を与えないやり方はあるわけですし、著作権法が改正された時点ではそういった利用が想定されていたのではないかと思います。
例えばイラストと作者名を無断で学習したとしても、「作者名から似たようなイラストを生成」では迷惑ですが、「イラストから作者はこの人ではないかと推定し、作者のsnsアカウントを教えてくれる」ツールを作るといったような利用はあまり悪影響がありません(多分)し、作者と新しいファンが繋がれて皆にプラスではないでしょうか。
規制は特に無く、技術者側は言われなくてもデータ提供者に不利益を与えないようにし、win-winなシステムを自由に作る、というのが全体最適ではあったと思います。一部の技術者とユーザーがぶち壊しましたね。

あとは、画像、音声、動画を丸ごと出力するような生成AIは全面禁止でも良いのではないかと思っています。詐欺と親和性が高すぎることに対して有益な利用方法がマジで分かりません。
音声の読み上は、既存の合成音声でも聞き取れる出力が得られますし、生成AIを使う本当に必要な場面があるとは考えにくいです。

技術を規制するべきでない、とかただのツールだから既存法で対応するべきという意見は既存の法律を見てもおかしいと思っています。
火という技術が活用されていて、技術的に簡単にできるとしても刑罰が重いおかげで、人の家に放火するような事件はしょっちゅう起きている訳ではありません。
放火や燃え広がる火事がしょっちゅう起きる社会があったとして、「人の家を壊すことは火がなくてもできる。火に対する規制は要らない」などというのは効果的な社会の運用ではないと思います。

有害な使い方がある以上、技術は適切に規制しなければならないと思います。

(2025/3/2追記)書き忘れていたのと分かりにくくなってしまっているようでしたので追記しますが、ユーザーの悪用するような利用に対する法規制を強めるべきだと思っています。

既存の法律には同様の被害を相手に及ぼしたとしても、手段によって適用される法律が違うものがあります。
家を壊すにしても力学的に壊せばおそらく器物損害罪ですが火をつければ放火罪ですし、人にぶつかって同様の怪我をさせたとしてもタックルするか原付でぶつかるかでは道路交通法が関わるかが変わります。

この分野に関しては素人の考えですが、今までこのような立法と運用されてきたのはそれが効果的であるからなのかな、と思いますし、生成AIの話題になった時にだけ反対する理由が分かりません。既存法で対応しきれているとは言い難い状況になっていますし。

技術の進歩を止めないという観点でも、技術者サイドに関しては本当に悪気がなく悪影響のある技術を出してしまう可能性もあり、「萎縮させないために規制しすぎないようにするべきだ」という意見がある程度正しいことは理解できます。
しかし、悪用するただのユーザーは技術の発展には殆ど関係ないですし、重めの罰則でも付けておいた方が良いのではないかと思っています。

向き合い方としてどうするのが良いと思うか

ユーザーとして今のところは積極的に利用しない方が良いと思います。
嫌われますし、信用を失うし、法的にもリスクがあるし、うっかり自分のデータを抜かれるかもしれないし、能力を身につける上でもあまり良いことがないと思いますし、なるべく客観的に考えてもデメリットが大きいように見えます。
きっと今後もっと倫理的にマシで性能もより良いものが出てくると思うので、それまでは自分のスキルを磨いておいてその時に使えばいいのではないでしょうか?

スキルとしての面ですが、絵にしろプログラミングにしろ、「一年勉強して生成aiも活用して良いものを作れるようになるぞ!」と思った場合
①最初から生成aiを使いながら作る
②最初の11ヶ月を生成aiなしでの勉強に充てて、残りの一ヶ月で併用の仕方を学ぶ
であれば後者の方がずっと良いリターンが得られるでしょう。

現在の仕組みの「AI」では、活用が進んでも結局人のスキルが不要になることはありません。きちんと物事を理解している人が必要ですが、中級者がスキルを仕事にしにくくなり、成果を手に入れやすくなることでモチベーションを保ちにくくなり、人の育成が困難になりそうで厄介だと思っています。
ただ、人が育たなくなって不足した後だと、きちんと理解していたりスキルがあることは大きな資産になりそうなので、自分のスキルや知識は増やしておくと良いのではないかなと思っています。オンラインに成果は上げずに。

あとは、普通に許諾を取ったり自分達で集めたデータを使っているなどまともな機械学習をしている組織や個人は、カスなタイプの活用と違うことを積極的にアピールした方が良いと思います。
知り合いがいたりすると批判し辛いのは分かりますが、まともな研究まで悪印象の巻き添えを喰らわないように距離を取っておいた方が良いと思っています。

嫌われる件ですが、特にアート分野ではなかなかこんなに嫌われる存在もないくらいに嫌われているようです。私も嫌いですが。
Xでは「AI絵師絶滅して欲しい」という投稿が30万以上というあまり見たことないレベルのいいねを獲得していましたし、英語でも「スキルに関係なくあなたはアーティストだよ」に対する「AIを使わない限りな」といったような投稿に29万以上のいいねが付いています。

個人的にはAIの人の作品を寄せ集めて作った画像を目にするとグロくて気持ち悪いな…と感じます。道路でペシャンコに轢かれて内臓や皮膚が飛び散っているクマネズミ(サイズ的におそらく)だったものを見た時と同じような気分になります。
近所のスーパーで生成AI画像を使ったポスターがあったのですが、気持ち悪くて食欲失せましたし、それ以来一度もそのお店に行けていないです。フリー素材に混じっていたり、問題がないサービスであるかのように騙されて使ってしまうこともありますし、お店の方に悪意があるのかは分かりませんが、シンプルに気持ち悪いものを目に入れたくなくて足が遠のいています。
お陰様でもう一つ遠いスーパーの方が安くて品揃えが良いことに気付けたのもありますが。

パッと見で分からない利用の仕方をしているものは、気付いた時にさらに気持ち悪いです。ペシャンコクマネズミの肉片が中に入ってるケーキを出されるくらい猟奇的に感じます。

AIのイラストを使うということは、「絵を描いた人の仕事は尊重する気がないし搾取したいです」という自己紹介のようなものです。私もそのようなな相手の仕事は尊重したくないですし、チャンスがあれば合法な範囲で搾取したいと思います!

分からない人には分からない気持ち悪さや不快さなのかもしれないですが、きっと私にも自分が明るくない分野に対する感覚はしっかりとは分かっていません。水は低きに流れるものなので、「これくらいいいんじゃないかな」と使ってしまう危険があります。
よく分からないうちに人に嫌がられるようなことはしたくないですので、無断でデータを学習しているようなAIは極力触らない、触ってみても公言しないのが良いと思っています。

もう登場して何年経ちましたっけという感じなので、AIを触っています!と言ったところで新しいものに適応できる人だなんて印象も無いでしょうし。

規制がされなかった場合にできる対抗策

規制される気配がない場合の悪いタイプの生成AIへの対抗策を考えてみています。
理由のある憎しみとか怒りって世の中を良くするために大切だと思うので、合法な範囲でぜひ燃やしていきましょう!

①不買や消費行動の変化、意思を示す
やはり儲からせないのが大事だと思います。
先ほどのスーパーの話は特に意図を持っての不買ではないですが、画像の生成AIに反対であれば広告に使った企業の物は極力買わない、良くないと思う生成AIに協賛した企業のものも極力買わない、などできる範囲でやっていければ少しは良いかなと思います。
それを表明することも。
そういえば私は特に大きくない食品の企業が生成AIを使って広告を出しているのを見ると、そこの商品は食べたくないし家族や友人にも食べさせたくないと思います。危機管理能力が無さそうな会社だな、と思うので口に入れるのはちょっと嫌になります。

また、推進するような意見を言ったり活用するアーティストも少なくともその時はなるべく応援しない方が良いと思っています。私はカラバッジョは好きなので作者が人を殺していようが好きな作品は好きですが、今を生きている人は今に影響を与えてしまいます。
逆に反対を表明している人や企業のことは応援したいです。
Adobeやpixivには極力お金を払わず、Procreateやクリスタはできるだけ応援していきたいです。
イギリスのアーティストが著作権法がAI企業に有利なように変えられそうになっている(でもその法案も日本より五千倍マシ)ことに対して抗議をして騒動になっていますが、その中に好きなアーティストを見つけると好きでいて良かった〜と思っていますし、これからも応援したいです。

そういえば、「学習禁止と書くことは意味がないと思います」というようなことを以前の記事で書きましたが、これも少し間違っておりました。
人が嫌がっている事をしている、ということが明らかになることはAI企業やユーザーのイメージの悪化に寄与します。

悪いものには悪いパブリックイメージを付ける、反対することを良いこととして扱う、といった積み重ねをしていき、資本の流れを断ちたいです。

②技術に対するアプローチ(データを渡さない、カスなデータを食わす)
まず、これからの学習に対する防衛として一番効果的なのはデータを渡さないことです。そもそも公開しないとか、取得されないような形にすると良いと思います。

あとは、日本だけがもしこのままであれば、売れっ子のアーティストや企業はなんとか海外に移住できたら良いなと思います。EUあたりが良さそうでしょうかね。なんか日本よりもアーティストという存在に対する尊重も強そうでしたよ。
アーティストに対してこんなに非道い国にアーティストの方々が税金や社会保険料を納めることはないと思います。

毒になるようなデータを食わせるのはより攻撃的な方法です。でもまあ攻撃的なAI企業に対して抵抗するのは至極当然のことですし、それで勝手に食ってAIの性能が落ちたとしても罪に問うのは無理でしょうし、どんどんやるべきだと思っています。

画像であればnight shadeというツールが利用できます。文章や情報は間違っていれば間違ったものを学習します。情報を提供するサービスを運営していたら、クローラーに間違った情報を与えるようにしておくといいんじゃないかと思っています。やっている所あったりするのでしょうかね?

また、皮肉で滑稽ですが、AIの生成物を学習するとAIの性能はどんどん落ちていくため、生成物であることを隠してデータを投稿するAIユーザーはAI企業への攻撃に加担しています。
ゴミがゴミを食いゴミを出力する世界へ!

意見を変えた人を受け入れて褒める
地味に大切なことだと思います。

問題を分からないで使ってしまうことはあると思いますし、一時の過ちを掘り返しすぎずに、意見を変えられるのはすごいことだと讃えていきたいです。
敵が一人減って味方が一人増えたらデカいですし。

本当に話通じ無さそうな相手だったら関わらない方が良いですが。

もうみんなが被害にあってからじゃないと止まらないのかもしれない

先日、DeepSeekという中国の生成AIが登場しました。ChatGPTを利用して学習を行う蒸留によって少ないコストでChatGPTと変わらないパフォーマンスを達成し、より低コストでサービスを提供しています。

ChatGPTのopenAI側はそれを批判していますが、
・データを盗む
・規約なんて法律じゃないので無視
・人が嫌がろうがどうでもいい
・相手の仕事に影響があろうがどうでもいい
・もっと良いものを作れば?
・コストをかけた成果だとかどうでもいい
・努力?そんなお気持ちどうでもいい
・良いものはみんなに共有した方が人類のため
・時代の流れだ
などといった、彼らやそのシンパが今まで他の分野にしてきた振る舞いが全てブーメランになっていてめちゃめちゃ愉快です。
こんなに綺麗な因果応報はなかなか無くないですか?

まあ全部碌でもないのですが、DeepSeekに対してはダークヒーローに対するような好感を持っています。特に不快な発言をしているかも知らないし内部告発者が不審な死を遂げたりもしていないので、多分おそらくopenAIよりはマシでしょう。

あとは中国の企業がアメリカの企業を利用したという所も構造的にとても素晴らしいと思います。こちら側でまともな規制論が進む可能性が高くなりそうなので、ChatGPTのシェアがどんどんDeepSeekに奪われて行くと良いなと思います!

DeepSeekがダメになったとしても第二第三の蒸留モデルが出て、大型の投資をして良いパフォーマンスのモデルを作った組織は損をする、という流れができて、全員が損をする形にならないと世界は止まれないのかなと思います。
もうハードランディングは避け難そうなので、変な期待に基づいてモラルが死んでいる現状はなんであれなるべく早く収束して欲しいです。



いいなと思ったら応援しよう!

ピックアップされています

マガジン2

  • 4,026本

コメント

18
寿限無
寿限無

○○シェフの料理を参考にしました、真似して同じのを作りました

これは著作権侵害です。AIだろうが手書きだろうが同じもの作らないでください

AAA
AAA

明確な荒らしがコメント欄に湧いていますがそれは反応せず通報で済ませましょう。彼らは構ってもらうことが一番の目的です

hira
hira

ベルヌ条約の一次ソースってどこにありますか

VVX
VVX

>>○○シェフの料理を参考にしました、真似して同じのを作りました

これ著作権侵害なんですか?????????????

ログイン または 会員登録 するとコメントできます。
AIチョットワカル絵描きのイラストその他の生成AIに対する現在のスタンスと建設的な意見|natsuki
word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word

mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1