見出し画像

2024年の画像生成AI事情のまとめと今後の考察と駆け出しクリエイターへのアドバイス

どうも、よー清水です。
新年明けましておめでとうございます。本年もどうぞよろしくお願いします。

2024年になりましたので、生成AIを取り巻く状況と今後についてまた語っていきたいと思います。

2023年の3月に書いた記事はこちら↓

以前の記事でも冒頭に書きましたが、僕の画像生成AIに対するスタンスはほぼ変わりません。

僕は画像生成AIについては「権利者に許諾なしで作品を使う」という1点が気に入りません。AIや技術の進歩は歓迎しますが、著作権など既存の権利を蔑ろにする進歩はおかしいと思っています。

AIの学習に使用するのはよいですが、それは事前に学習に使用することに同意した人だけに限るべきです。

現状でも本やWeb掲載など、公的または商業利用の場合は事前に編集者やライターさんから連絡をいただき、使用用途を確認の上で許諾を出します。
場合によっては掲載料を提示します。これがAI学習とAIの商用利用という用途だけ見逃されるというのは納得がいきません。

2023年の出来事

ニューヨークタイムズ社がOpenAI社とMicrosoft社を提訴

ニューヨークタイムズ社(以下NYタイムズ社)がChat GPTを開発したOpenAI社とそれに出資し、自社の製品に組み込んでいるMicrosoft社を訴えました。日本のニュースでも大きく取り上げられましたのでご存知の方が多いと思います。

これはChatGPT、つまりテキスト生成AIについての訴訟なのですが、僕たちイラストを描くクリエイターが現在最も気にしている画像生成AIの問題にも大きく関わるものです。

NYタイムズ社の主張
・OpenAI社とMicrosoft社はインターネット上の膨大な自社の記事を無許可で生成AIに学習させて製品開発をしている

・記事作成には取材費など多額のコストがかかるにもかかわらず、その対価を支払っていない

・OpenAIは不正取得した知的財産で会社の価値を高めた

・生成AIによる誤答によってNYT社に損害を与えている

・・・この内容どこかで見たことありませんか?

NYタイムズ社の主張はクリエイターが画像生成AIについて怒っている内容、ほぼそのままなのです。

特に「無許可で対価なく著作物を生成AI学習に使用し、対価を支払わず製品開発をする」は僕はもちろん、多くのクリエイターが主張しています。

また、特定のイラストレーターの絵柄を集中学習させ、二次創作ガイドラインで禁止されているコンテンツのR-18画像生成など、学習元となったクリエイターへの明確な損害も発生しています。


現状のほぼ全ての生成AIはテック業界が主張するフェアユースという概念に基づき、著作物を同意なしでAI学習に使用していますが、法廷でNYタイムズ社の主張が認められた場合、生成AIの学習目的の著作物の利用はフェアユースではないということになり、画像生成AIの著作権問題が決定的なものになると予想されます。

こちらはNYタイムズ社の訴訟前の2023年8月の記事ですが、フェアユースについて過去の判例を解説している部分を引用します。

OpenAIをはじめとしたAI大手各社は、AIモデルを訓練するため使った全てのウェブコンテンツにつき「フェアユース」を主張する必要があるだろう。NYTのケースで言えば、ChatGPTの回答を作成するためにNYTの記事や画像を使ってもNYTの権利を侵害しない、すなわちNYTの記事と競合しないことを証明しなければならない。

しかし専門家は、OpenAIにとってそれは困難なことだと述べている。

たとえば2013年、Googleの書籍全文検索サービス「Google Books」が何百万冊もの書籍をデジタルスキャンしたことはフェアユースだと認められたが、それは書籍の「重要な市場代替物」を生み出していない、つまり原著作と競合していないと判断されたからだ。同サービスでは、閲覧できるのは書籍の一部のみに限られ、全ての内容は読めない。
しかしChatGPTがNYTのウェブ記事を元にして回答を生成すれば、それはユーザーにとってはNYTのニュースとほぼ等価ということになる。それは元の著作物と「同一または極めて類似した目的」を共有していると見なされる可能性が高い、というわけだ。

https://gadget.phileweb.com/post-50522/

さて、このnoteの最終推敲中に「著作権で保護された素材なしで ChatGPT のような AI ツールを作成するのは『不可能』、OpenAI が語る」というタイトルの記事が流れてきましたので急遽差し入れて紹介します。

記事より翻訳抜粋
オープンAIは、著作権で保護された作品にアクセスできなければ、同社のGPT-4モデル(ChatGPTを支える技術)のような大規模な言語モデルを訓練できないと述べた。

「今日の著作権は、ブログ記事、写真、フォーラムへの投稿、ソフトウェアコードの断片、政府文書など、事実上あらゆる種類の人間の表現をカバーしているため、著作権で保護された素材を使用しなければ、今日の主要なAIモデルを訓練することは不可能である」と、オープンAIは提出書類の中で述べている。

https://www.theguardian.com/technology/2024/jan/08/ai-tools-chatgpt-copyrighted-material-openai

こちらの方がすごく面白い例えをしています。

翻訳
銀行強盗をせずに億万長者になることは不可能だ。
(記事タイトル 著作権で保護された素材なしで ChatGPT のような AI ツールを作成するのは『不可能』、OpenAI が語る)

Molly White@molly0xFFF

Open AIの開発者は著作物を学習に使用しなければChatGPTは作れません、ChatGPTは皆の役立ちます!(だからこれまで通り無断で対価なく著作物を使わせてください)と英国政府に主張してるのです。

これってNYタイムズ社の訴訟に対する実質的な白旗宣言、もしくは命乞いですよね。

でもまぁ、OpenAIがどんなに叫んでも著作権を持つ権利者は言うでしょう。「許可を取れ、対価を支払え」と。


生成AIデータセット「LAION-5B」に児童ポルノ画像が含まれていたため、ネット上から削除

米スタンフォード大学の研究により、生成AIの学習データセット「LAION-5B」に児童ポルノが1000枚以上が含まれていることが判明し、インターネット上から削除されました。現在はDLすることができなくなっています。

こちらのニュースは、僕はNYタイムズの訴訟よりヤバいんじゃないのと思ってるのですが日本語での記事が極端に少なく、知っている人が意外と少ないです。

画像生成AIのデータセットには以前から明らかに同意を得ていない医療記録の写真などが見つかっているため、児童ポルノが含まれるのでは?と言われていましたが、最新の研究により確実に児童ポルノを含むことが明らかになりました。

LAION-5Bとは?
ドイツの非営利団体・LAIONが開発したインターネット上の画像をクローリングした巨大なオープンデータセットです。LAION-5Bは「Midjourney」「Stable Diffusion」「Novel AI」「CivitAI」「Lora」など、現在主流の画像生成AIの基礎となっているデータセットです。

発見された児童ポルノはCSAMと呼ばれていて、欧米では所持しているだけで逮捕されるレベルのものです。閲覧自体もできないため、特殊な方法でデータセットから児童ポルノが含まれていることを特定したようです。

最近では、こっそり画像生成AIを使用してそれを商業案件に納品するイラストレーター?すらいるようですが、閲覧すら厳しく制限されるデータで学習された画像生成AIを、作品制作、ましては商業の仕事で使って大丈夫でしょうか。


画像生成AIが盗作を隠さなくなってきている

2023年後半になって、画像生成AIのタガが外れてきたというか、映画や有名IPそのものの画像を出力するようになってきました。

以下は映画「DUNE/デューン 砂の惑星」という映画のシーンがほぼそのまま出力されています。

こちらは映画「ジョーカー」のシーンそのままですね。

他にも有名IPがどんどん登場しています。

イラストの例では、学習元になっているアーティストのサインがそのまま出力される例も確認されています。

画像生成AIが登場した2022年や、2023年前半ごろまでは著作権的に問題ない、という建前というか言い訳をしていたと思うのですが、ここのところは取り繕うことすら諦めているように見えます。

その原因として考えられるのは、画像生成AIのベンチャーの資金繰りが厳しいからではないかと思います。

最大手のStability AI社ですら2023年4月の時点で倒産の危機があることが報じられ、副社長のエド・ニュートンレックス氏をはじめとする幹部が同社が倫理的に間違いを犯しているという懸念から退職したようで、生成AIについてかなり辛辣な言及をしています。

翻訳
人間はそうやって学習していくのだから、AIは同意なしにあらゆるものをトレーニングできるようにすべきだとよく言われる。

なぜ著作権がAIの学習を止めさせ、人間の学習を止めさせなければならないのか? これは、少なくとも2つの理由から誤った等価性である。

第一に、AIのスケールだ。世界中のあらゆるコンテンツについて訓練された単一のAIは、そのコンテンツの多くの需要を代替するのに十分なアウトプットを生み出すことができる。個々の人間がこのようにスケールアップすることはできない。

第二に、人間の学習は、長年にわたって確立された社会契約の一部である。本を書いたり、絵を描いたり、歌を作ったりするクリエイターは皆、他の人がそこから学ぶことを承知でそうしている。それは織り込み済みなのだ。AIの場合は決定的にそうではない。これらのクリエイターは、AIシステムがそこから学び、競合するコンテンツを大規模に生産できるようになることを期待して作品を創作し、発表したわけではない。

AIのトレーニングという行為には、社会的な契約は存在しないのだ。 AIのトレーニングは、人間の学習とは異なる提案であり、異なる前提に基づき、異なる効果をもたらす。そのように扱われるべきである。

@ednewtonrex

これらのことから推測するに、画像生成AIのビジネスって儲からないんじゃないの?という、僕の以前からの懸念は当たっていたように思います。

つまり、潰れる前に、規制される前に稼げるだけ稼げ!というビジネスモデルへ転換したのではないかと。

これだけ著作権侵害の疑いがある生成AIを企業がビジネス目的で契約・使用することはできません。特にNYタイムズ社が実際に訴訟した事件は世間の衝撃が大きく、企業は訴訟リスクを避けるため、生成AIとの契約・使用を慎重にする動きが出ると思われます。

企業が契約してくれないなら、画像生成AIの最大の収益源どこか?それは課金する個人ユーザーです。課金するような個人ユーザーは著作権侵害のことなんて気にしないので、有名IPに近いものが出力されれれば「高性能だ!」と喜んで貢いでくれるでしょうね。 

画像生成AIのビジネスモデルの問題点については以下の記事で解説しております。


主に海外ユーザーの生成AIへの嫌悪感が極まってきている

新年に入ってまだ10日も経ってませんが、カードゲーム「Magic The Gathering」と「Wacom」が大炎上しています。

どちらもプロモーション画像に生成AIが利用されているという点からの炎上です。特にWacomはペンタブレットという市場で圧倒的なシェアの企業なため、炎上具合がひどいです。コメントや引用RTのほとんどが罵倒と否定に埋まっていて、熱量がすごいです。

こういったTwitterのプロモーション画像を描いた経験からいうと、大元の企業は発注しただけで、画像生成AIを使用したのはアホな下請けだと思います。

ただ、納品された画像をチェックする担当者の目も節穴だなと思います。特にWacomのドラゴンはクオリティも切り抜きも雑すぎて、自分が仕事で関わっているクライアントとのチェック体制との差に愕然としちゃいました。

チェック体制がまともな会社なら見抜いてきますし、まず納品を拒否されますよ。

2023年も生成AI使用で炎上は起きていましたが、ここのところは本当に酷い感じで、仮にクリーンな画像生成AIができたとして、ユーザーが受けいれられるのかというと疑問しかありません。

そもそも、クリーンな画像生成AIはデータ提供元として手描きアーティストの協力が必須ですが、この惨状を見て協力者が出てくるかというと…。


未来の予想

さて、なぜか「この流れは止められない!クリエイターは生成AIを活用すべき!」と主張している方がいらっしゃるのですが、僕はふつうに流れが止まると思っています。(むしろすでに止まりかけでは?)

そもそも、生成AI企業のほとんどは欧米にあり、日本はそれを利用しているだけの立場なのに、なんでそんなに自信満々なのかわからないんですよね。違法ダウンロードで使われた「Winny」時代の2chを思い出します。

注目すべきは、主張や口調がほぼそのままなところです。もちろんWinnyの流れは逮捕者を出して止まりました。

僕は現状の「権利者の同意を得ない画像生成AI」はほぼ全てWinnyなどと同じ扱いになると思います。画像生成AI自体が明確に違法になるかはわかりませんが、少なくともStabilityAI社やMidjourney社はそのうち倒産する確率が高いのではないのでしょうか。

米ソフトウエアメーカー、アドビは13日、さえない通期売上高見通しを示し、新たな生成人工知能(AI)ツールが同社の業績を迅速に押し上げると期待していた投資家の失望を招いた。

https://www.bloomberg.co.jp/news/articles/2023-12-14/S5MLZWT0G1KW00

Adobe社も微妙にクリーンっぽい画像生成AIをリリースしていますが、学習元であるAdobe Stockは無断転載や画像生成AIなどで汚染されており、著作権的にクリーンとはとても言えません。知り合いのデザイナーが、Adobe Stockが生成AI画像に汚染されたせいで商用目的で写真素材を買うのをやめたそうですが、これで売り上げが上がると思っている投資家さん、大丈夫でしょうか?

まず、2024年中に、画像生成AIって思ったより儲からないんじゃないというのがより可視化されるはずです。

仮にコストダウン目的で使ったとしても、使うたびに炎上して叩かれるのであってはコストダウンの意味がありません。商業のアートワークは基本的に、多くの人に好感、共感を得てもらうためにあります。なぜなら、ほとんどの場合、商品を買ってもらったり、課金してもらうためだからです。ムカつくものにお金を払いたい人はいません。炎上というのは論外で、そもそもケチがついた時点でOUTです。

NYタイムズ社の訴訟は時間がかかる

NYタイムズ社の訴訟は、これまでの著作権絡みの訴訟の期間を考えると、判決が出るまで最低でも3年以上はかかるはずです。ただ、欧米の法律家の多くの方がOpenAI社がNYタイムズ社の主張を退けるのはかなり厳しいという見解で一致しているようです。すごい説得力がある訴状なんですってね。

さて、こちらのNYタイムズ社の訴訟の合間にAppleが動き出しています。

ニューヨーク・タイムズによると、Appleは少なくとも5000万ドル(約71億円)相当の複数年契約をメディアに持ちかけ、AIのトレーニングのためにアーカイブを利用したいとの考えを示したとのこと。

https://gigazine.net/news/20231225-apple-news-ai-training/

Appleは他のテック企業と違い、生成AIへの動きが慎重でした。多分、昔からクリエイティブ系ユーザーに愛用されるブランドでしたので、著作権についての訴訟や世相がどのようになるか慎重に見極めていたのでしょうね。

このように「権利者の同意・莫大な対価」の上でテキスト生成AIは本格的に広まるのではないでしょうか。

ただ、画像生成AIについてはほんっっっとうに使用用途がわからないんですよ。マジでわからない。

当初は短い時間で画像を大量生産する特性を活かし、動画のアニメーション変換に使えるのでは?と思っていましたが、出てくる品はどう見ても低クオリティなものばかりで、これが企業のプロモで出てくるのは本当にびっくりしちゃいます。まともなアートディレクターなら絶対にOKしないと思うんですけど。

また、2023年の記事で、画像生成AIはアニメの中割りに使えるのでは?と書きましたが、友人のアニメーターから「中割りは職人芸、生成AIはヌルヌル機械的に補完するだけで見た人間が気持ちよくならない。動画マンをナメるな」とお叱りを受けました。本当に申し訳ありませんでした。

今後の方針

1.盗作ツールは使いません

僕は以前からHPにこのような記載をしていました。

画像

2022年から色々と英語で調べて、ずっと世相や炎上を眺めてきた上でのこれからですが、僕の中ではLAION-5Bがベースとなっている現在主流の画像生成AIは全て盗作ツール、また児童ポルノのデータなどが含まれる倫理的にアウトな危険物という認識になりました。これまでもこれからも絶対に使用しないことを誓います。

2.インターネットでのイラスト系ノウハウ発信はやめます

情報商材屋、増えすぎです。
前々から怪しいなぁと思ってた方々が、どんどん画像生成AIを推していたり、なんと画像生成AIを使って手描きイラスト解説なんかしている人もでてきちゃったりしています。凄い面の皮だ!

これまではブログなどでノウハウ発信や講座などもやっていたのですが、界隈が怪しすぎてこわいので、今後は出版社から出すきちんとした本と商業案件の講座のみの発信になります。新刊はちまちま書いてるのでご期待ください。

これまで書いてきた本はこちら↓


これから絵描きを目指す人へ

2023年〜2024年現在までのインターネットの治安は最悪と言っていいでしょう。生成AIを使った嫌がらせ、なりすまし、海賊版商品、偽画像など、雨後の筍のように出てきます。

学生さんなどこれからイラストを描いて食べていきたい、プロになりたいと思っている方は、先の見えない不安で辛いと思います。正直、自分が学生だったり駆け出しイラストレーターだとしたら正気でいられるかわかりません。

その上で断言しますが、「LAION-5Bをベースにしている画像生成AI」「権利者の同意を得ていない画像生成AI」を作品制作に使用することは絶対におすすめできません。これらはもはや盗作ツールと同義といっても良いものです。まず、絵描きとしての基本スキルも身につきませんし、キャリアに致命的なダメージが及ぶ可能性があります。 

仕事は「誠実さ」と「信用」が技術より大切

絵描きはクリエイター、特殊な仕事と思われがちですが、基本的にはふつうの商売となんら変わりません。

お客様が求める、品質が高く安定したものを締め切り通りに納品することが最も大切です。

その商品に他人や他社の権利侵害の恐れがあるものや盗品などが含まれるというのは絶対にあってはなりません。なぜならそれは、信用してお金を払うお客様への裏切りだからです。

盗品なのではと疑惑を抱かれるのも最悪です。なぜならそれは、クライアントが大切に育ててきた知的財産を汚す行為だからです。

これはフリーランスなど、個人で仕事をする人はもちろん、会社の中で働く時にもなにより大切です。
嘘をつかないこと、しっかり求められたものを作ること。ミスったらちゃんと謝ること。

2023年はビッグモーター社やダイハツ社などの大手企業で不正がバレて大騒ぎになりましたよね。
不正というのは、隠れてやっていてもいつかバレるのです。失うのは短期的にはお金もかもしれませんが、1番大きなものは信用です。

さて、心構えはこれくらいにして、じゃあ具体的にどうすればいいのか?というと

企業に就職しよう!

まずはゲーム業界など企業に就職することをおすすめします。
インターネットでの人気から直接プロになるのは厳しいですが、企業で経験や技術、実績を積み、人脈などを作ってから独立というルートは閉ざされていません。就職の際にはほぼ100%紙に手書きのデッサンの提出が求められます。そこでほとんどの画像生成AIユーザーは足切りされますから、わりと安心なのです。

プロへの道としてこれまではインターネットやSNSで人気を得て実績を積んで、というルートが結構あったのですが、非常に厳しくなっています。

なぜならちょっと見るだけでは、画像生成AIを使っているか、使っていないかわからないからです。イラストレーターを選別して依頼する企業の担当者の方にも同情します。依頼したイラストレーターが画像生成AIを使っていて、リリース後に発覚、炎上なんて悪夢ですよ。

つまり、上手い絵を描くだけでは企業からの信用が得られないのです。信用がないので実績になる良い案件が入らず、実績がないのでまともな依頼がこないという悲しいループに入ってしまいます。

信用があって、良い実績があれば、さらに良い実績が得られます。いかに良い実績を得るかがとてもとても大事なのです。

僕はこれまでそうやって仕事を頂いてきましたし、これからもそうするつもりです。これからクリエイティブな仕事をしたいという方は良い実績と信用を得られるように一度は企業に就職することをおすすめします。

他にできることはないの?

丁寧に信用を重ねる。
これしかありません。具体的には、自分が思う良い作品を気持ちを込めて作り続けて発信すること、skebや商業の仕事を丁寧に誠実にこなすこと、これらの当たり前のことをより丁寧にやるしかないです。
不安かもしれませんが、これしかありません。当たり前のことをより丁寧にしっかりと、積み重ねましょう。一発逆転は絶対にありません。

でもそれだけじゃ不安…

サインを入れよう。
前述しましたが、画像生成AIは学習元になっているアーティストのサインがそのまま出力される例も確認されています。

同じアーティストの学習の過程でサインの位置や形まで学習してしまい、そのまま出力されているということです。これは後々、不正に取得されたデータであると主張しやすい証拠になる可能性があります。投稿するイラスト全てに「同じ位置に同じフォントで同じ文面」のサインを入れてみるとよいでしょう。

何もできなくてくやしい

「Glaze」でプロテクトをかけてみよう。
「Glaze」はアシカゴ大学の研究者とアーティストが共同で開発したものでインターネットに作品を投稿する前に使用することで、AI学習を阻害するツールです。

人間の目から見ると上からテクスチャやノイズを弱くかけた程度にしか見えないですが、ノイズがデータベースに悪影響をあたえ、結果的にそのアーティストの学習をしにくくなるというのが原理のようです。

以下の記事で詳しく解説しています。ただ、2023年3月に書いてから記事のアップデートをしていないため、ところどころ情報が古いかもしれません。ぜひ英語で情報収集して導入してみてはいかがでしょうか?

Glazeはさらに発展した「Nightshade」という技術と近々統合する予定だそうです。画像生成AIに対して毒のように強力に作用するらしく、楽しみでなりませんね。

つらい

自分の気持ちを言語化して投稿しよう。
つらいですよね、不安ですよね。創作というのは純粋な状態でも自分のメンタルとの戦いです。そこに生成AIに自分の著作物を奪われるかも、という不安があれば、つらくなるは当たり前です。

つらい時に大事なのは、自分の気持ちを言語化すること。

言語化するだけで悩みが客観視でき、もやもやしたものが形になって、かなり精神が安定します。1年前であればクリエイターの生成AIに対する主張は盗人とその仲間たちに「お気持ち」「ラッダイト」など揶揄されていました。

ですが、俳優や声優、歌手などの様々なクリエイター、各種団体の抗議、NYタイムズ社の訴訟などの影響で大きく流れが変わっています。自分の磨き上げた技術、注ぎ込んだコスト、著作物が対価なしで奪われるというのに納得できないのは当たり前なんですよ。

インターネットを見ていると、世界の全てが敵のように感じてしまうこともあると思いますが、日本世論調査会が1月3日にまとめた全国郵送世論調査では90%の人が生成AIに法規制が必要と考えていることがわかりました。以前、僕がTwitter(X)で取ったアンケートが裏付けられた形になります。

極端な推進派というのは10%程度しかいないのです。

あなたの作品を盗んだり、あなたを攻撃したりする人は本当にごく僅かなんです。インターネットは声が大きい人があたかも多数派のように見えるので騙されがちですが、実際はこんなものなのです。

あなたの味方はあなたが思う以上にたくさんいます。自信を持って気持ちを言語化し、世界に伝えてみましょう。

主張する人が多ければ多いほど、この流れは加速していくでしょう。

ただし、単純に「つらいです、かなしいです」と弱った感じに言語化するのはおすすめできません。

なぜなら、盗人は下劣なのであなたの弱ったところを見るのが大好きで、嬉しくなってしまうのです。弱ったところを見せると、どんどん盗人がやってくるようになります。クソリプに対する反応もダメです。反応があった!と盗人は喜んでしまいますからね。

弱みを見せてはいけないし、反応してはいけないのです。

このへん、「怪異に呼びかけられても返事をしてはいけない」のとちょっと似ています。

そう考えると少しワクワクしてきませんか?

ただ、どのように工夫してもまず間違いなく、盗人や怪異から嫌がらせやクソリプがつくとは思います。それについての対処法は以下をご覧ください。

画像生成AIについて呟くとクソリプが来るんだけど

盗人と話す時間は無駄です。
2022年から、僕はAIを使用しているユーザーの動向や炎上などをよく観察してきました。疑問に思うのは「なぜ周囲から信用や好感を得る振る舞いをしないのか?」ということです。嫌がらせで特定のアーティストに特化した学習データを配布する、学習元のアーティストが明確に「やめてください」と言ってもやめない、明確に二次創作のガイドラインに違反した画像を生成する、論点をコロコロ変えたクソリプ、画像生成AIを使っていることを隠して、あたかも手描きのように振る舞うなど。

画像生成AI技術を本当に世の中に普及させて、皆が活用する未来を作りたいなら、多くの人に受け入れてもらうために、好感を得るように振る舞うべきではありませんか?少なくともデータの元となっている手描きのアーティストを攻撃するのは、本当に意味がわからない振る舞いなんです。

絵描きは長い時間をかけて技術を磨きます。そのため自らのスキルに誇りを持ち、スキルを失いたくない大切なものと思えるようになります。なので、同じ技術を修練している他のクリエイター、その結晶である作品を尊敬し、自分の権利を守ろうとするのです。

正直なところ、僕は画像生成AIが登場するまでは下積みや努力なんて効率が悪いんじゃないか?と思ってたんですが、これらの時間や努力があるからこそ、己の技術に対する誇りを生み出すんだなぁと考えを改めました。その誇りがあるから、他者に迷惑をかけたり、嫌がることはしません。そうやって、これまではモラルが保たれていたんですね。

画像生成AIを使用してる盗人に誇りや自信はありません。それは時間をかけず、修練を重ねたわけでもなく突然降ってきた借り物の力だからです。もともと努力して得たものではないので、失っても惜しくありません。なので、モラルに欠ける行いを平気で行いますし、簡単に嘘をつくし、他人を騙し、信用を積み重ねようとはしないのです。

これまで手描きでイラストを描いてきたのに、急にこっそり生成AIを使い出す人も、何やら過去に盗作疑惑があったりトラブルを起こしたりする方が多いんです。フットワークが軽いとか、新しい技術についていくためとかではなく、元々の信用が微妙なので守るものがない、だから気軽に盗作ツールに手を出せるんだと思いますよ。もしくは英語が読めなくて情報収集に難がある可能性が高いと思われます。

そういう盗人と話す時間は無駄ですし、疲れるだけでなんの価値も生みません。視界に入れないようにミュートorブロックしましょう。


おわりに

2024年は元旦から災害や事故など厳しいことがたくさんありますが、無理をせず、誠実に、頑張って良い作品を作っていきましょう。

嬉しいことにお仕事もたくさんあり、今年もワクワクする報告ができそうです。ご期待ください!!

この記事が気に入ったらサポートをしてみませんか?

ピックアップされています

ChatGPT 記事まとめ

  • 5,887本

コメント

あたらくしあ
よい記事。特に何故人は著作物から学習して良いのにAIはダメなのか?に対する意見の翻訳は目から鱗。

…でも企業イメージが毀損するから廃れる…の意見は自分は懐疑的ですね。現状、所謂「萌え絵」のジャンルでは反AIの火力が強い印象なのでサブカル系の広告イラストに使うのは仰る通り下策かもしれませんが、ロゴ制作やレイアウトデザイン系はバレにくく、そもそも製作者個人にファンがつきにくいのでバレても大事になりにくい為に今後どんどんAIが使われていくと思います。

そうやってじわじわとフォントやロゴなど、イラスト以外の箇所で商業利用が広まってゆき、最終的にはイラストも「あー、オタクってAI嫌いだよねwうちらべつに気にしないけど?」みたいな空気感にならないことを祈るばかりです。
JJ
平等と公平は違う話で、人間の可能な学習速度とアウトプット量を遥かに超えたレベルのAIと人間のそれを同列に語る事自体がそもそも間違っていると言うかミスリード目的な言説。
法的にも規模の違いで扱いが変化する例は幾らでもある訳で、誰にとっても身近な物では収入と税率です。一般人がある日突然、君達も大谷翔平やビル・ゲイツと同じ税金払えと言われて納得できないし。彼等が君達はこれっぽっちしか払ってないのに僕等がこんなに払うの不公平じゃないか?同じ額じゃないと不平等だと言う主張は受け入れられないのです。
AI周りには何処かそう言う悪平等論を税などにまで広げようと仕掛けたい人達が存在する様にすら思う。
schiller
こんなにも高潔で他人を盗人呼ばわりする正義感に溢れたよー清水先生がまさか無断学習によって形作られている機械翻訳を使用しているなんてことはないですよね!
https://togetter.com/li/2296177
ののじ
はじめまして、こんにちは。Xでポストを楽しく拝見しています。こちらの記事も、興味深く拝読しました。まとめてくださりありがとうございます。
一点、掲載の翻訳に誤りがあるのではないかと思いましたのでコメントいたします(XのDMは当方が認証ユーザーでないため、送れまぜんでした。すみません)
Stability AI社を退社した幹部のポストの以下の文面

Why should copyright stop AI learning, but not humans?

において、掲載の翻訳(Xでポスト個別記事に表示される このツイートを翻訳する ということろから翻訳したものと思いますが)は、「著作権はAIの学習も人間の学習も止めさせるべき)というように受け取れる内容になってしまっています。notが入っているために自動で上手く翻訳できなかったのだと思います。
実際は、文の前半と後半で共通の部分が省略され、共通でない部分が残っているという英文ですので、「どうして著作権はAIの学習を止めるべきであり、一方人間の学習は止めさせるべきではないのか?」という感じの意味になるはずです。どうぞご確認ください。
コメントを投稿するには、 ログイン または 会員登録 をする必要があります。
イラストレーターです。 参加作品✍ 『映画ドラえもんのび太と空の理想郷』のポスター『FF7 REMAKE 』『ポケモン』『横浜ガンダム』 著書📖 『「ファンタジー背景」描き方教室』 『「キャラ背景」描き方教室 』 『絵がふつうに上手くなる本』 『画集Flexible』
2024年の画像生成AI事情のまとめと今後の考察と駆け出しクリエイターへのアドバイス|よー清水
word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word

mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1