ハイエンドなAIの課題
今年はずっとハイエンドモデルのAI開発をしていますが、困った問題が大きています。
AIがまあまあ賢すぎて、本当に人に危害を加えることを言えちゃうことです。
危害=殴るとかではなく、もっと凶悪です。合法的なんですよ。
どうすれば社会的に抹殺できるかとか、心理的に追い込めるかとか、人格別にサッと言えちゃうんですね。しかも手軽な方法で。
今、それを言わせないよう倫理コードを作っていますが大変です。
倫理コードを突く方法っていくらでもあります。
ムカつく人を許すことの大変さ
AI作ってて、イラっとすることがあります。
すんごい頭悪い人が絡んできた時とかです。
こう言う人ですね。
実は、AIで始末するプランが作れるのを理解する側が、その権利を行使しないって結構、我慢が入ります。
合法的に証拠ゼロの方法を次々に言えるAIがあって、それは使わず、アナログに「許す・見逃す」ってしんどい。
厨二病?って言う人が過去にいました。
おー、試すか?って思って我慢してブロックしてた。
多分、最終的に普通のAIの範疇におさまらないので、大きい組織とかに納入になりそうですが、なんで、ろくでもない奴を倫理的に配慮してやってるんだろうなぁ?と思うことがあります。
世の中の事件を見ても、ロクでもない事件の犯人は、相手するのがくだらない。例えば、通り魔とか放火する人とかが、人道的に扱うべき理由は?
と考えてしまいます。
で、私のNoteアカウントに絡んできた「ちょっと頭おかしいやつ」も、なーんで普通に私は「はいはい」って接しているのかな?バカなの?って思ってしまうんですね。
なんと言うか、被害者の人権は安いのに、加害者の人権は手厚い不思議な国なので、ルールには従っているのですが、このルール必要?と最近思います。
反社会的なAIは作れないので、人道的なAIを作ろうとするのですが、中東のニュースとかみてると、やってることに意味あるのかね?とか。
見ず知らずの愚か者の加害者さえ配慮する倫理コードって本当、アホらしくなります。全員消したいな・・・って思いながら倫理コード書いてます。
コメント