チームみらいのAIあんので、政治的にセンシティブなキーワードに対してAIが回答を避ける設定になっていて、そのNGワードのリストが注目されてプチ炎上している件。
エンジニア視点で言うと、政治家のアバターAIにセンシティブな話題を自動回答させないのは、実装判断としてはめちゃくちゃ真っ当。今のAIはちゃんと動くときは動くけどダメなときは盛大にダメだから、リスクの高い領域は扱わせないのが普通のアプローチ。Gemini/Claudeの件で分かる通り、ベースモデル自体が海外製なわけで、政治的発言の精度を保証するなんてなおさら無理がある。
ただこれ、構造的にかなり厄介な問題を抱えてる。
「センシティブだから特別扱いする」と決めたキーワードのリストが、そのままチームみらいの価値判断の表明になってしまうこと。「この話題は危険だと判断しました」という認識が、リストに並んだ単語から透けて見える。しかもリストに入ってる言葉と入ってない言葉の非対称性からも意図が読み取れる。「Aは入ってるのに、なぜBは入ってない?」に対して純粋に技術的な理由だけで説明するのは無理がある。
じゃあNGワード方式をやめて「慎重に回答する」方向にすればいいかというと、何を「慎重に扱うべき」と定義するか自体がもう価値判断。カテゴリ単位で広めにかけて個別判断を薄める手もあるけど、根本的には解決しない。
特に政党のAIとなると、この問題はさらに鋭くなる。一般的なAIサービスなら「うちはエンタメ用途なので政治は扱いません」で済むけど、政策を語るためのAIが特定の政治的トピックを避けてたら、それ自体が政治的ポジションになる。
中立を目指す行為自体が中立ではいられない。AI開発における「中立性のパラドックス」、これ正直まだ誰も上手い解を出せてないと思う。
これ、どうやって火消しするんだろう。「AIアプリケーション開発では当たり前の対応です」と説明しても、技術に詳しくない人には通じないだろうし、通じたとしても「じゃあなぜそのキーワードを選んだの?」という問いからは逃れられない。どちらにしろ、キーワード選択にある程度の意思が入っていることは確かだから。
#AIあんの #チームみらい #AI開発 #衆院選