テクノロジーとジェンダーの関係に詳しい東京大大学院の田中東子教授の話
チャットGPTに「大学教授を主人公に小説を書いて」と指示すると男性教授の物語を書き、「育休を取得するための計画を立てて」では「母親」を想定した回答が返ってくる。
AIが持つ性役割に対する偏見の問題は、以前から指摘されてきた。
AIは、既存社会の膨大なデータを学習しており、その回答は「人間社会の映し鏡」と言える。翻って、AIの公平性の議論は、社会における公平性、平等とは何か、ということを私たちに問うものだ。
気軽に使える対話型のAIが登場したことで、偏見や差別が助長され、より強固になる懸念が高まっている。企業の広告や自治体のホームページのような、多くの目に触れる場面で使う際は特に注意が必要だ。
公平なAIを開発するには、開発者側の多様性が求められる。性別や人種、年代などで偏りがあれば、AIのバイアスに気づけない。にもかかわらず、AI開発現場の女性やマイノリティーの割合は極めて低い。
公平性の定義は、国や文化だけでなく、時代によっても変わりうる。AIの回答に占める男女の割合をそろえる、といった表面的な対応ではなく、AIが浮かび上がらせる社会に埋め込まれた差別や偏見に向き合い、公平な社会とは何かを根本から考えながら、AIを開発、利用すべきだ。(聞き手・篠健一郎)
■「悪者と拒まず、改善見守っ…
- 篠健一郎
- 専門記者
- 専門・関心分野
- データジャーナリズム、プラットフォーマー
- 山崎啓介
- デジタル企画報道部
- 専門・関心分野
- データ分析、オープンデータ、GIS
Think Gender
男女格差が主要先進国で最下位の日本。この社会で生きにくさを感じているのは、女性だけではありません。性別に関係なく平等に機会があり、だれもが「ありのままの自分」で生きられる社会をめざして。ジェンダー〈社会的・文化的に作られた性差〉について、一緒に考えませんか。[もっと見る]