「顔写真で自閉症を識別」AIアプリが物議 倫理の指導、置き去りに
子どもの顔写真をもとに自閉症児かどうかをAI(人工知能)が識別する――。そんなアプリケーションが8月、「倫理的に問題がある」と物議を醸した。プログラミング講座のなかで受講生が作成した。AIスキルを学ぶ人が増えるなか、開発におけるリスクや倫理の指導も課題となっている。
議論を起こしたのは、民間のオンラインプログラミング講座を受講していた20代女性がつくったアプリ。機械学習を用いて画像認識や自然言語処理などのAIウェブサービスをつくる講座で、子どもの顔画像を入れると、自閉症の可能性が「高い」か「低い」かを判別するものを試作した。
女性はプログラミング未経験で、約165時間分の講座を受講。学び始めてから2カ月でアプリを完成させた。
開発の過程では、AIに自閉症児と非自閉症児の画像各1263枚などを学習させた。画像のデータセットは、誰でも見られるAI開発者向けのサイトで公開されていたものを利用したという。
女性はアプリとともに、開発の目的や経緯を「顔写真から自閉症を判別してみた」というタイトルのブログで公開。すると、コメント欄やX(旧ツイッター)で「倫理観の欠如」や「差別を助長する」と指摘する批判が相次いだ。
学習データの信頼性への疑問の声も複数あがった。画像のデータセットは何者かがどこかから引用した二次データとみられ、問題の発覚後にサイトから削除された。
女性は批判を受け、すぐにアプリを非公開化。ブログも削除した。
チューターが後押し
なぜ、このアプリを作ったのか。
女性は子どもの発達支援に携わった経験があり、「自閉症の診断にかかる負担が大きい」と感じていたことからアプリを考案したという。
センシティブな内容だというためらいもあったとしつつ、女性は「(指導役の)チューターから、興味があって経歴を生かせるテーマのほうが考察を書きやすいとアドバイスを受けた」ことが後押しになったと話す。学習データの信頼性や、差別につながる懸念などを受講中に指摘されることはなかったという。
この講座を運営するAI人材育成支援の「アイデミー」は、発覚後すぐに「倫理的に懸念される状況が発生した」として謝罪。「運営体制の不備」を認め、再発防止策を公表した。受講者向けのAI倫理に関する新規コースを開設し、全チューターへの研修も行ったという。
AIはデータの偏りや使われ方次第で、差別や偏見を助長しかねない。
オランダの自治体では、生活保護の不正受給者の候補をAIに選出させる仕組みを市民に知らせずに導入していたことが発覚し、社会問題となった。女性や外国籍の人は選ばれやすくなっていた。過去の履歴書データをもとにしたAI採用システムを開発していた米アマゾンは、システムが女性に不利な評価をするとして開発を中止した。
AI倫理、どう教える?
AIの活用では、こうしたリスクを認識し、AIに正しく学習させるために信頼できるデータを用いることや、人権や公平性を損ねる使い方は避けるといった「AI倫理」が不可欠だ。
AIスキルを学べるプログラミング講座は増えている。スクール大手の「インターネット・アカデミー」では、「AIエンジニア育成コース」の昨年の受講者数が前年比6倍だった。
同社は実習課題を評価する際に、経済産業省が策定した「デジタルスキル標準」を活用している。データサイエンティストなど職種ごとに求められる能力をまとめたもので、「モラル」や「コンプライアンス」といった項目もある。
講座内容を設計するマーケティング局の有滝貴広さんは、「受講生にもデジタルスキル標準に沿った課題制作を推奨し、モラルやリスクを考えながら取り組んでもらっている」と話す。
放送大学は有料の公開講座「数理・データサイエンス・AI」を開講しており、データ倫理やAIサービスの責任論といったリテラシーを学べるコースもある。
同大の加藤浩教授(教育工学)は「フェイク情報やインターネット上の犯罪が増えている社会的背景のもとで、情報倫理を教える重要性は高まっている」と話す。
一方で、AI倫理に詳しい立教大学大学院人工知能科学研究科の村上祐子教授(哲学)は、「AI倫理を教えられる人材の育成がこれまで十分ではなかった。AIスキルを学ぶ人が増えるいま、リスクや倫理を教えられる指導者の育成が急務だ」と指摘する。(村井七緒子)
- 村井七緒子
- 経済部|AI・デジタルプラットフォーム担当
- 専門・関心分野
- AI、デジタル政策、人権