• 番組をみつける

    閉じる

  • ウェブで視聴

    閉じる

  • 知る学ぶ

    閉じる

  • 報道・スポーツ

    閉じる

  • 参加・応募する

    閉じる

  • ヘルプ・問い合わせ

    閉じる

  • 地域:

    東京

    閉じる

解説アーカイブス これまでの解説記事

「個人情報 格付け社会を考える」(視点・論点)

  • twitter
  • facebook

慶應義塾大学 教授 山本 龍彦

s191008_017.png

1. はじめに 
人工知能=AIが、電子決済の記録やウェブの閲覧記録など、様々な個人情報から、個人の社会的信用力を予測し、数値化することを信用スコアリングといいます。中国では、芝麻信用(セサミクレジット)という民間信用機関が、350点から950点の範囲でユーザーの信用度をスコア化するサービスなどが広く普及しており、信用スコアはいまや個人の存在証明ともなっています。
日本でも、昨年以降、大手事業者が立て続けに信用スコアリングサービスに乗り出し、一般化する兆しを見せています。信用スコアは、主に個人向け融資の審査などに役立てられますが、配信広告の最適化やマッチング、スコアの高いユーザーへの優遇特典の提供などにも利用されるといいます。
今後、AIの予測精度が向上し、スコアへの信頼が高まれば、企業の採用・人事や「婚活」など、様々な場面でスコアが利用されていくことも予想されます。就活サイトがAIを使って学生の内定辞退率をスコア化し、複数の企業に販売していた「リクナビ問題」を踏まえますと、AIによる個人の「格付け」が当たり前になる社会は、決してSF小説やSF映画の中だけにとどまらないでしょう。
本日は、AIを用いたスコアリングのメリット・デメリットを紹介し、あるべき未来について視聴者の皆さまと考えていければと思っております。

2.信用スコアのメリット 
 まず、信用スコアのメリットですが、これは決して小さくありません。例えば、世の中には、資産や銀行口座といった、伝統的な信用情報をもっていないために、自らの信用力を可視化できず、融資を受けられなかったり、金融取引から排除される人たちがいます。その多くは、少数派と呼ばれる人たちや、若者たちです。

s191008_015.jpg

AIを用いた信用スコアは、伝統的な信用情報に加え、個人のあらゆる行動記録や行動パターンを考慮することで、信用力を可視化し、こうした者への融資を可能にするなど、「ファイナンシャル・インクルージョン」の実現に資する側面があります。これは、多くの人に平等にチャンスを与えることにもなります。また、多くのデータを使うことで、判断材料が限定的だった従来の与信審査よりも正確な信用力の予測が可能となるともいわれます。これは公正の実現に資するともいえます。さらに、信用スコアが、口コミや星の数などに代わる、デジタルプラットフォーム上の正確な信頼指標になることで、より安全なオンライン取引やシェアリングエコノミーが実現するかもしれません。加えて、不道徳な行動や危険な行動がスコアの低下と関連づけられれば、スコアが落ちることを避けるために道徳的な行動をとるようになり、これまで以上に安心・安全な社会が実現する可能性もあります。

3.信用スコアのデメリット 
こうしたメリットは、新たな社会秩序の成立を予感させるもので、大変魅力的なものです。しかし私たちは、その課題やデメリットにも目を向ける必要があります。
現状の課題として、例えば、信用スコアの算出にどんな情報が使われたのか、どの情報にどれぐらいの比重がかけられたのかが不透明になる、「ブラックボックス問題」があります。ブラックボックス化には複数の理由があります。例えば、仮にどんな情報を収集・利用しているのか、どんな計算式・アルゴリズムでスコアを算出しているのかをすべて明らかにすると、ユーザーはそれを踏まえて自らの行動を調整するようになるため、本当の信用力が測れなくなります。ですので、説明は限定的なものにならざるをえません。また、深層学習のような、AIの計算方法の中でも複雑高度な方法を使うようになると、なぜAIがそのようなスコアを導いたのか、そのロジックが人間には理解困難になるともいわれています。
このような「ブラックボックス問題」は、さらに次のような課題をもたらします。
第1に、本人がスマホを誤って操作した結果や、友人のために行ったネット上の調べもの、本人のIDを使った他人の行動など、本人の評価には本来使うべきでないデータが混入し、本人の信用スコアに影響を与える可能性があります。が、プロセスが不透明ですと、その検証や異議申立ての機会が確保されません。
第2に、どのような行動がスコアに影響するのかがわからないと、私たちは、ビクビクして特定の行動を差し控えるようになる可能性があります。この「萎縮効果」により、私たちの行動の自由や社会の多様性が失われる可能性もあります。
第3に、AIが学習するデータに「偏り」があったり、人種・性別・居住地のような属性がスコアの算定に利用されたりすることによって、社会的な差別が助長・再生産される可能性が指摘されています。例えば、技術系の職業は、これまで男性が多かったため、AIが読むデータに性別による「偏り」が生じ、AIを用いた技術職の採用プログラムが女性を不当に排除してしまった例が報告されています。仮に差別を防ぐため、人種や性別といった属性をスコアリングに使わなかったとしても、それと密接に関連する情報が使われることで、結果的に特定の集団に「差別的な影響」が生じることも考えられます。
第4に、信用スコアの利用範囲が今後拡大していくと、スコアの低い人たちが、社会の至る所で排除される可能性があります。努力して自分のスコアを上げられればよいのですが、スコアの算定に使われるデータや算定基準が「ブラックボックス化」すると、どう頑張ればスコアが上がるのかがわからず、スコアが低いまま這い上がれなくなります。スコアに基づく階層社会が生まれ、スコアが極端に低い人たち、そもそもスコア付けを拒否し、スコアをもたない人たちが、「バーチャル・スラム」と呼ばれる新たなスラムを形成するのではないか、とも懸念されています。

4.今後の展望 
私たちは、これからのAI社会において、ファイナンシャル・インクルージョンのような、信用スコアのメリットを最大限生かしつつ、そのデメリットを抑えるような社会システムを構築していかなければなりません。AIの「格付け」によって人生の可能性が縮減されるような社会は、自由で民主的な社会とは言えません。AIのスコアリングが決して完全なものではないことにも注意が必要です。プライバシーのために算定に利用できる情報には限界がありますし、そもそもAIの評価は、「こういう属性を共通してもっている人は、こういう傾向がある」という確率的な評価にすぎません。こうした確率的な評価のみで人間をベルトコンベアに乗った商品のように分類・仕分けしていくことは、私たち一人ひとりをかけがえのない存在として尊重するという、憲法の「個人の尊重」原理とも矛盾するかもしれません。
世界に目を向けると、既にこうした懸念に応える法的規律が存在します。

s191008_016.jpg

例えば、GDPRと呼ばれるEUのデータ保護法は、AIの予測評価のみで、融資や採用など、個人にとって重要な決定を行うことを禁止しています。AIのつけたスコアを参考にしてもよいが、最終的には人間が責任をもって判断しなさい、という趣旨によるものです。本人の明示的な同意などにより例外も許容されていますが、その場合にも、人間の介在を求める権利や、決定に異議を唱える権利など、本人関与の手続きを保障しています。EUでは、本人がスコアに挑戦し、修正するメカニズムが重視されているわけです。また、GDPRには、スコアリングのプロセスを透明化し、できる限りブラックボックス化を防ごうという態度もみられます。また、アメリカには、スコアの利用範囲を制限するような州法があります。
もちろん、信用スコアの適切な実施を担保するのは法律だけではありません。スコアリング事業者の信頼を確保するための監査制度や、一定の基準を満たしたスコアリング事業者を第三者が認証する認証制度の構築も考えられます。さらに、判断のメカニズムを自ら説明できるAI――説明AIとも呼ばれますが、こうしたAIの開発といった技術的取り組みも重要になります。
日本でも、「人間中心」の考え方や、憲法の「個人の尊重」原理を再確認し、また、先に挙げました国際的な取り組みを参考にしながら、AIのスコアによって人生の可能性が制限されるのではなく、むしろその可能性が広がるような社会システムを、急ぎ構築していく必要があるでしょう。

キーワード

関連記事