2014年10月、ワシントン大学のNiel Richards法学部教授は、同大のJonathan King氏との共同論文「ビッグデータとプライバシーの将来像(Big Data and the Future for Privacy)」を発表した。示唆に富む本論文の要旨を整理してみたい(以下の内容は本稿の流れにおいて翻案している部分があるため、正確には原論文を参照していただきたい)。
従来、プライバシーとは個人の秘密を保持することだと整理されてきた。しかし、現実にはプライバシーは“完全に秘密”と“すべて公開”の中間状態にある。このため、個人情報を上記の2つの状態の間のどのあたりに位置づけるのかという情報取扱いのルールをプライバシーと位置付けることが適当だとしている。つまり、プライバシーとは個人情報の取り扱いのルール(information governance)とみることができる。また、このように見方を変えることでビッグデータの二次利用を見据えたルールの在り方をより明確にすることができる。
さて、個人情報を取り扱う際のルールの在り方を検討する場合、その方向性は我々の社会における価値観から導かれる必要がある。例えば、“言論の自由”とはそれ自体が目的ではなく、“民主的自治”や“真実の追及”を目的とする。同様に、プライバシーもそれ自体を守ることが目的ではなく、4つの目的、すなわち①アイデンティティ、②平等、③セキュリティ、④信頼(トラスト)を確保することが目的であると指摘する。
具体的には、まず第一に、“アイデンティティ”の確保(①)である。行動ターゲティングによって過去の履歴や嗜好の分析結果等に基づいて、各種のレコメンドなどが行われることで新たな領域の知識や情報が手に入りにくくなり、利用者の行動が結果として制約されることを防止する必要がある。
第二に、“平等”の確保(②)である。ビッグデータ解析によって利用者の行動が逆に制約されることを防止する必要がある。すなわち、ビッグデータ解析に用いられるアルゴリズムによって個人が様々な特性に応じてグルーピング化され、差別的な取扱いが行われたり、条件に合致しない個人に対して情報が提供されなくなる可能性がある。つまり、グルーピング化(Sorting)と差別(differentiation)を明確に区別することが重要となる。
第三に、“セキュリティ”の確保(③)が求められる。データの改ざん等を防止し、データ品質を維持することが必要である。具体的には、データの完全性(integrity)を確保し、個人情報の改ざん防止のための措置がきちんと講じられていることが求められる。その意味で個人情報の取り扱いルールの在り方は情報セキュリティの問題と密接不可分である。
第四に、信頼(トラスト)の醸成(④)が求められる。情報の提供主体である個人とこの情報を利活用する事業者の双方にとって、前者がプライバシーの確保を希望すればするほどコストがかかるが、これは後者の事業者にとっては望ましくないという「コスト対プライバシー」という対立概念でとらえてきたのが伝統的な考え方である。しかし、個人が自らの提供する自己情報が誤用されないと事業者側を信頼することができれば、より多くの、そしてより正確な情報を事業者側に提供するという好循環が生まれる可能性がある。そして、こうした好循環はよりレベルの高い信頼関係の構築に資することとなる。
それでは、こうした個人情報の取り扱いルールについて、どのような手法で確保していくことが適当であろうか。筆者は行政による規制はソフトアプローチを採りつつ、ビッグデータを取り扱う際の倫理を重視すべきであるとしている。具体的には、規制は”digital redlining”(デジタルデータ処理において最低限確保すべきことを規制によって担保すること)が重要であるとしており、具体的には、
- ビッグデータ解析のアルゴリズムの透明性や説明責任の確保
- 個人情報の取り扱いルールの基本的要素である“アイデンティティ”、“平等”、“セキュリティ”、“信頼(トラスト)”を損なうデータの収集や解析の禁止
- 消費者視点を有する第三者機関によるモニタリング
の必要性を指摘する。また、急速な技術革新と規制制度のギャップを埋めるためには、マルチステークホルダーによる自主規制(ソフトアプローチ)が重要であると指摘している。