目次
ウェブとは何でしょうか?
今日では、使わない日はないくらい身近なものになっているウェブ。改めてウェブとは何か、と問われると当惑してしまうかもしれません。ウェブの正式名称であるワールド・ワイド・ウェブ(World Wide Web)は、ひとことで言えばインターネット上で情報を公開したり、閲覧したりできるしくみです。私たちは日頃、このウェブというしくみを通じて、世界中の情報と接しています。
インターネットは、世界中にはりめぐらされた通信インフラとして、各国のネットワークを相互に行き来できるようにした、いわばネットのネットです。インターネット上にはウェブだけではなくメールやファイル共有などいくつかのしくみが稼動していますが、量的に大部分を占め、そして質的な面でも、その新しい機能や性質が社会に広く影響を与えているのがウェブだと言ってよいでしょう。したがって、「インターネット社会」と「ウェブ社会」という二つの言葉はほぼ同義だと言うことができます。
さて、このクモの巣のようにはりめぐらされた情報空間=ウェブを、私たちが生きている「現実世界(リアルワールド)」に対して「仮想世界(バーチャルワールド)」と呼ぶことがあります。ウェブが私たちの生活の隅々にまで浸透する以前には、リアルとバーチャルは別の世界であるとされてきました。あるいはリアルとバーチャルは、合わせ鏡のように相対する存在のように考えられもしました。しかし今となっては、リアルの世界にあるもののほとんどはウェブの世界にもあり、逆にウェブにあるものは、リアルの世界にもかたちを変えて存在しています。つまり、ウェブは現実世界の一部、あるいは現実世界そのものになったというのがぼくの考えです。
ところでこのウェブは、今から約二〇年前に一人の人物がつくり出したものです。私たちの暮らす現実世界は、誰かがつくったわけではありません。この点は、現実世界とは異なるウェブの大きな特徴です。人がつくったということは、少なくともそこに何らかの目的があり、つくった人は何らかのビジョンを持っていたに違いありません。そこで、本書ではウェブをつくったティム・バーナーズ=リーという人物を取り上げます。彼がどのような目的でウェブをつくったのか、そのコンセプトを知ることは、ウェブを理解するのにきっと役立つと思います。
ティム・バーナーズ=リーがつくり出したウェブは、その後多くの開発者たちが参加することで発展し、またたく間に世界中へ広まっていきました。しかしなぜウェブというしくみは、そんなにも広く世界の人々に受け入れられたのか? 多くの偶然が重なったにしても、それだけで納得のいく説明にはなりません。むしろウェブというしくみが結果的に、本質的に人間が持っていた願望や欲求を実現できたからだろう、と考えるほうが自然です。とくに近年はブログ、 「フェイスブック」などに代表されるソーシャルネットワーキングサービス(SNS)、「ツイッター」「USTREAM」などの新しいサービスが登場することで、ウェブはますますその方向性を明確にし、さらなる進化を遂げています。そして利用の多様化と拡大に伴い、以前にはなかった新しい人と人との「つながり」やコミュニケーション、そして情報の共有のしかたが次々と生まれている点は、きっと考察に値するでしょう。
さて本書では、このような変化のなかで、ウェブが当たり前の存在になったからこそ生まれてきたであろう新しい価値観やルール、つまり「ウェブらしさ」について、考えていきたいと思います。
「ウェブらしさ」とは何でしょうか?
たとえばいくつかのウェブサイトを閲覧するとき、印象のよいサイトと、「だめだなあ」と思うサイトがあります。この違いを説明するのはなかなか難しいのですが、一つは情報が充実しているかどうかが見分けるポイントになるでしょう。しかしそれだけでしょうか? デザイン? 使い勝手? いろいろな要素が浮かんできますが、どれをとっても決定的な理由ではなく、それらを包括したような特徴があるように思われます。そしてユーザは、それらの要素のすべてを感じ取っているのではないにしても、何らかのかたちで「ウェブらしい」サービスとそうでないサービスとを判断しながら使っているのだろうと思うのです。
あるいはグーグル、アップル、マイクロソフト、ツイッター、フェイスブックなど、さまざまなコンピュータやインターネットの関連企業を思い浮かべたときに、「ウェブらしさ」を感じる会社とそうでないものがあると思います。ではそれらの組織はどこが違うのでしょうか? 経営理念、取り扱う商品やサービスの種類、ビジネスモデル……やはりいろいろな要素が浮かんできますが、一つ一つを比較しただけではとらえきれない、より本質的な特徴があるように思われます。
このようにしていろいろな角度から、この「ウェブらしさ」を考えることが、ウェブを理解する鍵になるとぼくは考えます。「ウェブらしさ」はどうして生まれ、現在のウェブのなかでどのように表現されているのか。それは私たちにとってどのような価値があり、それによって私たちはどこへ行こうとしているのか─これらを理解しようというのが、本書の大きなテーマです。
ウェブが生まれてから約二〇年の間に、日本は二つの大きな震災を体験しました。今、改めて振り返ると、どちらにおいてもウェブは既存のメディアと並んで新たな情報のチャンネルとして大きな役割を果たしました。もちろん、阪神・淡路大震災のときよりも、東日本大震災のときのほうが利用者は多く、また使い方も多岐にわたっていましたが、ウェブ独特のコミュニケーションのあり方が多くの人々を助けたことは間違いありません。
このように、平時にしろ非常時にしろ、ウェブ以前にはなかった新しい人と人とのつながりやコミュニケーション、そして情報の共有のし方がどんどん生まれている、そんな時代に私たちは生きています。そして、そのなかに「ウェブらしさ」は確実に存在しています。ではこれから、いよいよ本文のなかで、その「ウェブらしさ」を探っていきましょう。「ウェブらしさ」を理解することは、ウェブのこれからの方向性を考えるのにきっと役立つはずです。
●長くて短いウェブの歴史
ウェブが誕生したのは一九八九年のことです。それからわずか二〇年足らずのうちに、あらゆる分野でウェブの影響が見られるようになりました。経済的には、「グーグル(Google)」や「ヤフー(Yahoo!)」などといった、ウェブを中心として活動している新興企業の存在感が、既存の産業を脅かすほど、大きくなってきました。また、ウェブ関連のベンチャー企業が続々と設立され、そのうちのいくつかは数年で株式を公開し、急激な成長を続けています。社会的には、ウェブ上で個人を中心とした情報発信が進むことによって、マスメディアの存在価値が問われたり、既存の社会制度との軋轢が生まれてもいます。
とはいえ、これまではコップのなかの嵐にすぎないと片付けることもできなくはありませんでした。現実世界は現実世界、バーチャルな世界はバーチャルな世界であるという棲み分けは、暗黙的ではあったとしても存在していました。ところが、そういった区別が意味をなさなくなる事象も、今や珍しくないという状況になってきています。ウェブ企業が既存企業を買収する事例や、あるいは既存企業がウェブの力を取り込んで成長するといったニュースが飛び交い、ウェブ上の情報がマスメディアのニュースの情報源となることも日常的な光景です。メディア企業がウェブを使って読者からのフィードバックを得て、ニュース記事とともに公開したりすることは、ごく見慣れたものになっています。こういった事象においては、現実世界とバーチャル世界は完全に一体化しています。もはや、そこには新旧の対立と呼べるような構図はありません。
現実世界とバーチャル世界が融合して、私たちの生活に起こった大きな変化の一つが、スピードだと言えるでしょう。IT革命が騒がれた二〇〇〇年前後、その技術の進歩の速さを評して「ドッグイヤー」という言葉がありました。曰く、イヌの一年が人間の七年に相当するように、技術も一年間で七年分の進歩があるというわけです。それが、いまでは「マウスイヤー」と呼ばれるようになっています。ネズミの一年は、なんと人間の一八年分に相当します。そしてその速さは、技術だけではなく、その技術を使いこなす人間のあり方の変化、社会のあり方の変化にまで波及しています。
そこで第一章から第二章では、身近な話題を取り上げつつ、どのように現実世界とバーチャル世界が一体化しているのかを検証し、そのことをどのように理解したらよいのかを考えていきたいと思います。
●ウェブで変わるコミュニケーション
明日、仕事の用件で初めて会う人がいるとします。その人の名前を事前に知っていれば、とりあえず検索エンジンに入力して、結果の一覧を眺めてみることができます。その人は、大学のゼミの名簿や、スポーツの競技記録のなかに見つかるかもしれません。
本人がブログを公開していることもあります。そのときは、最新記事を数カ月分ぐらい目を通してみたりします。その人の所属する会社名や部署名、関わっている仕事や関連会社など、関連のありそうなキーワードを、引き続きウェブで調べることもできます。
このようにしていざ本人を目の前にしたとき、その場で話す内容は、事前に下調べをしなかった場合に比べてどう違うでしょうか。初対面のあいさつをすることは変わりませんが、お決まりの自己紹介や会社紹介は大きく違ったものになるでしょう。早く本題に入ることができますし、本題について深い議論ができれば、取引が成立する可能性も高まります。
ウェブによるコミュニケーションの変化は初めて会う人の場合に限りません。おもしろいことに、古くからの知人であっても、ほとんど同様のことが起こります。人生のある時期に同じグループに所属していた知人でも、ひとたびそのグループを離れれば、お互いに急速に疎遠になってしまいます。このような知人と久しぶりに会うときには、まず近況を報告し合います。楽しい時間ではあるけれども、近況の報告だけで時間が足りなくなることも多いでしょう。同窓会のように人数が多くなればなおさらのこと、せっかく会ったのに話す機会がないまま終わることもあります。
一方、近年ではソーシャルネットワーキングサービス(SNS)を利用して、グループのメンバー同士でやりとりを行うことができます。ウェブ上のコミュニティには物理的な制約がないために、転勤や転職、引っ越しなどの人生の出来事にかかわらず、そのグループを離れる必要はありません。かつて所属していたグループの現状をリアルタイムで知ることができますし、自分に起こった出来事を知ってもらうこともできるのです。そのような情報をやりとりした上で行われる実際のコミュニケーションの内容は、単なる近況報告とは異なるものになることが期待できます。
さらには、毎日顔を合わせる人々とのコミュニケーションにおいてもウェブは影響を与えるでしょう。会社であれ学校であれ、ある決まった状況下で顔を合わせる人との関係は、上司と部下、先生と生徒などおおむね一面的です。もちろん、同僚でありなおかつ趣味のスポーツではチームメイトでもあるといったような複数の関係が結ばれていることもありますが、相手がどんなコミュニティのなかで生活をしているか、そのすべてを知ることはできないでしょう。けれども、ブログやSNSによって、自分が知っている相手が、ふだん見聞きしているのとは異なる状況や場所、異なる知人関係のなかで活動していることが可視化され、相手の多面性を理解するきっかけとなります。
ここで挙げた三つのシチュエーションのどれもが、事前に自身の状況を公開し、また公開された相手の情報を収集しておくことによって実際の対面コミュニケーションが豊かになることを示しています。このようにして、ウェブは人々のコミュニケーションのプロセスを拡張していると言えます。
こういった、人々のコミュニケーションへのウェブの介在は、それほど昔からあったことではありません。これらが可能になるためには、インターネットへの接続環境、個人が情報公開をするための基盤、そして公開された情報の検索手段が整備される必要があったからです。また場合によっては、情報公開に際して所属する組織が理解を示してくれることも必要です。これらのすべての条件が初めて整ったのは、およそ二〇〇〇年から二〇〇二年にかけてのことです。裏返して言えば、それ以前にはこのようなコミュニケーションは不可能だったということでもあるのです。
●「ソーシャル社会」のニュアンス
ところで最近、ブログ、SNSといったウェブの新しいツールによって、新たに登場したウェブ上の人々のネットワークやコミュニティを称して「ソーシャル社会」と呼ぶ言い方が現れ、ちょっとした話題を呼びました。そもそも「社会」という言葉が「ソーシャル」の訳語ですから、これは安易なネーミングだと批判する声が、すぐに上がることになりました。ところが「おかしい」「正しくない」と言われながらも「ソーシャル社会」という言葉はむしろ広まっていき、「ソーシャル」を「社交」と訳してみてはどうだろうかとか、さまざまな意見が出てきました。議論は尽きませんが、ぼくの実感としては、まさに「ソーシャル社会」としか呼べないなと思うときがあります。この言葉でしか表せないニュアンスというのが、確かにあるのです。
「ソーシャル社会」の「ソーシャル」に込められているのは、強いて言えば、人と人との「つながり」ということになるかもしれません。つまり、SNSのようなウェブ上の新しいツールによって、初めて可能になった人と人とのコミュニケーションというものが、確かに存在します。すると、それによってこれまではっきりとは見えなかった人と人との「つながり」が急速に可視化され、リアリティを帯びてきたのだと思うのです。「ソーシャル社会」は、おかしな言葉でありながらも、社会における「つながり」の重要さを、うまく表現しているとは言えないでしょうか。
また、逆に考えれば、人と人とがどのようなコミュニケーションを築いていくか、何を共有していくか、という根源的な関心は変わらないものだとつくづく思います。人類は太古の昔からその時代その時代の最新の技術をいわば乗り物にして、気に入ったものには我先にと乗り込み、合わなくなったときには乗り換えてきました。壁画や石版から始まって活版印刷に至るまでの情報を保存する技術や、陸・海・空を移動するための交通技術の発展と基本的には同じです。新しいテクノロジーによって、一見大きく社会が変わるように見えるけれども、その時々の技術が人間の要求に、よりフィットしていくだけであって、本質的には人間は変わらないものだ、という言い方もできるわけです。このことを考えると、一方にはウェブによってこれから社会はより大きく変わるのだと言う人がいて、他方にそのような人間の営みはいつも同じで変わらないという人がいるというのは、むしろ自然なことであり、結局のところどちらも同じことを言っているなあというふうに見えるのです。
●震災を体験したウェブサービス
二〇一一年三月、私たちは東日本大震災という未曾有の大災害に見舞われました。 天災という自然の脅威に直面すると、「リアル」の圧倒的な力を思い知らされます。それと同時に、このような緊急時に、ウェブは現実世界の一部としてどのような役割を担っていくのかという問題が、切実なものとして浮かび上がりました。実際、ウェブに関わる多くの人たちが、これから自分たちのサービスをどう構築・保守していったらいいのか、被災した・しないにかかわらず、いろいろ考えさせられたことと思います。そこで、ぼくの仕事に関連して、この東日本大震災の体験を少し紹介したいと思います。
ぼくは、ウェブの新領域を対象とした研究を進めるかたわら、「CiNii(サイニィ)」という論文検索サービスをはじめとする学術情報サービスの設計・開発に携わっています(その他にも肩書きを持っているのですが、それはおいおい紹介することにしましょう)。
ぼくが所属する国立情報学研究所(National Institute of Informatics)は、研究とサービスという二つの事業の柱を持つ研究機関です。CiNiiなどのサービスを提供するサーバは千葉県内にあり、震災直後には計画停電のためにサーバをたびたび停止させなければならないという事態が発生しました。サーバを扱ったことがないとイメージしにくいのですが、サーバに使われるコンピュータは家庭や会社で使うパソコンなどと違って、電源をオンにしたまま使うのがふつうであり、通常は動かし続けているほうが安定します。停電によって突然電源が切れるとコンピュータが壊れる可能性が高くなります。さらにはなかのデータも失われるといった深刻な事態を招きかねません。そこで、計画停電が実施されるとわかった時点で、まずいつ停電するのかという情報を集め、そのスケジュールに合わせてサーバを停止させなければなりませんでした。そして停電の時間をやりすごし、終わったらまた立ち上げて、サービスを開始するという作業の繰り返しです。
停電対策がないわけではありません。サーバが置かれている施設には、重油を燃料とする自家発電機があり、停電中でもすべてのコンピュータを約八時間稼動できるだけの備えがありました。ところがご存知のように、東日本では大震災後しばらく重油などのエネルギーの供給がストップし、再供給が危ぶまれる状況に陥りました。計画停電のスケジュールが不透明ななか、八時間分の燃料をいつ使えばよいか、そして追加の燃料をどのように調達するかという課題に直面しました。結局、燃料を手に入れることは難しく、計画停電の行く末がはっきりするまでは停止と再開を繰り返すという結論となりました。
図1-1 震災を体験したCiNiiサーバ
CiNiiで使用しているサーバは、三〇0四〇台のコンピュータを接続して、それらが全体として一つの機能を実現するよう設計されています。これらの電源を落とすというだけで、二時間程度の作業時間を予定しておかなければなりません。ぼく自身も何度か作業に立ち会ったのですが、マニュアルに書いていないタイミングでエラーランプが点滅したり、突然原因不明の動作音が鳴り始めたり……と、なかなか緊張するものです。
また東日本大震災では、交通網にも多数の被害がありました。仮に交通網が分断された場合、作業員がどのようにサーバのある施設まで辿り着くことができるのか、といった問題もあらかじめ考えておかなくてはなりません。サービスが継続的に提供できないなかで、計画停電を回避するために別の地域へシステム一式を移してはどうかという意見も出ました。しかしサーバの引っ越しはそれ自体のリスクも大きく、元通り再構築するのは大変な作業になるため、よほど入念に計画しておかないと現実に移すのは困難です。
このように考えていくと、予測できない災害に備えるために、システムをどこに置くべきなのか、さらには一箇所に置くだけでよいのかという問題に帰着します。ちなみにグーグルでは検索に使用する莫大なデータが、最低三セット用意されていると言われています。同じデータを三つ保有するのは、バックアップという目的だけではなく、よりすばやく検索結果を表示させるのにも役立っています。グーグルの本拠地である米国シリコンバレーと、アジア、ヨーロッパというようにデータを置く地域を分散し、それぞれ常時稼動させれば、世界中のユーザから発せられる検索要求に対して距離的に近いサーバが応答することで高速化が図れます。では、すべてのサービスがグーグルと同じ態勢をとればいいのでしょうか? これには、未知の危機に備えて現在の三倍以上のお金を投じることができるのかという、コストの問題が発生します。それに、まずはそうすることが本当によい方法なのかどうか、検討する余地があるように思われます。
●システムのデザインを考える
たとえば、同じく国立情報学研究所が管理・運営している「NACSIS─CAT」という、全国の各大学の図書館システムを結ぶネットワークがあります。NACSIS─CATは大学図書館システムの中枢部分であり、サービス提供から二十数年間、これまでほとんど問題もなく稼動し続けてきました。ここで検索すれば、どんな本があって、どこの大学がその本を管理しているかがわかります。ところでここに収められているデータは、各図書館の図書館員が一冊一冊の本の情報を入力し、アップロードしたものであり、まさにここにしかない貴重なデータです。そこで、このシステムの設計思想としては、データをどう守っていくかが最重要の課題になっています。仮にサービスが停止しても、何重ものバックアップを取っており、データが消えないようにつくられています。
一方CiNiiの場合は、学会や研究機関がそれぞれに発行している文献情報を、一元的に提供するという役割を担っています。それぞれの文献情報は、発行元の組織が所有しているものですから、問題が起こったとしてもそれぞれの組織から情報を集め直せば元通りになるということになります。すると、NIIに求められているのは、データ保全にコストをかけるよりもサービスを止めないほうが大事だということになるでしょう。このようにして、それぞれのサービスが担う役割を反映した、最適な方針が明確になり、その方針に沿ってシステムが徐々に具体化していくことになります。
一定の方針と対策があったにもかかわらず、東日本大震災においてNIIのサービスは断続的な停止を余儀なくされました。サービスの利用者は、アクセスしようとしてもシステムがダウンしている、論文が見られない、検索ができない、あるいは図書館業務ができない……といった状況に陥りました。きっと「どうしたんだろう?」「NIIは何をしているんだ?」と思ったことでしょう。そのようなユーザに対して、サービスの提供が難しい状況になっているのだということをどう伝えるのか?─これも非常に難しい課題でした。
まずは東京都内に置かれたサーバからサービス停止の理由を説明したり「何時から何時までオープンします」といった情報をウェブ上で発信することにしました。これと並行して、「ツイッター(Twitter)」を使って「CiNiiが動かない」とつぶやいている人に直接メッセージを送るなど、思いつく方法は試してみたのですが、やはりすべてのユーザには届かない、届かせる方法がないといった状況が続きました。図書館業務の現場では、NACSIS─CATが動き続けていることが当然のこととしてとらえられてきたため、大きな混乱が起こり、このような場合にどうやって本を検索するのか、NIIのシステムに頼らない方法はないか、という根本的な議論もあったようです。またシステムを運営する立場からは、複数箇所でのサービスの提供についても考えさせられました。
震災直後の大混乱状態から、サーバのある施設に自家発電用の重油が安定的に供給されることが決まったのは、三月が終わる頃になってからのことでした。ほぼ同時期に計画停電が行われないことが正式に決まり、内的・外的な問題が一段落しました。ひと息つくことができたときには、暦は四月になっていて、その後約一カ月というもの、自分が何をしていたか、ほとんど記憶がありません。これはぼくが体験した一例ですが、被災地の企業や大学のシステム担当者の方はそれぞれに大変な尽力をされたのではないかと思います。
●デジタル・データはどう消える?
東日本大震災の被災地、とくに津波が襲った地域にいた方々は、詳しい状況がわからないなかで、どこにアクセスして、どうやってより確かな情報を集めていくかという必死の模索を続けられていたことと思います。そのような状況に対して改めてデータとは、情報とは、アクセスとは……といった基本的な事柄について考えさせられたので、本章の最後に、印象深かったことをいくつか書き留めておきたいと思います。
津波に遭った地方自治体で、住基ネット(住民基本台帳ネットワークシステム)のコンピュータが辛うじて流されずに建物の端に残っていて、何とかデータを回復することができたというニュースがありました。住基ネットは導入のときに「国民総背番号制」とも呼ばれ、議論を巻き起こしたシステムであったことを記憶されている方もいることでしょう。議論の中心となったのはIDの統合という問題です。国民一人一人が一つの番号で管理されるとなると、たとえば個人の住所データと納税データとをたやすく結びつけることもできるため、たとえ引っ越しても、税務署が住所情報を参照して税金の未納をすぐに発見するといった可能性があります。あるいはツイッターなどのツールを使って個人が匿名のつもりで活動していたのに、勤務先の名簿とつながってしまうといったことも起こり得ます。IDの統合は一見便利なようでいて、結局は一人一人の個人情報を一つの番号に集約するということになりますから、生身の本人以上に「その個人」を全面的に可視化してしまう危険性を持っているのです。したがって、このような情報をいかに保護するかが重要な課題になります。
しかしながら、たとえばネットショッピングを利用する場合を考えてみましょう。配達してもらおうと思ったら住所を言わなければいけないのは当たり前です。また面倒な手続きなしに買おうと思ったら、自分のクレジットカードの番号を入力しなければなりません。個人情報のセキュリティと利便性は表裏一体で、一方のためには他方を我慢しなければならないという関係にあります。このようなバランスを考慮した結果、住基ネットでは、個人の情報は各個人が住民票を置く地方自治体だけが持つかたちで運用されています。もし引っ越したら、データは新住所の属する地方自治体に移され、引っ越し元のデータは削除されるしくみです。
市町村などに集められたデータは、たとえば一カ月といった一定の間隔で、都道府県などのより上位の地方自治体へ送られるようになっています。逆に言うと一カ月に一度しか集まらないわけですから、その間に提出された出生届や死亡届を、元の市町村が紛失してしまったりすれば、修復できないことになります。そのようなことがあっては困るので、改めてやはり国に一括して集めてはどうかといった意見も出てくるわけですが、もし一箇所にあるとわかったら、そのデータのあるところに地震が起こった場合どうするのか、あるいは悪意のある人の攻撃からいかに逃れるのかなど、また別の大きなセキュリティの問題が発生してしまいます。このように誰もが納得するような、バランスのよい答が出てこない、そんな問題を抱えているのが住基ネットだと言えます。
いずれにしてもそのような住民の基礎データがもし本当になくなってしまったら、その町に本当は誰がいたのかがわからなくなってしまう、ということを意味します。災害時には基礎データに基づいて消息を確認することになりますが、そもそもいるかどうかがわからない人に対しては問い合わせをすることもできません。存在していたのに、デジタル・データのどこにも載っていない人は、存在していなかったことになるのでしょうか? 元を辿ればそこにきちんと保存されているはずのデータが、いともあっさりと消えてしまう……。このことに、改めて驚きを感じます。平時には、たとえば「紙の本がなくなっては困る」といった理由で、デジタル化が進められています。デジタル・データは確かに、紙のように燃えてなくなってしまうとか、腐ってボロボロに崩れてしまうといったふうには消えないからです。けれどもデジタルはデジタルで、アナログとは違う消え方をする、このことにはもっと気を配らなければなりません。
●ウェブサイトの信頼性を担う「長続き」
今回の震災では、ウェブを通じて被災地の人々を支援しようという活動が多数立ち上がり、さまざまなウェブサイトが公開されました。このような活動にも時系列的な段階があって、最初の数日でやるべきこと、数週間0数カ月でやるべきこと、さらには数年間かけてやるべきことはまったく違うのだということが明らかになったように思います。最初の数日間は衝撃的な出来事に直面して、現場が非常に混乱している状態で、家族や知人がどこにいるのかを今すぐ知りたいでしょうし、その後は避難所の情報や支援に関する情報が必要になります。また震災の記録は数年かけて収集し、まとめる必要があるでしょう。
今回の場合、あまりにも被害が広範囲であったこともあり、情報が錯綜していました。そのなかで、安否の確認や身の安全に関わる情報を入手するために、どこにアクセスして何を見たらいいのかという判断が難しかったというのが、実感として残ったかと思います。
大災害を目前にしてみんなが「何か役に立つことをやりたい」という気持ちを持ったからこそ、多くのウェブサイトが生まれたわけですが、その一方で、それぞれがボランティア的に活動しているため、せっかく情報が集められていてもいつの時点の情報かがわからなかったり、また少人数でつくられている場合には何らかの理由で更新が止まってしまっていたりといったサイトも多く見られました。それでなくとも不確実性の多い現場からすれば、どこかのサイトにアクセスできたとしても、それをどう受け取ったらいいかという判断はなかなか難しかったのではないでしょうか。そのような状況下では、権威に照らして正しいことを言っているかどうかというよりも、経過を見せたり、継続して更新したりというように時間をかけて努力を積み重ねているサイトのほうが頼りになります。つまり、ここでの情報の信頼性とは、この調子で運営が続いているならば、明日いきなりサイトがなくなったり、更新がストップしたりはしないだろう、といった安心感に近いものだったのではないでしょうか。このような信頼感を与えるには、一定の規模のグループで取り組む必要がありますし、通常の仕事のほかにそのような作業に時間を割くことができる環境も必要になってきます。このようななかで、グーグルやヤフーは、意義のある活動を行ったと言えるでしょう。
震災に限らず、たとえば二〇一一年初頭に起こったチュニジアやエジプトの騒乱、いわゆる「アラブの春」でも、ツイッター、フェイスブック、YouTubeといったウェブ上のサービスや携帯電話などが活動拡大の役割を担ったという報道がありました。このように天災、政変、暴動などの大事件が起こると、必ずといっていいほど情報の問題が浮上します。歴史的に見ても、人々がどのような情報をどれくらいのスピードでやりとりしたかは、時に情勢を大きく左右してきました。しかし人々がどのツールを選ぶのかは、その時点で一番手近にあり、情報が伝達しやすいツールが何であったかという問題に過ぎません。極端な例ですがのろししかなければのろしを使うだろうし、ツイッターがあればツイッターを使うだろうということです。いずれにせよ、ウェブとリアルは密接につながっている、というよりもウェブは現実社会の一部である─ではこのことを、次章でさらに詳しく見ていくことにしましょう。
●デザイン世界の大変革をめぐって
前章で肩書きについて少し触れましたが、ぼくはコンピュータ・サイエンスの研究者として論文を書いたり、大学院で授業を受け持ったりしています。またその一方でウェブ上の学術サービスの開発・運営担当者でもあります。さらにはソフトウェア開発の会社を立ち上げて経営にも関わっています。外から見れば研究・教育・サービス・ビジネスという四つの立場を行ったり来たりしているわけですが、どれもウェブと関わりがあるものです。どこから見てもウェブのヘビーユーザだ、とも言えるでしょう。そこで本章では、ユーザとしてのぼくがウェブと関わってきた体験を振り返ってみたいと思います。
ぼくは一九七七年生まれで、一九九五年、高校生のときに自分のパソコンを初めてインターネットにつなぎました。ウェブが生まれてからおよそ五年遅れぐらいでユーザの仲間入りを果たしたことになります。高校生のときは、コンピュータ・サイエンスの分野に進みたいという気持ちはなく、父親がデザイナーだった影響もあってか、むしろグラフィック・デザインに興味を持っていました。一九九〇年代というのは、デザインの世界ではそれまでの紙とペンを使ったアナログな作業から、コンピュータを使ってデザインから印刷まで一貫して行うデジタルな作業へと一気にシフトした時期にあたります。今思うと、父親がそのような大変革期を乗り越えるのは大変だったと思いますが、一方のぼくは、デザイン事務所に新しく入ってきたコンピュータを使って、友人のライブのポスターをつくってみたり、手書きの文章をきれいにレイアウトして冊子をつくってあげたりして遊んでいました。当時はそんな作品はまだ珍しく、結構喜ばれたりしたものです。
そんな経験もあって、ぼくは大学ではデザインを学びたいと思っていました。ところが進学する予定になっていた大学には相当する学科がなく、結局、コンピュータを使い、マルチメディアの開発などにも関係がありそうな情報工学を選択しました。そして入学してみると期待していたような授業は一つもなく、インターネットに詳しい友人もいない……。情報工学に必須の数学やプログラミングがそれほど得意ではなかったこともあり、いつしか壁に突き当たってしまいました。そこで指導の先生から、もっと柔らかいテーマに取り組んでみてはどうかとアドバイスをもらい、ビジネスプランコンテストを目指してソフトウェアの企画を考えることになりました。何をつくるかについてはさまざまな議論がありましたが、あまり難しく考えず、「人の生活を楽にする」というところから発想をはじめました。「なぜ自分たちはいつも忙しいのだろう?」「仕事の全体像が把握できていないだけなのではないか?」という疑問から、「カレンダーが立体的に表示できたら、複数の仕事の進行状況が見えるようになって安心できるのではないか?」─そんな企画を出したところ、採択されて開発資金をいただくことができました。この体験は、高校時代にポスターや冊子をつくって喜ばれたのと似たところがあり、コンピュータを使って日常生活を便利にすることにおもしろさを感じる大きなきっかけになりました。
ぼくが大学に在籍していた一九九六年から二〇〇二年は、インターネットが完全にみんなのものになっていく時期にぴたりと一致していました。徐々に個人のウェブサイトがつくられ、またビジネスでもウェブが活用されていくのを間近で見ることができたのはいい経験です。ちょうどウェブが流行り始めた、いわば「よーいドン!」のタイミングにたまたま居合わせたと言ってもいいでしょう。そんなふうに過ごしてきたぼくにとって、ウェブは自分が活動するフィールドそのものであり、社会そのものだという感覚は、ごく自然なものなのです。
●みんなで日記を書くとなぜおもしろい?
大学院の修士課程を修了後、ぼくは東京の大学院の博士課程へ進学することになりました。一方、それまで所属していた研究室では、先生が一年以上海外に滞在されることになり、後輩たちの研究の進め方について議論が起こりました。メールや電話を使うにしても、学生が約二〇人もいたため、一人一人と個別にやり取りをしていると時間が足りません。また時差の問題もあります。
そこで、この研究室では、学生全員が日記を書くことになりました。研究の進捗状況や気がついたことから日常生活まで、何でもいいから書くというのがルールです。また、その日記は研究室のメンバー全員が読めるようになっていました。ぼくはOBの特権でその日記を読めるようになっていたのですが、あるときそれを眺めていて、ちょっとしたことに気づきました。
「みんなで書くと日記がコミュニケーションツールになる」
ぼくは研究室を離れてしまっていたので、以前とは違って実際の雰囲気はわかりません。一人一人の日記を個別に見ても、断片的にとらえることしかできません。ところが、全員の日記をまとめて読むと、記事の絶対数が増えると同時に、一つの出来事に対して複数人が言及していることがわかります。その際に、誰かの日記上でコメントのやり取りをするのではなく、みんなが自分の持ち場で自分の意見や解釈を述べていることに興味を持ちました。それを俯瞰的に見ると、個々の日記ではわからなかった研究室の雰囲気や、個人個人の考え方の違いが読み取れるのが面白いと感じました。ただ集団で日記をつけるだけで、一人で書くのとは質的に意味が変わってしまうのです。そして、遠く離れたいまもコミュニケーションが続いているような気にさせてくれる─こんなことは、それまでに体験したことがありません。
そのころ欧米ではブログ(参照)が注目されるようになっていました。これまでマスメディアだけが情報を発信していたのに対して、個人でも意見を公開することができる手段が生まれたことが大きなインパクトを与えたようです。日本では、ウェブの黎明期から個人のウェブサイトや日記が存在していたことから、ブログそのものには新規性はありませんでしたが、ぼくはブログとコミュニティの関係について興味を持ち、ブログの研究を始めました。
そうこうしている間に、日本でも本格的にブログ・ブームがやってきました。「ブログとはいったい何なのか?」と世の中が注目し始めます。まだ大学院生だったぼくに、さまざまな質問が寄せられました。ただ目の前で起こったことを追いかけていただけなのに、いつの間にか自分が価値ある情報を持っていた、という経験でした。そしてこれがウェブの新領域を対象とする現在の仕事につながっていくのです。
●あとから見ればコミュニケーション
ブログの登場はウェブの歴史にとってどういう意義があったのでしょうか。個人的な経験から言えば、「ものを書くこと」の意味を変えたところにあると考えます。
これまでは、ものを書くということは、ある知識を他人に伝えようとする積極的な行為でした。本にせよ学術論文にせよ、知っている人が知らない人に伝達するために書くものです。そのため、書き手は読み手が知らないであろう情報を選ぶ必要があり、読み手は自分が知らないであろうことが載っているものを買う、という関係になっています。
ところが、ブログではそのような関係性を考慮せず、ただ書いてあるというものが少なくありません。ぼくのブログでも、特定の読み手を想定せず、自分の知識や経験をただ並べることがほとんどです。その際に、「これはみんな知っていることだから書く必要がない」とか「反応がないかもしれないからやめておこう」ということは気にしません。このように気軽に書くことができるのは、ウェブで情報発信するためのコストがきわめて低いからこそですが、ブログで書かれた情報に価値がないかと言えばそうではありません。それは、見知らぬ誰かにとっては有用な情報であり、役に立ったという反応が得られたり、こんな情報もあるというかたちで新たな情報が集まってくる、ということがたびたび起こります。
このように、手持ちの情報を出した人に対して、情報が集まっていくというコミュニケーション様式は、まさにウェブならではという感じがします。何かを知りたいときには探しに行くのではなく、知っていることを全部公開すればよい、というかたちで流れが逆転しているからです。実際には昔からこういったコミュニケーションが存在していたのかもしれませんが、誰にでもその機会があることがウェブの特徴と言えます。
従来のコミュニケーションの理論では、発信者と受信者がいて、手紙や電話などの媒体を通じて「もしもし」「はいはい」というふうに交互にやりとりされるものと考えられています。そして発信者は語りかける相手を事前に決める必要があり、どのようなが返事があり、どのように終わるかについても、ある程度事前に予測できるようなコミュニケーション観に基づいています。これに従うと、とりあえず書きたいことを書いておくと誰かが反応するかもしれない、というブログのようなものは、コミュニケーションとは呼べませんし、うまく説明できる理論も見あたりません。
もちろん人間は自分が何か言ったことに対して反応があれば単純にうれしいし、そのためにコミュニケーションをしている面もあります。しかし、ウェブ上のコミュニケーションに関しては、これまで前提としてきた互酬性のようなものが抜けてしまっています。では、何のためにやっているのか? という疑問も生まれてくるわけですが、ぼくがブログで何かを書いたとして、必ず反応があることを期待しているわけではないし、他の人もぼくが何かを書くことを期待していない─つまり、もとからコミュニケーションを始めるつもりがなかったとも言えます。けれども、そのようなやりとりをあとから振り返ると、あたかも最初からコミュニケーションの意思があったかのように見えてしまう、というのがウェブのコミュニケーションの本質なのかもしれません。
●ツールの使い方はあとから決まる
ブログやSNS、ツイッターのような新しいサービスが登場したときに、どういう使い方をすればいいのか、何に使うのかを聞かれることが多いのですが、このように見てくると、使い道は使われることによってつくられていくのだということがわかってくるのではないかと思います。深い理由もなくぽろっと言ったその一言が、新しい使い方を決めてしまった、といったことのほうがずっと多いのです。
ぼく自身がブログを書き始めたのは二〇〇二年ですが、仕事に関連することも、「朝起きるのが遅かった」といった些細なことも、両方混ぜて書いていました。そのうちにミクシィを使い始めるようになると、ブログには仕事関係の話題しか書かなくなり、軽い内容はミクシィで、というように切り分けて書くようになっていきました。今となってはぼくのブログは広報ツールであり、日常生活について書くことはありません。
その後、ツイッターが始まると、今度はツイッターで書くことと、ミクシィで書くことが、一目瞭然に違ってきます。ミクシィを始めたころは目的がはっきりとしないものを書いていたのに、今度はどちらかというと反応を期待しながら書くという、従来型のコミュニケーションに近い事柄が中心となり、どうでもいいようなものはどんどんツイッターのほうへと、分かれていきました。では当時を振り返って、ミクシィを使っているときにツイッターに書くようなことを書けなかったのが不満だったかというと、別にそんなことはありません。書きたいと思ってもいなかったことをツイッターに書いてから、これを書く場所が必要であるように思えてきた一方で、これが書けないがゆえにミクシィは窮屈だなと勝手に思うようになってきたというのが、実際のところです。このようにウェブの世界では、原因があるから結果が出るのではなく、結果から原因が決まるというように、因果の逆転が起こっていることがしばしばです。
棲み分けが起こるのは、ツイッターならツイッターというサービスの特徴やデザインがあり、それによって決まるという面ももちろんあります。しかし、成功したサービスのどれをとっても提供者の狙い通りに使われたということはなく、むしろこれまで人々がどんなサービスを使ってきたかという経緯に影響を受けながら、結果的としてそれぞれの役割を担っていったと考えるほうが自然です。
結局のところ、こういった棲み分けは、他人からの反応という本質的な気持ちよさがコミュニケーションをそういう方向へ進めてしまうからだ、とぼくは考えています。人にとってやっぱり反応は気持ちいいものです。気持ちよさを重視すると、自分の言いたいことを言う、という段階から、相手の反応をもらいやすいことを言うことへすり替わっていきます。それをみんなが同じように振る舞うようになると、どんどんと大喜利のような状態になっていくのは避けられません。そこであるときに疲れてこの場所を脱出する─ぼくの場合であれば、ツイッターに移動したわけです。けれどもそこにもまた他人からの反応があるので、さらに狭い範囲で好きなことが言いたいというときがやがて来るでしょう。早い人は、ツイッターから「フェイスブック(Facebook)」へ移っています。要するに、繰り返しです。
このように考えると、人類史上、「究極の」とか「最後の」コミュニケーション・サービスといったものが現れることは今後もないと思います。
Twitter(http://twitter.com/)
●ウェブを使うためのリテラシー
ところで、このような新しいコミュニケーション・ツールが、時折今までには起こらなかった新奇な問題を引き起こすことがあります。手近で、便利で、誰にでも簡単に使うことができる反面、それまでのコミュニケーション手段と決定的な違いがあることが原因です。よくあるのが、レストランに訪れた有名人のプライベートを暴露するような内容の書き込みをアルバイトの若い店員がSNSで書いたところ、大炎上─非難や賛否両論が巻き起こり、ブログやSNSの閲覧やコメントなどの投稿が短時間に集中すること─といった話です。こういった事件は、軽はずみな行為が原因であり、その点では昔も今も変わらないわけですが、おそらく以前であればこのように世間を騒がせるような問題にまで発展することはなかったでしょう。違いは、どのネットワークに情報を流したかにあります。
ウェブは自分で届く範囲をコントロールすることができないようなネットワークです。本人は友人と内輪話を喋っているつもりでも、世界中にメガホンで叫ぶようなことをしてしまった、というわけです。
普段の生活において「友人の友人は何人いますか?」と聞かれて思い浮かぶのは、直接親しくつきあうわけではないけれども共通の話題はある、というような関係にあたる人の数ではないでしょうか。そういった関係にある人の数は、直接の友人のおよそ数倍といったところでしょう。しかし、実際には友人の友人にあたる人の数を求めると、直接の友人の数の二乗に近くなるはずです。そして、直観的な人数と実際に求められる人数との差は、そのままコンテキストを共有していない人の数になります。この人数が多ければ多いほど、内輪話が広がっていくリスクが高まります。
友人関係を六人たどっていくと、世界中の誰とでもつながるという「六次の隔たり」の原理は、社会学の分野では古くから指摘されてきたものの、それを現実の世界で体験することはできませんでした。ウェブの発展と特に後述するSNSによって六次の隔たりが実感できるようになったのはここ数年のことであり、人々がこの諸刃の剣のような原理を深く理解し、使いこなせるようになるにはまだ時間がかかるものと思われます。
また、このようなつながりの感覚は、どういったメディアを体験してきたかによっても大きく変わるものです。以前からブログによる情報発信をしてきた人にとっては、SNSでは対象が不特定多数から特定少数に縮小したように見える一方、携帯メールでのコミュニケーションに慣れた人からは、SNSは情報の公開範囲を大幅に拡大したサービスに見えるでしょう。こういった認識の差も、今後のリテラシーを考えるうえで重要なポイントになると予想されます。
いったんウェブ上に置かれた情報はどこまでも伝わっていってしまう─このことは知識として知っていないと、日常的な感覚だけで理解するのは難しいのではないかと思います。先ほど例に挙げた店員の過ちを、無責任であると諭すだけではなく、彼らのふるまいのどこが悪かったのかをきちんと伝える必要があります。このようなウェブを使うためのリテラシーは、やはり誰かが教えていく必要があり、このことについては若者や子供だけでなく大人も理解していかなくてはなりません。
一方で、コミュニケーション・ツールの違いが、よりよい結果を生むことも数多くあります。たとえば経済学を学んでいる中学生がツイッター上で注目されています。彼は大人と対等に議論するので、年齢に関係なくどんどん認められていきます。ひと昔前ならば、マスメディアに探し出され「天才中学生」のように取り上げられ、消費されてしまったことでしょう。けれども、自ら発信するチャンネルを持つことで、誤解があればそれを正し、周りの人々を味方につけながら自由に行動することができています。
また、ニコニコ動画のようなサイトでも、スターになる人たちがたくさん出てきています。かつてのスターといえば容姿端麗で歌も演技もうまい……という具合にいくつもの長所がなければ参加できない、日常とは断絶された世界でした。一方、今ウェブ上で人気を集める人たちは、たった一つでも、他の人にはない光るものがあれば、その腕一本で認められていきます。さまざまな個性にチャンスが開かれている空間と言っていいでしょう。
このように、ウェブには現実世界にはないさまざまな特徴があります。もちろん良い面もあれば悪い面もありますが、人々に新たな可能性をもたらすというその一点においては、ウェブがあってよかったと思います。それでは、ウェブはどのようにつくられて、発展したのでしょうか。次章ではそのお話をします。
●「ウェブをつくった男」
アメリカを本拠地とするTED(Technology Entertainment and Design)という団体が主催する講演会があります。その名の通り、技術、エンターテインメント、デザインという異なる三つの分野から、各界をリードする人々が壇上に登場し、その最新の研究開発成果をプレゼンテーションしたり、作品を通じて世界へメッセージを発信したりと、情報社会のこれからを彷彿とさせる講演やパフォーマンスが次々と繰り広げられるイベントです。一九八四年から開催されていて、講演者にはたとえばインターネットの世界の中心的な人物であるビル・ゲイツ、ジェフ・ベゾス(Amazon)、セルゲイ・ブリンとラリー・ページ(Google)など、錚々たる顔ぶれも大きな特徴と言えるでしょう。
これまで行われた講演はウェブサイト(http://www.ted.com/)で公開されているので、いつでも見ることができます。基本的には英語でのスピーチで、また聴衆がテンポよくリアクションする様子など、会場の活気も知ることができます。IT分野以外ではデーヴィッド・キャメロン、ビル・クリントンといった政治家、ボノ、デビット・バーン、ジャズ・ピアニストのハービー・ハンコックといったミュージシャン、宇宙論で知られるスティーヴン・ホーキング、『利己的な遺伝子』で有名な進化生物学者のリチャード・ドーキンスといった科学者、法学者のラリー・レッシグなど、まさに技術、エンターテインメント、デザインという三つの世界の代表的人物が登場していることがわかります。
そのような人々のなかでも「伝説的」というべき一人に、ティム・バーナーズ=リーがいます。なぜなら、彼こそが「ウェブをつくった男」であり、ウェブが今後どのように変化・発展していくのかについて大きな影響を与え続けている人物だからです。ユニークな人々が壇上に上るTEDのなかでも、独得な雰囲気を放っているように見えるのは、ぼくだけでしょうか。
TEDに登場する人々のなかには、初期のウェブ開発に大きな功績を残した人たちがたくさんいるのですが、そのような人々はその後、インターネット関連の起業家となって活躍しているケースがほとんどです。そのようななかで、ティム・バーナーズ=リーはこれまで一社のベンチャーを起業することもなく、現在も大学に残って、ウェブの可能性を最大限引き出すべく精力的な活動を続けています。このようなキャリアを続けることは、欧米の社会においてはたいへん稀なことであり、その点だけをとっても特異な存在と言えるかもしれません。一九九四年からは、「W3C(The World Wide Web Consortium)」を設立し、さまざまなガイドラインを策定したり、将来性を示したりして、ウェブの世界を牽引しています。
ウェブは、二度とないような人類の大発明だと思うのですが、その当事者がもう一度、さらなる課題の解決へ向けて活動するというのは、つくづくすごいことだと思います。ではそもそも、ティム・バーナーズ=リーは、何を目指してウェブをつくったのか? まずは発明の原点にさかのぼって、彼の当初の考えを見ていくことにしましょう。
●CERN─ウェブ的な人々の集まり
ティム・バーナーズ=リーは、一九五五年、ロンドン生まれ。コンピュータに業績のある科学者であった両親の影響からか、コンピュータに興味を持ちながらも、英国オックスフォード大学へ進み、大学では物理学を専攻しています。英国の電話会社、ソフトウェア開発の企業で働いた後、ウェブを生み出すことになる「CERN(欧州原子核研究機構)」に職を得ます。
CERNは、フランスとスイスの国境近くにある世界的な素粒子物理学の拠点で、その特徴は、最も基本的な物質を取り出すために、地下に全周二七キロにもわたる巨大な加速器を備えていることです。これを動かすためには大変な費用がかかるため、各国で施設を共有して研究を行っています。一九八〇年、ティム・バーナーズ=リーの当初のミッションは、加速器をコントロールするシステムの構築作業を手伝うことにありました。
CERNの研究者たちは各国から集まっており、さまざまなコンピュータ環境を駆使しながら研究を進め、データを共有します。そして実験が終われば、CERNでの共同研究体制を維持しながら、所属する研究機関へとちりぢりに戻って研究を続けていきます。ティム・バーナーズ=リーの回想によれば、CERNの職場は、スタッフ・研究者を含めて約一万人、そのうち半分がいつもいるとは限らず、雇用されているのはたった三割という、多様で流動性の高い職場であったようです。そのようななかでは一つの権威や共通の規範が幅を利かせることはなく、一人一人が、より重要な研究成果をできるだけ速く挙げるために、一緒に働くやり方を工夫していくことになります。このような、多様なコンピュータをつないで、人々が情報を共有し、コミュニケーションするという環境は─もちろん今だから言えることですが─まさにウェブ的な人の集まり方だったと言えるでしょう。
当時のコンピュータシステムは、一台の中央コンピュータに対して残りのすべてのコンピュータが接続するという中央集権型の構成になっていました。このような中央集権型のシステムは、シンプルで効率がよく、すべてのデータを中央コンピュータに集めることで、データの管理も容易になります。逆に、分散型システムではすべてのことが複雑になります。たとえば網の目のような構造では、あるコンピュータから他のコンピュータへアクセスする経路が複数あります。するとあらゆる通信について、経路を効率的にコントロールするのは非常に難しくなります。また、経路のどこかでエラーが発生した場合に、それをどのように感知し、通信をやり直すのかといった問題もあります。中央集権型システムの場合なら、すべての状況を把握する中央コンピュータに問い合わせることで問題を解決できますが、分散型システムの場合には、そのような中央コンピュータはありません。
一方、中央集権型システムには別の問題が知られています。それは、ネットワークの規模が中央コンピュータの性能に比例するということです。中央コンピュータは他のコンピュータがやりとりするすべての通信に介在するため、参加者が増加し、通信量が増えるたびに、中央コンピュータの性能を上げなければなりません。ゴードン・ムーアが予言した「ムーアの法則」のように、半導体が年々高速化し、いくらコンピュータの性能が向上していくとしても、参加者や通信量の増加ペースに合わせてどこまでも大きくしていくのは不可能です。一方、中央コンピュータが存在しない分散型システムは、参加者や通信量の増加に追従しやすいことが知られています。分散型システムのように、システム全体の規模の拡大に比例して性能を上げることができる場合を「スケールする」と言い、逆に中央集権型システムのように、増加に対して性能がある地点で頭打ちになってしまうものを「スケールしない」と言います。
さて当時のCERNでは、施設の一角に、中央処理を担うコンピュータがぎっしり詰まった「制御室」があり、人々は制御室の隣の端末室へ「詣でて」行き、プログラムして帰ってくる、というような使い方をしていました。研究者のほとんどはまだ自席にコンピュータを持っておらず、システムの全体像というのは要するに、誰かが詣でては、自前で必要なプログラムや装置をつくって置いてくる、という仕事の積み重ねだったのです。それらは設計者とそのプロジェクト・メンバーしか知らないことも多く、システムの全体像は複雑に絡み合った構造をしていました。
そこでティム・バーナーズ=リーは、このような人物・装置・プログラムのウェブ的な集まりを、そのまま記述していくことにしたのです。人物・装置・プログラムといったアイテムを、それぞれ1つのノード(node, 節目)として平等に扱うことにします。そしてノードを丸印で、ノードからノードへの関係性を矢印で描き、1枚のインデックスカードにまとめていきます。ページが増えるときは、すでにあるノードからリンクの矢印を伸ばすようにします。そしてカードの下部に、どこからどこへリンクしているかのリストをつけておきます。これはちょうど学術論文で、本文のなかにある文献引用箇所に注記番号をつけて、ページ下の欄外にその原典リストを記す「脚注」によく似ています。
●学術コミュニケーションというモデル
ところで先にご紹介したTEDにアーカイブされている二〇〇九年の講演「Tim Berners─Lee on the next Web」の冒頭で、ティム・バーナーズ=リーは、簡単にウェブ誕生のいきさつを振り返っています。「なぜウェブをつくったのか?」と、ティム・バーナーズ=リーは問い、「そこにフラストレーションがあったから」と自ら答えています。もしクラウドのような巨大な仮想文書システムがあれば簡単なことなのに、欲しい情報があるのに取り出せない、共有できないというもどかしさ。いちいち装置をつなぎ直したり、プログラムの動かし方を覚えたり、せっかくデータが見つかっても互換性がなかったりする毎日─それはストレスだし、CERNという科学の最先端で知的生産を行っている人々のコミュニケーション・ツールとしてふさわしくない、と。
では、どんなツールが向いているのか?─少なくとも明らかなことは、研究者にとって不自然なものは、誰も使わないだろうということです。科学者なら誰でもなるほどそうだろうと思うような、どこまでも合理的なものこそが、CERNの人々にフィットするはずです。ではそのようなコミュニケーションと共有のシステムとは、どのようなものなのでしょうか?
研究者のコミュニケーション様式とはそもそも、専門的な知識を持った研究者が、実証的なデータに基づいて、議論を行います。そして新しくわかったことは論文にまとめて発表します。また論文は「査読」といって、専門ごとに権威ある学会が依頼した複数の専門家に読まれ、その論文の内容が正しいかどうか審査されます。このようにして認められた論文は、それが重要な研究であればあるほど、他の研究者の論文に「引用」され、その引用数が論文の重要さを表す尺度として利用されていきます。
新しい発見が論文になるということは、逆に言えば、既知の事柄はすべて共有されていたほうがいいことになります。究極的には、共有されていなければそれが新しいということを判断する基準がないからです。学術あるいは科学の世界では、古くから論文や雑誌といった媒体が、このように自分の知識と他者の知識をつなぐ役割を担ってきました。
ここには二つの利点があります。一つは分業効果で、専門分化が進む科学の世界では、ある分野における知見を一人の科学者が網羅的に記述することはあまり現実的ではありません。また、各分野間の関係は複雑に絡み合っているために、一つの体系にまとめることが難しいという事情もあります。科学者が各分野の情報を共有できれば、それぞれの分担を決めて作業することが可能になります。
実際、誰かが調べてもうわかっていることは二度調べる必要はなく、データを他の人が参照できれば、同じ実験をする必要はありません。これまでの論文がデータベースのようなものにまとめられていれば、常に最新の状態に保ってより多くの研究者が共有できるようにしておくことで、発明や発見のヒントになったり、それまで気づかれていなかった未解決の問題を発見したりして、新しい知の創成に役立つことも多いでしょう。そこで二つめの利点は、知識のシナジー効果ということになります。たとえばある事象に対して、複数の執筆者が異なった意見を表明しているような場合も、複数の意見に目を通すことで、個別の文書から得られる知見よりもより豊かな結論を得られる可能性が高まります。
分業とシナジーは科学のあり方そのものであり、このような態度は研究者倫理と呼ばれたりします。このような学術情報のあり方は、科学者たち自身に便利なだけでなく、人類全体に貢献する形態として長い年月をかけて整備されてきたものだと言うことができるでしょう。つまり特定の誰かのためではなく、人類全体がより速く新しい知を生み出すための情報共有の方法というのが、学術コミュニケーションの本質です。そこに、今のところ人類が可能にした、情報をとりまくコミュニケーションの究極のかたちがあるとは言えないでしょうか。
●キーコンセプトは「直感的」と「つながり」
さて、ティム・バーナーズ=リーは、研究所の人と協力してソフトウェアをインデックスにまとめてデータベースをつくり上げます。その後いったんCERNを去るものの、一九八四年にふたたび戻ってきて、以前のアイデアをさらにおし進め、後にウェブとなるシステムを徐々に具体化していきます。
その特徴の一つとして、まず「直感的」というコンセプトが挙げられます。人はよく物事を組織的に構造化するためにマトリックスやツリー構造を描いたり、頭に思い浮かべたりします。しかし一方で、そのような階層的なルールを越えて、お互い離れたところにある「あれ」と「これ」を結びつけたり、記憶の中から偶然に何かを思い出したりします。このような思考上の直感的な飛躍は、時に歴史的な大発明のきっかけともなるような新しいつながりを生み出すこともあります。これを支えるのが「リンク」というしくみであり、二つのものをリンクによって結びつけ、その関係がどのようなものかを記述することによって、システムにその関係性がわかるようにしようというわけです。
実際、ティム・バーナーズ=リーは、現在のウェブよりも詳しく関係性が記述できるものを目指していました。ある人物、たとえば「Joe」という人がいて一つのプログラムとリンクしているとすると、
Joeがそのプログラムをつくった
Joeがそのプログラムを使った
というように、どのような関係であるかについても記述していきます。しかもこのリンクは─現在のウェブにおけるリンクは一方から他方へと一方向的につなぐものですが─ティム・バーナーズ=リーの最初のアイデアでは、双方向に働くようになっていました。すなわち、Joeのページだけでなく、そのプログラムのページを見た時にも、Joeによってつくられ、Joeによって使われたという情報が表示されるように設計されていたのです。
このような設計の源にあったのは、「関係性」あるいは「つながり」という考え、あるいは思想のようなものでした。たとえば私たちの頭のなかにあるニューロンは、その一つ一つを見れば単なる細胞に過ぎません。しかし、それがどのようにつながっているかが、私たちを私たちたらしめています。また私たちが毎日使う言葉も、意味を担っているのは「つながり」であって、アルファベット一つ一つの文字ではありません。漢字の場合は、一字一字に意味がある表意文字であるため、この点でやや事情が異なりますが、文字がどのようにつながって単語やフレーズ、ひいては文や文章を構成するのか、その構造次第で意味が決まってくる点では同様と言えるでしょう。
極端に言えば、世界は関係性のかたまりであり、情報は何とつながっているか、どのようにつながっているかによって定義される─このような考えからティム・バーナーズ=リーは「つながり」という情報の側面を表現するシステムを目指していきます。中央コンピュータがない代わりに、ネットワーク上にある一つ一つが平等に存在し、それらがお互いに関連し合いながら単一の情報空間を構成するようなシステム。その空間を行き来することで、データやアイデアをたやすく共有することができ、CERNに到着した科学者が、その日から、誰かに聞かなくても仕事が始められるツール。いかなる種類の情報にもアクセスできる文書システムでありながら、新しいルールを押しつけるのではなく、人々、コンピュータ、ネットワークの多様性がむしろそのまま生かせるもの─そこでティム・バーナーズ=リーが注目したのが、以前からあった「ハイパーテキスト」というモデルでした。
●「ハイパーテキスト」がヒントに
今日のウェブの大きな特徴の一つにハイパーリンクという機能がありますが、そのアイデアの源は「ハイパーテキスト」にさかのぼることができます。ハイパーテキストとは、複数の文書を「ハイパーリンク」と呼ばれるリンクによって連結して、管理する文書システムです。
ハイパーテキストの歴史は、一九四五年のヴァネヴァー・ブッシュの論文「As We May Think」から始まります。「私たちが考えるように」と題したこの有名な論文は、人間の思考がさまざまな連想から成り立っていることを指摘しています。したがってそれを書き留めるための文書システムは、書物のように一直線に並べられるものではなく、文書同士をネットワークのようにつなぎ、自由に行き来できなければなりません。そして、このコンセプトを実現するために提案されているのが「Memex(メメックス)」という機械です。マイクロフィルムに記録された文書の集合を、レバー操作によって相互に参照できるようにしたシステムで、当時の技術では実際に完成は見なかったものの、「文書のネットワーク」というアイデアはその後も生き続けることになりました。
ブッシュが指摘するとおり、人間の思考は一直線ではなく、いくつもの思考の流れが絡み合い、ときにはあらぬ方向へと飛躍することもあります。書物は、その著者に対して思考を一直線にまとめあげるように強いる容器のようなものだと考えることもできます。この容器があることで、他者に対して明確なメッセージを伝えることができるようになった反面、著者の頭のなかにあるような複数の話題を同時並行的に扱うことは諦めなければなりません。ハイパーテキストは、一直線であるというテキストの「制約」を外し、著者の思考空間をより生に近いかたちで書き下すことを可能にしたものと言えるでしょう。
とくに、知識が階層化・細分化された科学の世界では、それぞれの読者の興味の範囲やレベルがまったく異なり、そのすべてを満足させるような文献を提供することはほぼ不可能です。ハイパーテキストによって、読者の状況に応じて、より基礎的な文献や他分野の文献を参照させることで、著者は自身の主張を展開することに注力できるようになります。
その一方で、ハイパーテキストは読者という存在をより際立たせることにつながります。ハイパーテキストでは、ある文書から次にどの文書に移動するかを決定するのは読者であり、書物のように著者が意図した順番で読まれるとは期待できません。著者にとっては、表現の自由度が上がった代わりに、読者に対するコントロール力が低下することになったと言えるでしょう。
このような特徴を持つ「文書のネットワーク」の概念や機能をいっそう明確化したのが、アメリカの思想家であり情報工学学者のテsッド・ネルソンです。ネルソンは一九六五年、「ハイパーテキスト」「ハイパーメディア」という用語を生み出します。そしてハイパーテキストをコンピュータ上で実現することを目指した「Xanadu(ザナドゥ)」プロジェクトに乗り出し、このプロジェクトを進める過程で、ハイパーテキストの基本的な概念や機能を確立していくのです。
「Xanadu」は、結局実現には至らなかったものの、ソフトウェアの世界に長く影響を与えました。その後この考えを継承し、具体化させたのが、一九八七年にアップルのマッキントッシュ向けにつくられたハイパーテキスト作成ツール「ハイパーカード」です。情報を「スタック」と呼ばれるカードごとにまとめて、相互にリンクをはるアプリケーションで、インタラクティブな教材やゲームの開発環境として人気を博しました。
Memex(http://newmedia.wikia.com/wiki/File:Memex.jpg)
●インターネットにのって
ハイパーテキストやハイパーカードと違って、ティム・バーナーズ=リーに幸いしたのは、インターネットという世界規模の通信インフラが同じ時期に発達したことだと言えるでしょう。ウェブは、「ハイパーテキスト」の概念をインターネットの上で実現したものだからです。
「ハイパーテキスト」は直感的なリンクを実現する優れた特徴を持っていたものの、そもそもは出版物などを想定した、ある量の静的な文書のまとまりを対象としていました。その目的はあくまでも個人の思考を表現する手段であり、リンクも文書内部をつなぐものしかありませんでした。これがアメリカで勢いを持ち始めていたインターネットと結びつき、外部リンクに拡張されたとき、ハイパーテキストは世界中の知識を連結させる情報システムへと成長していきます。
インターネットの起源は、一九六九年にアメリカ国防総省の研究・開発部門である高等研究計画局(略称ARPA、現在は DARPAに改称)によって構築されたARPANETまでさかのぼります。ARPANETは、各地に点在するコンピュータのそれぞれにデータを配置し、それらを網の目のように接続して、どのコンピュータからでもすべてのデータにアクセスできるようにする分散型のシステムです。米国内の大学や研究機関の間を、当時としては高速な回線で接続し、全米をつなぐネットワークとして徐々に成長していきました。
ARPANET、そしてその後のインターネットは、TCP/IPと呼ばれる分散型の通信方法を採用しています。ARPANETは軍事目的のネットワークだったため、万が一中央コンピュータが攻撃された場合でも通信不全に陥ることを避けるために、どうしても分散型システムでなければなりませんでした。分散型システムなら、一部に破壊や故障があったとしても全体としての最低限の機能は維持することができるからです。そして軍事目的ではなくなった後も、通信量の増加に対して「スケールする」という分散型システムの長所が、結果としてインターネットの急速な発展を支えていきました。
インターネットのアーキテクチャを規定する上で、もう一つ、非常に重要な概念となっているのがエンド・ツー・エンド原理です。エンド・ツー・エンド原理とは、あらゆる通信の制御はその末端(エンド)に位置し、通信の当事者である一台一台のコンピュータが担うべきであるという考え方です。
たとえば、電話のネットワークでは中央に位置する交換機がすべての通信を制御しています。相手が話し中の場合、そのことを自分に通知してくれるのは交換機の仕事であり、相手の電話機ではありません。また、混雑時に通話の優先順位を決めるのも交換機の役目です。このように、通信ネットワーク自体がある種の知的な処理を行い、末端では処理を行わないというアプローチは、ネットワークを提供する側にとってコントロールしやすいため、多くの分野で用いられてきました。
これに対してインターネットでは、TCP/IPをはじめ通信規約(プロトコル)のほとんどが、エンド・ツー・エンド原理に基づく末端での処理を前提としています。このことによって、たとえば新たなサービスのためのプロトコルを考案したならば、それを使いたいという人々に配布し、インターネットを通じて自由に利用する、といったことが可能になるわけです。通信経路が何らかの処理を行うようなアーキテクチャでは、新たなプロトコルを利用するためには通信経路がそれを理解し、処理できるように改良しなければなりません。個人がいくらプロトコルを開発しても、通信経路を提供する側の企業や団体においてその規格が採用されない限り、利用できないことになります。その点で、インターネットのエンド・ツー・エンド原理は、個人が試行錯誤できる場を提供し、ネットワークの可能性を広げる役割を果たしていると言えるでしょう。
●ウェブのアーキテクチャ
さて一九八九年、ティム・バーナーズ=リーは、ついに研究者の情報管理や共有の方法として、インターネット上で利用可能なハイパーテキスト型の文書システムを提案し、その翌年、このシステムを「World Wide Web」と名づけました。ティム・バーナーズ=リーが設計したウェブの基礎的な技術はきわめてシンプルであり、最低限のルールしか導入していないのが大きな特徴です。ウェブの基礎技術とは、次のURI・HTML・HTTPの三つを指します。
プロトコルなどを示す部分 | http:// |
ホスト名 | researchmap.jp |
パス名 | /i2k |
表3-1 研究基盤サービス「Researchmap」上の
「大向一輝」研究者ページのURIの例
■URI
URIは「Uniform Resource Identifier」の略で、「統一リソース識別子」の意です。ウェブ上にあるすべての情報が持っている「識別子」すなわちID番号のようなもので、必ずこのURIという一つのルールにしたがって表現します。URIはホスト名とパス名を組み合わせた文字列で一意に表現され、世界中にある他のURIと重複しないようになっています。
このしくみによって、ウェブ上のすべての情報に簡単にアクセスすることが可能になります。ちなみによく目にするURLというのは「Uniform Resource Locator」の略で、ウェブページの場所を示します。URIとURLは厳密には定義が異なりますが、現在のウェブではほとんど同じ意味で使われていると理解しても構いません。
タイトルを示す部分 | <title>タイトル</title> |
大見出しを示す部分 | <h1>大見出し</h1> |
箇条書きを示す部分 | <ul> <li>要素1</li> <li>要素2</li> </ul> |
表3-2 タイトル、大見出し、箇条書き要素の
マークアップ例
■HTML
ウェブでは、すべての文書はHTML(Hypertext Markup Language)で記述されます。HTMLは、通常のテキスト文書をHTMLタグと呼ばれる特殊な記号で「マークアップ」つまり区切っていくための規約です。テキストのなかにあるタイトル、段落、箇条書きといった要素を、HTMLタグで区切ることで、どこからどこまでであるかがわかるようにし、文章の論理構造を記述します。標準的なウェブブラウザではHTML文書を自動的に解釈して、文書を適切に表示します。
またHTML文書のなかに「http://」で始まるリンク先が書かれていれば、そこへ飛ぶことができます。またテキストだけを扱うのではなく、画像、動画、プログラムなどをウェブ上に置き、それを表示することもできます。ウェブの普及につれてウェブページのデザインが多彩になってからは、HTMLのほかに、レイアウトや見かけ上の工夫を記述するスタイルシート(CSS)も追加されました。
■HTTP
HTTPは、HTMLで書かれた文書へのアクセスの方法をまとめた通信規約(Hypertext Transfer Protocol)です。ウェブ上のHTML文書はURIによる識別子を持ちますが、この先頭にはHTTPによるプロトコルであることを示す「http://」が付加されています。HTMLタグを利用して、ある文書から別の文書へのハイパーリンクを記述すれば、その指定されたURIにアクセスせよという指示になります。ウェブブラウザはこれらを解釈して、ユーザのクリックなどの動作に伴って、相手先の文書へ移動し、内容を表示します。なお、これらのウェブの基本技術は、W3Cによって標準化され、その仕様はウェブ上で公開されています。
このような技術の提案に加え、「http://info.cern.ch」という最初のウェブサーバを用意してウェブページを公開し、ウェブページを扱うことのできる最初のブラウザをつくったのも、やはりティム・バーナーズ=リーその人でした。この最初のブラウザは閲覧だけでなく、HTMLソースを編集することができるエディタでもあるなど、現在のウェブブラウザとはいくつかの違いがありましたが、やがて数多くのコンピュータに移植される過程でエディタの部分が省略されながら、表示できるデータの種類を増やし、また利用者を増やしていきました。
初期のウェブは、テキスト情報しか扱えないシステムでした。一九九二年にマーク・アンドリーセンらが、初めて画像を扱うことができる「Mosaic(モザイク)」を提供し、ウェブは世界的普及への大きな転機を迎えます。この「Mosaic」は、現在もなおウェブブラウザの原型という存在であり続けています。
●未知との遭遇を支える「オープン」
なぜウェブがこれほどまでに普及したのか? その大きな一因として、ウェブの発展の過程のさまざまな局面において、その都度、ユーザの要望を考慮した適切な選択が行われてきたことが挙げられます。
過去を振り返ってみれば、情報に自由にアクセスし、引用できる世界に、これほど多くの人が参加するということは、ウェブ以前にはなかったことでした。たとえばビジネスの世界では、有用な情報を囲い込むことに多くの努力が注がれており、自分たちが集めたデータを誰にでも見られるようにするというような発想からは遠く離れていました。ところが、ウェブが普及するにつれて、公開しない、共有しない方針が「ウェブらしくない」ために好感を与えにくく、ひいてはそのような方針が採用しにくい時代になってきています。
このような変化の要因として、よく「ウェブというしくみがオープンだから」という理由が掲げられます。ではそのオープンさとは何を指すのでしょうか。情報システムとしてウェブの技術的詳細を見ると、クローズにしたくてもできないようなしくみが埋め込まれていることがわかります。誰もクローズにできないことによって、ウェブのオープンさが担保されているのです。
身近な例を挙げると、あるウェブページのデザインが気に入ったときに、そのデザインがどのようなHTMLで実現されているのかを見ることができます。ウェブ上のどのページであっても同じです。これを阻止することはできません。HTMLを見ることができれば、それをアレンジして自分のページをつくることはそう難しいことではありません。特に初期には多くの人々がそのようにしてウェブの世界に参加することで、急速に利用が広がったのだと思われます。一方で、非常に厳しい著作権が存在している現代にあって、ウェブのようなオープンなしくみが存在しているのは、単なる偶然の産物ではなく、ティム・バーナーズ=リーの強い意思があってこそのものだと思います。
そして、その意思は間違いなく研究者倫理に根ざしたものでしょう。研究者は人為的な制限を嫌います。一部の人だけが読めるような文献を引用して、自分の論文を書くわけにはいきません。学術コミュニケーションにおいて、既知の情報がすべて公開されていなければならないのは、「未知との遭遇」を支えてくれるからに他なりません。
ウェブというしくみは、まだ人類の知らない知へ向けた足場となるべく、科学や学術の世界をモデルとしたコミュニケーションを実現するためにつくられたものだと思います。したがって、極端な思想が含まれている面は否定できません。しかし人々のコミュニケーションは、この方向へ向かっていることは確かなように思われます。ウェブはこれからも、このようなコミュニケーションの延長線上に発達していくのではないでしょうか。
●検索エンジンの「役割」
多くの人々がウェブに参加し、その上でコミュニケーションを行うようになったことで、ウェブの情報量は飛躍的に増加しています。一方で、情報は、誰かに届き、読まれてこそ価値が生じます。増え続ける情報のなかで、ある情報とそれを欲する人をつなぐ手段の一つが検索エンジンです。今やテキスト情報から画像、映像まで、ウェブで見聞きするものはすべて検索の対象であり、検索エンジンの存在がなければ目に触れる機会がなかったような情報も数知れません。こうして検索エンジンが生活のなかに組み込まれた結果、グーグルは起業後一〇年で時価総額一〇兆円をはるかに超え、すでにマイクロソフトと同規模の企業に成長しました。
このように現在のウェブは、検索エンジンを中心に回っていると言っても過言ではありません。そのような状況から、代表的な企業としてグーグルが取り上げられ、たとえば「世界征服を狙っているのではないか」といった憶測が語られたり、過剰に賛美する傾向が見受けられます。しかし、これはあまりにも極端な反応でしょう。グーグルは資本主義のルールに則ったごく普通の企業です。グーグルとは何なのかを冷静に理解するためにも、まずいくつかの側面から、検索エンジンを眺めておきましょう。
検索エンジンは、今でこそ誰もが利用するウェブの基盤技術の一つですが、これほど使われるようになったのは、実は最近のことです。ウェブの初期から検索エンジンは存在しましたが、とくに重要な機能であるとは認識されていませんでした。なぜなら、当時のユーザは検索ボックスにどんなキーワードを入力すればいいか、思いつかなかったからです。
何を検索するかという判断は、何が検索できるだろうかという期待と表裏一体です。検索エンジンに「いま流行っていることを教えて欲しい」と問い合わせる人はいないでしょう。それは検索エンジンがそのような質問に回答できると思っていないからです。ウェブ上の情報がまだ網羅的でなかった時代には、いくら検索エンジンの性能がよかったとしても満足な結果を得ることはできませんでした。逆に、いま検索エンジンが多用されるのは、人々が求める情報がことごとくウェブに存在しているからだとも言えます。
当初、検索エンジンはポータルサイトが持つ一機能であり、どちらかと言えば付属品という位置づけでした。ポータルサイトは手作業でウェブサイトを分類した「ディレクトリ」という一覧を提供しており、これが十分に機能していたことと、検索エンジンの性能が著しく低かったことがその理由です。ディレクトリは、大分類から小分類へ項目を選んでいくことで欲しい情報に辿り着くことができます。
検索エンジンは、ウェブ上にある情報の取得から検索結果の表示まで、すべてコンピュータの自動処理で行うシステムです。したがってその性能は、土台となるウェブ上の情報の量と、そこから重要な情報をすくい上げる能力によって決まります。初期には、アルゴリズムの善し悪しを議論するまでもなく、情報量が少なすぎるがゆえに性能を上げることができませんでした。この時点での検索エンジンは、ディレクトリでは分類しきれない細かなニーズに応えるための道具でしかありませんでした。
●グーグルの「評価」
ウェブ上の情報が劇的に増加すると、ディレクトリを手作業でつくることができなくなりました。そして、検索エンジンはそれに代替するものとして期待されるようになりました。
ところが、ここで二つの問題が持ち上がります。一つは、いわゆる検索スパムと呼ばれるもので、検索エンジンの挙動を逆手に取り、特定のウェブページをその内容とは関係のないキーワードでヒットさせる行為です。検索エンジンの集客能力が高まるにつれ、そこに商機を見出した人々がこぞってこの種の行為を行ったため、検索エンジンの能力は大きく低下しました。また、検索スパムとは関係なく、純粋にウェブページの絶対量が増えたことで、一つのキーワードでヒットするページの数が激増し、すべての検索結果の内容を確認できるような状況ではなくなっていきました。
このように、入力されたキーワードを探すという文字通りの検索機能だけでは不足があることが明らかになり、検索によって得られた文書の評価やランキングを行うことが検索エンジンにおける最重要の課題として認識されるようになります。そして一九九九年、ラリー・ページとサーゲイ・ブリンは「Bringing Order to the Web(ウェブに秩序を)」と題した論文を発表するとともに、「世界中の情報を整理する」ことを企業理念とするグーグルを立ち上げたのです。
前章で、誰もが情報を公開することができ、また公開された情報を誰でも利用することができるというオープンさが研究者の倫理に基づいたものであることを示しましたが、グーグルもこのウェブの原理に寄り添って成長を遂げたサービスの一つと言えるでしょう。グーグルのビジネスは、他人が作成したコンテンツを網羅的に収集し、整理し、付加価値をつけることで成り立っています。これはそもそも情報がオープンでなければ実現できないことです。そのため、グーグルは情報をオープンにするために必要な投資を行っています。たとえば海外で進行中の、図書館との連携による書籍の電子化などは、典型的な例と言えるでしょう。
グーグルの検索エンジンは、「ページランク」と呼ばれるアルゴリズムによって情報を評価し、その結果を用いて検索結果のランキングを行うシステムです。ページランクの基本思想は、「あるウェブページの評価は他のページからどれだけリンクされているかで決まる」という至って単純なものです。科学の世界では、論文の評価は他の論文からどれだけ引用されたかで決定しますが、その意味で、ページランクはこれをウェブに適用したものだと言えるでしょう。グーグルではこの考え方をさらに一歩進め、「多くのリンクを得たページの評価は高く、そのページからリンクされたページの評価に影響を与える」という循環的なモデルを構築し、これを自動的に計算するシステムを完成させました。
現在のウェブのしくみでは、リンクを張られた側はそのリンク元のページのありかを知ることができません。そのため、ページランクの評価基準である外部からのリンクの総数を知るためには、ありとあらゆるページを走査し、リンク情報を収集しなければならないことになります。規模の拡大が続くウェブにおいては、このようなシステムは理論的にはあり得るとしても、そのコストが負担できなければ実現することはできません。グーグルは、初期においては低コストのコンピュータを組み合わせることでこれをクリアし、その後は検索連動広告による膨大な収益を元に巨大なシステムを運営し続けています。
このようにしてグーグルは、ウェブページの評価基準をコンテンツの内容ではなくリンクの構造に求めました。言い換えれば、それは書き手による主張よりも、読み手による投票に重きを置くことを意味します。評価は他者の存在があってはじめて可能になるという、ある意味で民主的なアプローチでつくられたグーグルの評価システムは非常によく機能し、さまざまな面でウェブに大きな影響を与えることになりました。
●いつでも知識を引き出せる
グーグルの影響は書き手から読み手へと評価の主役を交代させただけではありません。グーグルやそれに追随する多くの検索=評価エンジンの存在によって、知識のあり方にも変容が迫られるような事態が進行していきました。ウェブはただ情報が集積しているのではなく、巨大なデータベースとして機能するようになってきたからです。
知識に関する明快な定義はありませんが、ここではひとまず記憶した情報を状況に応じて適切に引き出せるようにしたものと考えてみましょう。かつては、知識の量はその土台となる記憶の量に比例すると考えられていたため、学校教育においても情報を記憶させることに主眼が置かれていました。ところが、ウェブと検索エンジンを利用することで、情報を記憶していなくても、好きなときに引き出すことができるようになります。知識という概念を構成していた情報の記憶と活用が切り離され、活用方法を理解することこそが知識の本質ではないかと考えられるようになるのは自然のなりゆきだと言えるでしょう。
人間が記憶できる情報量に個人差があることは間違いありません。けれども、その差が露わになる機会はあまり多くありません。ところが検索で得られる情報量は、検索手段を持っているか否かによって、極端な差が生まれることになります。また、検索方法そのものはスキルの一種として学習することができますが、文化や環境によって情報の絶対量に違いがある場合には、その差を埋めることは困難です。その障壁の最たるものは、言語の壁です。たとえばウィキペディアにおいて、英語の項目は四百万近い一方で、日本語は約八〇万項目に過ぎません。ウィキペディアは特定の文化圏でのみ通用する固有名詞が多いという傾向はあるものの、検索エンジンを通じて数秒で得ることができる情報量に約五倍の開きがあるという事実は何を意味するのでしょうか。当然、情報源はウィキペディアだけではなく、むしろ氷山の一角であって、他のウェブ情報についても同様の傾向にあることが予想されます。情報源の量に圧倒的な差があるときに、それが知識や情報の質に一切影響を与えないということは考えにくいでしょう。ウェブによって世界規模のコミュニケーションが可能になった一方で、それぞれの言語や文化の差が際立ってしまうという背理とどのように向き合っていくかが、ウェブ時代を生きるわれわれの今後の課題にもなっています。
●アテンション・エコノミー
グーグルにせよ、他の検索エンジンにせよ、検索結果は何らかの評価方法によってランクづけされ、ユーザに提示されます。ところがどの検索エンジンにおいても、その評価方法は秘中の秘であり、明らかにされることはありません。前述のページランクも現在のグーグルのランキング方法にどの程度寄与しているかはわかっていません。
中身がわからないしくみによって順位が決められ、それが情報の質の差としてとらえられてしまうような現状に異議を唱える人は少なくありません。情報にはさまざまな評価指標があり、時と場合によってどの要素を優先させるかは異なるはずだ、というのが本来だからです。しかしながら、検索エンジンが表示する結果を、さして不満に感じることもなく活用していることが多いのもまた事実です。このように考えてみると、結局のところ検索エンジンはいったい何を評価しているのか、改めて疑問に思われてきます。
しかし、これは検索エンジンの開発者でさえ正確に答えることはできないでしょう。一方、これを説明するキーワードが「アテンション」と呼ばれるものです。アテンションとは「注目」のことです。この場合、情報が持っている「人の注目を集める力」のことを指します。人の注目を集める力の源泉とは、時にはそれが情報の正しさや信頼性であったり、派手さであったり、面白さであったり……究極のところ何でもよいのです。広告の世界で長く教えられてきた、広告の提示から購買へ至るまでの消費者の心理のプロセスで、一番最初のステップに据えられているのがアテンションです。検索エンジンは情報収集の入口としての役割を担うだけでなく、検索という行為を通じて人々のアテンションをつくり出し、検索結果という最終的なランキングをつくっているのです。
無限ともいえる情報量を持つウェブのなかで、ほぼ唯一の稀少資源と呼べるのが人間のアテンションです。このアテンションの取り合いの結果が企業の勝敗を決めるという「アテンション・エコノミー」という言葉があるように、この曰く言い難い概念の前で人々が右往左往しているのが現在のウェブの姿なのです。
●今の検索エンジンは究極の姿か?
検索エンジンのない生活は考えられませんが、いまある検索エンジンは究極の姿だと言っていいのでしょうか? 先ほど挙げた、誰も答えられると思っていないという質問を含めて、こんなことを聞いてみたとしましょう……。
・来年の大河ドラマの主役は?
・映画の帰りにおいしいものを食べられるところは?
・いま流行っていることを教えて欲しい
これらの質問に共通していることは答が一つに定まらないという点です。最初の質問の場合、歴史上の人物について聞いているのか俳優の名前なのかが明確ではないため、両方を関連づけたかたちで提示する必要がありそうです。二番めは、店の候補が膨大にある可能性があります。そういった状況では、質問者の好みに関する情報や履歴を利用して適切に絞り込みができればよい結果になるでしょう。最後の質問についても、複数出てくるであろう候補をグループ化し、可視化することが解決のポイントになるのではないかと思われます。
このように、複数のページにまたがる情報を抜き出し、編集して見せるということが次世代の検索エンジンへの要求の一つになると思います。逆に言えば、現在の検索エンジンはウェブページのアドレスの一覧を提示するだけであり、それらを行き来しながら目的に適った情報をすくい上げるのは人間の仕事です。実際、人々が目的の情報に辿り着くために費やす時間は非常に大きいこともわかっており、一説に拠れば、知識労働者の労働時間の三割が検索に費やされているとの試算もあります。約二〇年前には存在しなかったこの検索にかける時間をどこまで減らせるのかは大きな課題です。
検索エンジンが、目的の情報へよりスムーズにつながっていき、今は私たちが期待していないようなことにも答えられるようになってくれると、われわれの生活はもっとよくなっていくはずです。すでに存在する情報を集めて評価するだけでなく、人間の知的な作業を肩代わりし、情報の編集や新たな情報を生み出すことが、検索エンジンの次のステップになるのではないでしょうか。
●検索エンジンと「壁のなかの庭園」
グーグルがその構造上、世界中の情報を集め続けなければ正しいランキングをすることができない一方で、ウェブ上には「壁のなかの庭園(Walled Garden)」と呼ばれるオープンでない空間もあります。壁のなかの庭園とは、英国などで見られるような、デコレーションされた外壁によって風や寒気、あるいは動物や侵入者から植物が守られているような庭を意味します。技術分野ではこれにヒントを得て、ユーザの囲い込みを意味する言葉として使われています。つまり囲い込んだユーザに対して利便性を提供する反面、その外に出られないように、あるいは出にくくなるようにする戦略です。古くはインターネット接続が可能でありながら公式サイトへの誘導が強すぎる携帯電話ネットワークなどを、例として挙げることができるでしょう。
このほか、ウェブの黎明期から存在している会員制のサイトも壁のなかの庭園の代表例です。小規模なコミュニティの情報は基本的にはそのメンバーにのみ有用であり、不特定多数のユーザに提供する必要がありません。したがって、それらのサイト内の情報はログインしなければ見ることができず、基本的にクローズドな状態に置かれています。検索エンジンにとって、こういったサイトは情報の網羅性を損ねる原因になりますが、小規模であれば大きな影響は生じません。
ところが、コミュニティサイトのなかには会員数が数十万から数千万人を超えるものが生まれるようになってきました。その筆頭が会員数八億人を超えるフェイスブックです。世界の人口の一位は中国、二位はインド、三位はフェイスブックというジョークが流行するなど、もはや庭園とは呼べない規模にまで成長してきました。そして、人々のコミュニケーションが壁のなかで行われるようになるにつれて、重要な情報もまたそのなかで生産され、消費されることになります。
このような情報流通の変化に対して、壁の外側にいる検索エンジンは手を出すことができません。情報の網羅性によってユーザの支持を集めてきた検索エンジンにとって、検索できないコンテンツが今以上に増加することは死活問題です。
二〇〇九年には、フェイスブックと同様に検索エンジンからのアクセスを拒否してきたTwitterが、グーグル、マイクロソフトと立て続けに契約し、検索の対象となる代わりに巨額の収益を得たことがニュースになりました。フェイスブックはサイト内広告などによって収益が十分に成立していることもあり、現時点においても検索エンジンの検索対象になっていません。
オープンかクローズか。フェイスブックによって、オープンな情報と壁のなかの情報の比率が大きく塗り替えられたことからわかるように、この比率が変化していくことは間違いないでしょう。しかし、情報のオープン性はグーグルにとって自らの基盤であるだけでなく、フェイスブックのユーザにとっても重要です。このことについては、後ほどSNSのところで考えていくことにしましょう。
●ブログがもたらしたもの
さて、今度は第二章で体験的に触れたブログのしくみについて、もう少し整理しておきましょう。ブログは、特に海外において、自分が見つけたウェブページを他の人々に紹介するようなウェブサイトが注目されたことから始まります。その後は自身の意見を表現するような内容を持つものを一般的にブログと呼ぶようになりました。
ブログはその内容もさることながら、サイトの構造が特徴的です。多くのブログは記事を書くごとに一つのページが作成され、ユーザが修正・削除しない限りはそのままアーカイブとして蓄積されるようになっています。この記事のページを「Permanent Link(永続的なリンク)」、略して「パーマリンク」と呼びます。一つのブログには記事の数だけパーマリンクがあり、それぞれが互いにリンクし合っています。
このような構造を持つサイトを自力で構築するのは手間がかかります。そこで、パーマリンクやリンクを自動的に生成してくれる「ブログツール」が急速に普及しました。ブログツールは、もともとは企業や組織がウェブサイトの構築に利用していたコンテンツマネージメントシステムを母体として、個人向けに提供されるようになったものです。ブログツールを利用すれば、ブログの書き手はタイトルや本文の文章を書くだけで、自動的にHTML文書に変換され、パーマリンクが生成されます。リンクを張ったりする手間も知識も必要なく、本文の執筆に集中することができるため、個人の情報発信のハードルがぐっと下がることになりました。
このようにして、ブログの書き手が増えれば増えるほど、記事はパーマリンクとして蓄積されていくことになります。検索エンジンにとっては、専門的なコンテンツが増加し、検索結果の品質が向上するという、相乗効果を生み出すことになりました。また、ブログが一過性のブームを超えて定着し、以前はウェブ上で情報発信をしてこなかった専門家層がプロ・アマチュアを問わず多数参入するようになった結果、マスメディアとは異なった経路で信頼性の高い情報が流通するようになりました。有用な記事を生み出す書き手は社会的な影響力を持つようになり、ブログ上での良質な議論も頻繁に起こるようになりました。こうして、ブログは一つの文化を形成するようになっていったのです。
筆者(大向)のブログ(http://d.hatena.ne.jp/i2k/201011)
●ブログのアーキテクチャ
パーマリンクによって情報がつながる構造のほかに、ブログをブログたらしめている特徴として、もう一つ挙げなければならないのが、個人が編集主体であるという点です。複数人が一つのブログを運営する「グループブログ」も存在しますが、大多数のブログは個人が一人で運営しており、読者も一つのブログには一人の書き手がいるものと理解するようになっています。実際、一個人が長い期間にわたって書き綴ってきたブログには、その人らしさがにじみ出てくるものです。書き手の人柄や趣向といった言語化しにくい情報も、長らく読み続けていれば次第に理解できるようになります。そのことが、ブログを魅力あるコミュニケーション手段にした最大の理由なのではないでしょうか。
その一方で、ブログそのものは個別の記事の集合体でしかなく、検索エンジンはそれらの記事へと直接読者を誘導します。したがって検索エンジンから来る読者は、書き手が背負っているコンテキストを感じることなく、その記事だけを目にすることになります。もし読者が書き手の記事を順番に読んでくれれば、誤解の余地は減りますが、コンテキスト不在の状態で情報を書き手の意図通りに記事を理解することができるのか、というとなかなか難しいように思われます。ウェブのアーキテクチャでは、情報の流通をコントロールするのは読み手であり、書き手が読者の「読み方」を決めることはできません。書き手が情報のコントロール権を一部手放すことで、不特定多数に読まれる可能性が生まれるのです。
ブログはこういったウェブの特性を最大限活用できる一方、ブログの書き手である個人は、これまで記録・公開されている発言のすべてに責任を負わなければならない立場に立たされることになります。過去のパーマリンクをそれとわからないように改変したり、削除することは言語道断であるという考え方が広く浸透しているため、そういった行為を防ぐために第三者が改変前のウェブページのコピーを取って、書き手の管理外の場所で掲示するしくみすら存在しています。このような環境はフェアな議論をするためには有用であり、たとえば特許をめぐる議論や学術的なコミュニケーションにおいては、画期的なしくみだと言えます。その反面、いかなる場面においても発言がその都度記録され、常にその責任が問われる状況はあまり心地のよいものではなく、個人が情報発信しようというときに、それに堪えることのできる人はそう多くないと思われます。
このように考えると、このコミュニケーション様式は少し窮屈なのではないか、という感覚も生じてきます。私たちの生活のなかには他愛のないおしゃべりもあれば、特定の友人にしか理解できない内輪話のようなものもあります。そして、ウェブが生活に深く関わっていくにつれ、よりカジュアルなコミュニケーションをウェブ上で行いたいというニーズが高まっていきます。次に取り上げるSNSは、まさにこのような文脈から生まれてきたものではないでしょうか。
●プレーヤが揃って何ができる?
ブログの登場によって、ウェブにおける「個人」の存在感は大きなものになりました。そして万人のための情報公開の手段が整備されたことで、不特定多数の人々に対する意見の表明や議論といった、個人を中心とした新たなコミュニケーションが生まれました。このようにしてウェブに参加する個人が増えてくると、次に個人同士のつながりに基づく新たなコミュニケーションが必要とされるようになります。ソーシャルネットワーキングサービス(SNS)は、個人が持っている「つながり」に注目し、ウェブ上でのコミュニケーションを促進するしくみです。そこでまずはSNSの成り立ちを追いながら、それがコミュニケーションに与えた影響について見ていきましょう。
SNSが誕生してもうすぐ一〇年になりますが、その黎明期は今われわれが目にしているような姿とは少し異なるものでした。SNSというジャンルが認知されるようになったのは、二〇〇二年の「Friendster」がきっかけです。Friendsterでは、登録者全員にページが与えられ、ここに表示する友人のリストを充実させることを目的としたサービスでした。参加者は、自分と同じようにFriendsterに参加している友人を発見し、相互承認のプロセスを経ると、双方のページに相手のページのリンクが追加されます。自分と友人の関係がウェブ上に明示化され、その情報を多人数で共有すると、大規模な人間関係のネットワークが見えるようになり、なかには意外な関係が発見されることもあります。こういった、人間関係そのものをコンテンツにする試みは過去に例がなく、そのインパクトや面白さも手伝って急速に普及が進みました。日本では、Friendsterと同様のサービスである「Orkut」が人気を集め、SNSの考え方が伝わることになりました。ネットワークづくり自体に楽しみを見出したのが初期のSNSの功績であったと言えますが、当時はFriendsterでもOrkutでも、友人のリスト化以外にさしたる機能はなく、リストの作成が一段落してしまうと、ユーザがこれらのサービスを継続的に利用するモチベーションがないという問題がありました。
人間関係のネットワークをどのように利用するかという観点では、Friendsterの次に注目を集めた「LinkedIn」の目的は明確でした。 LinkedInでは、知人関係を通じた就職のあっせんに対象を絞り、職歴や専門に関する情報を共有できるようになっています。知人からの紹介が就職のプロセスに大きく寄与するアメリカでは、LinkedInのようなSNSの利用法は広く普及し、また特定の目的に応じたSNSが続々と生まれることになりました。しかしながら、こういったサービスの需要は文化圏によって大きく異なるため、大規模なものにはなりにくく、また必ずしも人間関係ネットワークを必要としていないようなサービスも散見されます。
人々のコミュニケーションに視点を移すと、ブログのように一定の長さの文章を発信するだけではなく、友人との日常会話のように、よりプライベートなやり取りをウェブ上で行いたいという方向性が見出されます。人間関係ネットワーク上の友人にのみ日記を公開したり、メッセージの送受信ができるコミュニケーションを志向した「MySpace」、そして日本では「mixi(ミクシィ)」が登場し、多くのユーザを獲得しました。
表5-1 主なSNSサービス
名称 | サービス開始 | 会員数 |
Friendster | 2002年 | 9,500万人 |
MySpace | 2003年 | 2億320万人 |
2003年 | 1億人 | |
2004年 | 8億人 | |
mixi | 2004年 | 1,792万人 |
GREE | 2004年 | 2,700万人 |
Google+ | 2011年 | 9000万人 |
現時点で世界最大のSNSである「Facebook(フェイスブック)」は、二〇〇四年にハーバード大学の学生のみを対象としたクローズドなサービスとしてスタートしました。現実に存在する大学のコミュニティをそのままウェブに持ち込むようなかたちで、実名を名乗り、顔写真を掲載することが半ば義務づけられています。その後ユーザの範囲を全米の大学生へと開放し、さらに二〇〇六年九月からは誰もが使えるようになったことで巨大化し、今に至ります。
●グーグルからフェイスブックへ
第四章でも触れたように、フェイスブックは、何かにつけてグーグルと比較され、その地位を脅かすものとして語られることが多いサービスです。実際、フェイスブックのアクセス数は爆発的に伸びており、二〇一〇年にはグーグルを抜いたことで大きな話題になりました。一方、グーグルはコミュニケーション系のサービスを実験的に提供していましたが、二〇一一年にはフェイスブックに対抗して社運を賭けたSNS「グーグル+(Google+)」を公開し、今後の展開が注目されているところです。グーグルとフェイスブックとの間で、優秀な技術者の引き抜きといったさまざまなニュースも飛び交っています。いずれにせよ、ウェブの最先端で大きな転換が起こっていることは間違いありません。
このような情勢の変化は誰も予想できなかったのではないでしょうか。わずか数年前には、誰もがグーグルをウェブの王者であると認め、ライバル不在のなかでグーグルの次の狙いを予想し合っていました。二〇〇四年に制作された動画『EPIC2014』には、いかにしてグーグルがメディアを支配していくかが未来予測のかたちで描かれており、当時のグーグルのイメージをよく伝えています。
皮肉なことに、この動画がつくられた二〇〇四年はちょうどフェイスブック誕生の年にあたるのです。そのころは、ウェブで情報を探そうと思ったら、まず検索エンジンにアクセスし、思いつくキーワードを入力していました。ところがSNSのコミュニケーション環境が拡大してくると、情報収集の起点がSNSのなかに身を置くことへと、いつの間にか変わってきています。そして、つながっている人々の言うことに耳を澄まして新たな情報を得るようになっているのではないでしょうか。現実世界でも、友達、同僚、家族など、身近な人たちの話が聞くともなしに聞こえてきたり、耳に入ってきたり……という環境で過ごしています。このような情報環境がそのままウェブに持ち込まれることで、新しい店や商品に関する情報や、あるいは電車の遅延、地震情報といったニュースが、フェイスブックやツイッターを通じて最初に耳に入ってくるのです。検索エンジンは、そのようにして関心が生まれた後に利用するものになっています。このような状況で、グーグルを支えてきた広告モデルがこれまでとは違ったものになっていく可能性も十分考えられます。グーグルがこのことに強い危機感を覚えていることは想像に難くありません。
ではフェイスブックが究極的、かつ最後のSNSなのかといえば、第二章で述べた通り、必ずしもそうではないだろうと思います。先行していたSNSの「Friendster」「LinkedIn」「MySpace」と比較して、特別な技術があるわけでもありません。ただし、グーグルと同様、コンピュータ・OS・データベースといったインフラの部分から安くて効率のよいシステムを自前で構築してきた点は重要です。巨大なデータセンターを建設し、何万台ものコンピュータを備え、これによって八億人のコミュニケーションを支えている点では他を圧倒しています。このような技術の蓄積には、今のところ追いつけるようなライバルは見当たりません。
またフェイスブックの場合、友人関係を利用したゲームを開発したり、情報をシェアしたりできるようなプラットフォームを、早い段階から提供していました。ゲームに限らず、チャットやビデオ会議なども次々とフェイスブックのなかに取り込まれています。他社のアイデアも、よいものであれば躊躇することなく導入し、さらなる発展の原動力にしていく強さを感じます。このことは、フェイスブックを描いた映画『ソーシャルネットワーク(二〇一〇年)』のテーマの一つにもなっていましたが、常に議論を巻き起こしています。
しかし、八億人というユーザを抱えながら、目まぐるしいスピードでサービスの姿を変え続けるのは、驚異的としか言いようがありません。ユーザは画面のデザインが少し変わるだけでもストレスを感じますし、以前できたことができなくなればクレームが来ます。進め方を誤ればたちまち支持を失い、落ち込んでいくサービスはいくらでもあるのです。そのなかで、フェイスブックはそのときそのときの絶妙な判断で度重なる改変を行ってきました。これを実現するには圧倒的なリーダーシップと実装力が必要ですが、現在のフェイスブックにはそれを難なくやってのけるような勢いを感じます。
●ストックとフロー、人と場
では人と人とのつながりを活用したSNSが、ウェブのコミュニケーションに何をもたらしたのかを、詳細に検討していきましょう。これまでに見てきたように、ウェブは情報を保存・格納することに長けています。保存される情報は、一般に「ストック」と呼ばれます。これに対して、日常のなかで今まさにやりとりされているコミュニケーションを、「フロー」と呼びます。ストックとフローという二つのタイプの情報がどのように扱われるかは、メディアによって違いがあり、同じフローでも、たとえば電話の場合には、わざわざ録音をしたりしなければ保存されることはありません。あるいは手紙であれば送り手から受け手へ渡ってしまい、あらかじめコピーをとっておかない限り、送り手の手元には残りません。その意味で、電話も手紙もストックに適したメディアではありません。反対に、ウェブはストックには向いているものの、リアルタイム性の高いフローを扱うようなサービスがあまり存在していませんでした。
しかし、現在のSNSでは、人と人とのリアルタイムなやりとり、すなわちフローを扱いながら、それを保存してストックにすることができます。SNS上の個人ページにアクセスすると、その人が書いたさまざまなテーマやトピックが時間軸に沿ってずらりと並べられます。ある人のブログが時間をかけてまとめられた思考の履歴であるとすれば、SNSの個人ページは日常的なコミュニケーションの履歴です。どちらもその人の人となりを理解するために重要な情報になります。
同じウェブのしくみを使っている「BBS(電子掲示板)」と比べてみると、SNSのコミュニケーション様式の特徴がさらにはっきりします。「2ちゃんねる」をはじめとして、多くの掲示板ではテーマの掲げられた場が用意され、そのテーマに興味を持つ人が集まってくるというかたちをとります。そこでの会話の履歴は人ではなく場に結びつけられ、同じように保存されます。このようにBBSの主役は「場」そのものであるのに対して、SNSでは「人」が中心になっています。この違いはどちらがより優れているというよりも、むしろ両方が並存し目的に合わせて使い分けができることが重要でしょう。またフェイスブックなどでは同じ書き込みを人の観点でも場の観点でも閲覧できるようになっています。
●目に見えるようになった人間関係
また現在のSNSは、自分を中心とした友人との一対一の関係を基本として、この関係を集めていくという構成になっています。ブログと同じく人を前面に出したサービスになっており、先行サービスのFriendsterの時代から、参加すると個人のページがつくられ、他の人々も同様にそれぞれページを持っています。知人のページを見つけて相互承認のプロセスを経ると、互いのページにリンクが張られます。
現実世界の人間関係は、たとえば会社の同僚や同じ地域の住民というように、いくつかのグループに分けることができるでしょう。しかし、SNSでは、このようなグループの違いを表現できないサービスが大半です。どの知人関係も一種類のリンクで表現するという単純化は、ユーザに迷う余地を与えず、サービスをできるだけ大規模化させるために必要だったのではないかと思われます。
これまで、実際の人間関係は、相手を友達だと思うとか、知人に当たるだろうとか、各人が心のなかで思っていたものに過ぎませんでした。それをSNSではリンクが存在するかしないかという、目に見えるかたちでウェブ上に記述しています。こうしてつくられたリンクを俯瞰的に見れば、巨大な人間関係のネットワークが浮かび上がります。このネットワークに基づくと、メッセージを書き込んだり、画像などをアップする際に、直接の友達だけに公開するとか、「友達の友達まで」とか「全員」というように、発信する側が情報を伝える範囲をコントロールできるようになります。
これによって、身近な話を友達だけに伝えたり、見知らぬ他人に対して誤解を招きかねない内輪話などもウェブ上で気軽にやりとりできるようになりました。写真の共有一つとっても、観光・誕生日・結婚式といったイベントごとに別のグループで共有したいとか、ゲームでも数人の友達の間だけで盛り上がりたいとか、さまざまな使い道が現れています。
また関係の詳細が表現できず、単純化されているからこそ、自分自身の持つ多面性を他人に伝えることができるというよさもあります。これまでは、会社の同僚が、地域社会や趣味の仲間たちとどのように過ごしているのかを垣間見るような機会はほとんどなかったと言えるでしょう。SNSの個人ページを年間通して見れば、自分がその人と会っているときとは違う人となりが見えてきたり、対面的なコミュニケーションでは知ることのなかった一面が見えたりすることがあります。このように自分の多面性を表現したり、知人の意外な一面を理解できるような環境でのコミュニケーションの面白さ・意外性が、SNSを拡大させてきた大きな要因であることは間違いありません。
SNSでは気軽なコミュニケーションから、意外な共通点や、発見が生まれます。偶然同じ知り合いに接点があったとか、小さいころ住んでいた場所が近所だったとか、とても珍しい趣味なのにお互い詳しかったとか……このような例はいくらでも見つかることでしょう。共通点を発見することができれば、やはり相手に対して親密感を覚えやすくなります。このようなコミュニケーションは人を中心としたSNSでなければ起こりづらいものです。
こういった特徴を持つSNSは簡単には廃れないと思われます。それどころか、人と人との関係をウェブ上で維持しようというしくみは、さらに豊かな方向へ発展していくことでしょう。人生を歩んでいくなかで進む道が分かれてしまった仲間や、留学や転勤で離れてしまった知人たちと、時間と距離を超えて関係を継続できるというSNSの特徴は、人生を豊かにする方向に役立っていくものと思われます。
●人間の多面性をどう整理する?
一方で、あらゆる場面において自分自身の多面性を見せなければならないSNSのアーキテクチャは、ある人には不自由に感じられる場合があります。同一サービス内で複数の登録情報を持つのは、規約によって禁止されていることがほとんどですし、興味や関心によって別の人格でサービスを使い分けたいという要求もあります。
フェイスブックは、前述のように大学という限定的なコミュニティを対象としてスタートし、当初から会員の顔写真と名前を公開して利用するコミュニケーション・ツールであったわけですが、会員数八億人となった今でもこれを維持しようとしているのを興味深く感じます。フェイスブックに登録しようと思ったら、まずはプロフィール画面で、ニックネームやハンドルネームではなく、本名を入力しなければなりません。これはフェイスブックに限らず、後発のグーグル+をはじめ他のSNSでもその方向に近づいていますが、フェイスブックにおいてはかなりこのビジョンを積極的に推し進め、顔と実名のあるSNSの世界を運用しようとしているように見受けられます。そのため、ユーザの名前がいかにもハンドルネームのようなものであったという理由で、ユーザのアカウントを強制的に停止したりと、これまでもたびたび問題が起こっています。アカウントを回復したければ証拠を提出するよう求めるなど、フェイスブックが強権的とも思える対応も多く、逆に言うと確固たるポリシーを持っている印象を受けます。
しかし、このビジョンは、今までのネットの常識とかけ離れているところがあるのは事実です。リアルな世界と違って、ウェブでは自由に違う人格を持ったり、いろいろな名前で活動できるというのが、みんなが共有している価値観だったからです。これに対してフェイスブックが推進しているのは、私が現実世界のどこで何をしているか、誰と誰がつながっているかを極力クリアに見えるようにするという、まさに人の行動の透明化のようなものであると言えるでしょう。
実名でリアルな世界と直接接続されると、小さなトラブルを含めていろいろな問題が起こり得ることは容易に想像できます。リアルな世界で誰にも知らせずにとっていた行動が、誰かにフェイスブックにアップロードされて公になってしまう、といったケースです。とくにアメリカではフェイスブックを写真共有のために使っている人が多いのですが、写真のなかの顔をコンピュータが自動的に画像認識し、これに誰かが名前を入力して画像との対応をつけておくと、さまざまな画像のなかから特定の個人をコンピュータが検出し、見つけられるようになっています。写真以外にも、この場所にいるということを登録したり、誰と一緒にいると付け加えることができる機能によって、さまざまな情報が他の人に伝わります。こうなると自分では何も発信していなくても、他人が発信する情報によって埋められていき、ウェブ上に自分の情報がつくられていくことになります。
常識的には、これは過剰な透明性ではないか、と思う人もたくさんいると思います。他人に情報を出されることで不利益を被るケースはいくらでもありますし、人にはいろいろな事情があるのだから、何でも透明にすればいいわけではないという議論は当然あって然るべきでしょう。一方で、行動規範として、最初から不透明なことをしなければいいという考え方も徐々に広まっています。これは人によっては受け入れ難い価値観ではありますが、透明性が高いほうが行動しやすい状況になっているのもまた確かです。
今、フェイスブック、ひいてはSNSのしくみそのものが、過剰なまでの透明性を要求し、社会との軋轢を生み出しながら、これまでとは異なる価値観を強力に推し進めているように思われます。起こっていることをとにかく明らかにしていこうという流れは、「ウィキリークス」なども同様です。ウィキリークスではいっそう過激に、すべての出来事を公開する方向へと突き進んでいます。ちょうど検索エンジンが知識とは何かを巡って、既存の考え方を塗り替えていったように、行動規範についても、今が過渡期であり、どこかでフェイスブックの倫理が確立されてくるのではないかと予想されます。
そしてこれはいわばウェブの本質そのものであり、人々が手持ちの情報をウェブ上に出し、共有する、その情報の対象が人々の日常的な行動にまで及ぶようになったと考えることもできます。つまり、ウェブが対象としているものが拡大したという見方もできるわけです。
●拡大するソーシャルネットワーキング
人が持つ多重性をSNSのなかに持ち込み、見せる相手によって複数の人格を使い分けたり、ニックネームなどの別の名前をプロフィールに表示したりできるような模索も進められています。グーグル+では、プロフィール内の職業、学歴などの情報を、ユーザが参照を許可した人たちにだけ公開することができるしくみや、友人を家族、同僚、趣味の仲間といった異なるグループに分割して、投稿記事をグループ別に管理・表示できるような機能を提案しています。友人・知人のグループ化や、グループごとへのメッセージの送信など、SNSのアーキテクチャにはまだまだ改変の余地があり、ユーザの使い方に合わせてこれからも変化していくと思われます。
また多くのSNSでは、人間関係ネットワークの維持管理機能とコミュニケーション機能が一体不可分なものとして構築されています。サービスを運営する側から言えば、ユーザを引きつける手段としてこういった統合型のしくみを採用することは自然ですが、本来これらの機能は質的には別のものであり、分離可能なものです。現在では、人間関係ネットワークをコミュニケーション以外の用途に利用する方法が模索されており、ユーザが長時間かけてつくり上げてきた人間関係ネットワークをさまざまなサービス間で共有すべきであるという議論もあります。このような状況に先駆けて、フェイスブックでは、自社サービス内の人間関係ネットワークを利用した外部アプリケーションの開発環境を提供したことで注目を集めました。すでに数千を超える応用サービスが生まれており、人間関係ネットワークとコミュニケーション機能の分離が始まっています。また、複数のSNSに存在する人間関係ネットワーク情報を個人がどのように管理すべきかについても議論が始まっており、インターネットとウェブ、ブログが層を形成しているように、「ソーシャルネットワーク層」と呼ぶべきサービスが定着していくことが期待されます。
ウェブのユーザが飛躍的に増えたことでソーシャルネットワークが機能するようになったのと同様に、人間関係ネットワークのような構造化されたデータが一定量を超えたとき、これを利用したコミュニケーション・サービスのアイデアが、新しい状況を生み出していく可能性は十分にあります。ウェブの変化と競争はこれらも続いていきますが、その中心にいるのはそれぞれのサービス提供者であるというよりも、より巨大化し、より多様化し、より構造化されていくデータそのものだと言ってよいでしょう。
●二つの「集合知」
さて、ブログやSNSのような人を中心としたサービスとは異なり、ウェブ上に「場」やテーマを設け、これを中心にみんなで体系的に何かをつくろう、組み立てていこうという試みもあります。この、いわゆる「集合知」と呼ばれるものについても、ここで少し触れておきたいと思います。
ところでこの集合知という語ですが、英語にすると、まったく意味の違う二つの言葉に分かれてしまいます。一つは「collective inteligence(集団的知性)」で、ひとことで言えば、個人が協力して知恵や知識を獲得したり、発揮したりすることを言います。もう一つは「wisdom of crowd(群衆の叡知)」で、この語は、二〇〇四年にジェームズ・スロウィッキーが『みんなの意見は案外正しい(The Wisdom of Crowds)』を著して一躍有名になりましたが、一人の洞察よりも人々のグループの意見を総計したほうが正解に近いという現象を示すものです。これらはやはり別の概念として区別すべきであると考えられており、このうちウェブ上の場に集まって何かをつくろうという試みは、前者の集団的知性にあたります。集団的知性の代表例がウェブ上の百科事典「ウィキペディア(Wikipedia)」です。
ウィキペディアの書き手はふつうのユーザで、項目ごとに一つのページがつくられており、もしもページがなければ、自由に項目をつくることができます。記事の内容も自由に書くことができ、修正してもいいし、前に他の人が書いたのを書き直したりしてもよく、むしろ積極的にそれを推奨しているような、まさにウェブならではのサイトです。そしてたとえばある項目がどのような経緯で書かれてきたのか、あるいはどう書き足され、どう消されてきたのかという変更履歴もすべて見ることができます。二八二もの言語で書かれていて、内容も充実しており、今やたいていの用語を検索エンジンで調べれば、ウィキペディアのページが検索結果のトップに出現します。
多人数で編集して大きな事典をつくっていくというのは、本質的に難しい仕事だと思います。誰もが間違いないと思う事実については、確証のあるものを引用しながら記述していけばよいものの、どうしても説明のなかに個人の考えが入るとか、さまざまな説があることを書かないと説明できないといった項目の場合には、ある説を支持している人と他の説を支持している人が対立してしまいます。意見が対立している一方が記事を上書きすると、もう一方が消して書き直し、これを延々と繰り返すということが容易に起こってしまいます。ウィキペディアではこのような紛争を「編集合戦」と呼んでいます。
このような場合に備え、ウィキペディアには議論のページがあって、書き手同志で合意をとるためのしくみがあらかじめ設けてあります。ウィキペディアがおもしろいのは、運営者側が権限を与えて編集合戦を調停・管理する人を決めるのではなく、民主的な手続きが事細かく決められている点です。参加者のうち管理者になろうという人は、まず自分がこれまでウィキペディアにどういう貢献をしてきたのか、どういう分野が得意なのか、あるいはこんなメンテナンスをしていきたい、といった所信表明を行い立候補します。そして、他のユーザが支持するかどうか投票が行われ、その結果によって最終的に権限が与えられるかどうかが決まります。
このようなルールはほんの一例で、オンラインの事典にここまで決まりがあるのかというぐらい入念なものであり、なるほどウィキペディアのような巨大な知識の空間を維持するのは、並ならぬ仕事なのだと実感させられます。
●誰もが自由に編集する「ウィキ」
ところで「ウィキペディア」のことを「ウィキ」と呼ぶ人がとても多いのですが、実際には異なるもので、まず「ウィキ(Wiki)」というしくみがあり、それを使って「百科事典(Encyclopedia)」をつくろうというプロジェクトが「ウィキペディア」です。
ウィキというしくみは、一九九五年にウォード・カニンガムが自分のウェブサイト上に一つのプログラムを置いたのが始まりです。プログラムの名前は「ウィキウィキウェブ(Wiki Wiki Web)」というもので、その特徴はサイトにアクセスした人が誰でも情報を書き込んだり編集できるという、これまでのウェブサイトにはない機能でした。書き込み・編集だけではなく、書いてあるものを削除したり、ページを増やしたり減らしたりといったことも、全員同じ権限をもって実行することができます。それまでのウェブサイトのつくり方は、持ち主がすべてのページを隅々までコントロールするというものです。ところがウィキはそのような権限を、それを使う人やコミュニティにゆだねてしまって、使う人が都合のいいようにつくっていくという、新しい考え方を導入しました。ウェブを通じてそのようなコラボレーションができるのだということを示す、具体的なしくみがウィキです。
当時ウィキは新しい概念であり、明確な使い道が決まっていたわけではありません。メモをとるのに使う人もいるし、ぼくも他の人が書き替えることができる日記を書いてみたことがあります。
ウィキペディアはウィキの考え方を事典づくりに応用したプロジェクトで、二〇〇一年一月から開始し、瞬く間にウェブの世界に決定的な影響を与えていきました。多くの参加者の協力と情熱があれば、予想もできないくらい大規模で、人類に役立つものがつくれるということを、ウィキペディアは圧倒的なかたちで示していると言えるでしょう。
●ウィキペディアという協働作業
ふつうのユーザが書くウィキペディアに対して、本当にその内容が信頼できるのかという批判は常につきまとい、その論争は今も続いています。しかしながら少なくともウィキペディアは従来の事典とはまったく違うつくり方をしており、そこにはまた別の価値や利便性があるものと考えられます。
誰でも編集できるということは、当然いたずらをする人が現れることがあります。そこでウィキペディアでは編集履歴を使ってすぐに元へ戻せるような機能を備えており、記事の内容が維持されています。またいつ誰がどのように書き替えても消してもいいというしくみは、別の意味で信頼を与えてくれる可能性があります。毎日のように編集されている項目であれば、これは新しい概念でまだ共通認識ができていないとか、編集合戦が起こっているのかなといったことが読み取れます。このようなことは発刊時にはすでに固定化されているこれまでの百科事典では知り得ない情報です。
また各項目の長さについても制限がないので、項目によっては既存の百科事典よりも分量が多く、充実しているページもあります。ちなみに日本語版ではポップカルチャーに関する項目、たとえばテレビ・ラジオ番組の話題、国道や鉄道の駅に関する情報、アニメ・漫画作品に関するものがたいへん多いことが指摘されています。これらのように事実を列挙する必要があるジャンルは、活動する人が多ければ多いほどいいに越したことはありません。興味を持つコミュニティが活動すれば項目が増えていき、書いている人の多様さをみれば、コミュニティの大きさなどもうかがい知ることができるでしょう。こうなるとむしろ専門家というのは、博識であるだけではなく、今後はそうやって集まってきたより多くの事実に対して、そのどれが正しいとか、どう解釈するかといったことを担う人々であり、情報をつなげたり、構造化していくといった点でその専門性を発揮していくものと考えられます。
これまでの百科事典があまりカバーしていないような新しい言葉や概念でも、どんどん項目が立てられていく点も、ウィキペディアの大きな特徴です。実際、どこかで新しい語に出会って、その単語を検索エンジンに打ち込めば、すぐにウィキペディアで調べられることも多く、そのようにして利用が拡大していきました。現在、ウェブでのウィキペディアのアクセスしやすさは突出しており、従来の百科事典とは比較になりません。
こうして見ていくと、ウィキペディアが保証しているのはある時点にアクセスした際の情報の中身の正しさではなく、長い目で見れば間違いは正され、多くの人の協力によって時間をかけていくことでよりよい情報になっていくしくみそのものであることがわかります。誰でも自由に編集できるということは、さまざまな懸念を呼び起こすものの、人間というのは、悪いことよりもいいことの方を少しだけ多く行うものだ、という信念が背後にあるのでしょう。
●バラバラの個人が生み落とす叡知
ではもう一つの集合知、「wisdom of crowd(群衆の叡知)」とはどのようなものなのか、典型的な例を一つご紹介しましょう。ある研究者が道端に一頭の牛をつなぎ、通りかかった人々に体重を当ててもらいます。一人一人の回答を見ると数値にはかなりのばらつきがあり、正解者は一人もいません。ところが、回答者の答を全部集めて平均を取ると、実際の体重にかなり近い数字が出るのです。このような現象を表すのが「群衆の叡知」です。つまり統計的なアプローチということになるわけですが、一人一人の能力はバラバラでも、グループ全体では高い知性を発揮するという現象を指しています。
こういったアプローチの代表格は第四章で取り上げたグーグルのランキングの方法であるページランクです。ページランクの基本となる一本一本のリンクは、真面目に考えて張られたものもあれば適当につくられたものもあるでしょう。そのようなリンクでも、膨大な数を集めて計算すると、最終的には質の高いページが上位に来るようになる点がページランクの利点であり、「群衆の叡知」の特徴をよく表しています。
「群衆の叡智」の効果を得るためには、大量のデータが必要です。これと比較すると、ウィキペディアは誰にでも開かれているとはいえ、閲覧するだけのユーザに比べて、実際に編集に参加するアクティブな参加者はそれほど多くはありません。多くないがゆえにそれぞれの人に議論が成立して、整理が進むといった面はきっとあることでしょう。これに対して「群衆の叡知」を導き出すためには、集計対象となる膨大なデータがどうしても必要になります。
もう一つ重要なのは、そのようなデータを扱う場合には、それぞれの個人が勝手に行動しているほうが望ましく、お互いに影響を及ぼさない状態に置かれているほうが、正確な評価につながるという点です。これも先ほどのウィキペディアとは正反対で、ある場やテーマに集まって何か一緒にやろうというのではなくて、バラバラの個人が好き勝手にやっているその振る舞いを統計的にとらえるとうまくいくのです。
このように見ていくと、同じ「集合知」という言葉に、まったく異なる二つの知のあり方が含まれていたことがわかります。また、群衆の叡知の土台となるバラバラな個人という考え方は、巨視的に見れば集まりであるSNSにも適用できるものと思われます。SNSは新しいコミュニケーションの方法であるだけではなく、知を生み出す方法にもなる可能性を秘めています。
●質問に答えることで増えるコンテンツ
情報を自ら開示することによって、予想もしなかった反応を得られるというウェブならではのコミュニケーションは、多くの人々が参加することによっていっそう可能性を増しています。このようなコミュニケーションをさらに活性化させるには、積極的に情報をオープンにしてもらうことが重要です。そして、人からコンテンツを引き出すためのしくみが整備されているサービスは、なかなかの盛り上がりを見せています。
ブログやSNSでのコミュニケーションのなかで、マイナーな趣味について触れて反応を見るというのも一つの方法ですが、より直接的に浮かび上がらせるような工夫をすれば、ウェブ上に出てくる知識はまだまだたくさんあるはずです。そのための方法として、古くからあるQ&A形式のサイトを活用することが考えられます。日本における代表的なサービスには「Yahoo!知恵袋」「教えて!goo」などがあり、これらのサイトでは教えて欲しい人が質問を投稿し、誰かに答えてもらうという形式になっています。自分が知っていることで、特別大したことだとは思っていない……そのような事柄は、わざわざ発信するきっかけがありません。けれども聞かれたら答えられる、教えて欲しいという人がいるなら答えてあげるという人は少なくありません。これまでウェブの使い方として情報を受け取るばかりだった人も、このようなサイトを通じて、誰かに役立つものを提供する側に立つことができ、実際に多くの人が回答を寄せています。最近はふつうの人からふつうの人へインタビュー形式で質問するというサイトも立ち上がっており、聞かれなければ語ることのなかったその人についての情報が少しずつ開示されるようになってきています。
Yahoo!知恵袋(http://chiebukuro.yahoo.co.jp/)
●タイムラインという大発明
いま何してる?─ではじまるコミュニケーション・ツール、ツイッターが登場したのは、二〇〇六年のことでした。人々が発信した短いメッセージを時間軸で並べて追体験するというコミュニケーション形態は強いインパクトがあり新しいもの好きの人たちの間にまたたく間に広まっていきました。本章では、現在のウェブに特徴的な、時間に関わる側面について考えてみたいと思います。
ツイッターは「タイムライン」と呼ばれる時系列に沿った画面構成で、それまで私たちが発さなかった、あるいは言いたいと考えたこともなかったような短い言葉を引き出していきました。そしてふとつぶやいた一言に、他の人から思わぬ反応をもらったりして、コミュニケーションが広がっていったという経緯です。ツイッターは、このようにして今起きた、あるいは起こりつつある出来事を逐一記録し、発信するという新しい習慣をウェブに持ち込んだと言うことができるでしょう。これはやはり一つの発明であって、他のコミュニケーション・ツールの位置づけや使い方も少なからず変化していきました。
しかし振り返ると、書き込んだメッセージなり記事なりを時系列に沿って整理できると便利だということに、ブログツールが登場したとき、私たちはすでに気づいていたはずです。ブログ以前のウェブは、時系列的に情報を整理するという考え方がありません。ウェブページの内容を書き替えてしまえば、それまでの古い情報はまったく消えてしまい、本当に存在していたかどうかも確かめることができません。この点、ブログツールは、新しい記事を書いたらページが自動的に作成され、それ以前に書いたすべての記事はアーカイブとして蓄積され、あとからいつでも日付順に並べて読むことができます。個々のブログ記事を書いたり読んだりするときには、特にリアルタイム性を感じることはありませんが、ある人の書いたものを古いものから順番に読んでいけば、こういう順序で考えていったんだという流れのようなものを理解することができます。長期間にわたってブログを読めば、その人の思考の軌跡を追体験することもできるでしょう。
ブログは人によって週に一回とか、あるいは毎日といったふうに、その更新頻度はさまざまですが、これがツイッターのようなより手軽な、文字数の少ないコミュニケーション・ツールで自由に書く機会が出てくると、一時間に一回とか、何分ごとといったより短い間隔で、つぶやきが書かれることになってきます。ブログと違って、ある程度思考を整理したうえで書かれたものではなく、その場その場の思いつきの文章になっているため、それをあとで時間軸に沿ってまとめて見た場合にもリアルな感じが残っています。こちらもやはり長い時間にわたって読めば、その人の体験の感覚的なところまで追体験できることでしょう。
時間軸の面からウェブのしくみを見てみると、その本質は非同期コミュニケーションであると言えます。同期と非同期のコミュニケーションの違いは、手紙と電話とで比較すればわかりやすいでしょう。手紙の場合、送り手は受け手の都合を考慮しないで送ります。また、その手紙をいつ開封するかは受け手の側に任されています。一方、電話の場合には、当然ながらお互いが同時に受話器を持ってやりとりしないと会話が成立しません。これを同期的なコミュニケーションと呼びます。ウェブは、情報を公開した人が何時何分にデータをアップロードしたかということと、それを見た人が何時何分にアクセスしたかということの間には、特段の関連性がありません。送り手と受け手とは基本的には時間的にずれている、つまり非同期であるのが、ウェブでの情報共有のしくみです。
またウェブの場合、非同期であると同時に、不特定多数に向けたコミュニケーションである点が特徴的でした。少数かつ特定された相手が対象なのではなく、ウェブという広い空間にまずは情報を置いてしまい、読むか読まないかは不特定多数の相手にゆだねるかたちです。このようなコミュニケーション形態を補完するかたちで、同じウェブの技術を使って、非同期で特定少数に向かって発信するものや、同期かつ不特定多数対象のものなど、他の組み合わせが生まれてきている─これが現在の状況です。
●環境化する「ソーシャル」
ところでSNSのフェイスブックでは、ツイッターのタイムラインというしくみをみんなが支持するようになったとたん、メイン画面がタイムライン中心のデザインに変更されました。それ以前はどちらかというとミクシィふうの画面だったように記憶していますが、リアルタイムで友人の状況がまとめて見られることが最優先されるようになったのです。フェイスブックはこのタイムラインというウェブ上のコミュニケーションの変化をとらえ、毎秒何万人という書き込みが即座に友人たちに伝わるしかけを構築していきました。
タイムラインのしくみを使うことで、ユーザが感じ取るのはやはりリアルタイムな感覚でしょう。フェイスブック上の誰かが「いいね!」ボタンを押すと、「押されました」という通知がほぼ同時に届きます。そしてそのページを見ようと思えば、即座に見られるという状況がつくられています。ユーザもフェイスブックの画面を常に開いておき、自分の作業をしながら通知があるとじっくり読むといった使い方が当たり前になってきており、ソーシャルネットワーキングが明らかに自分を取り巻く環境の一部になりつつあります。何かの合間に時々サイトへ見に行くというのではなく、SNSからの情報が常にざわざわと聞こえてくる環境音のようなものになってきているのです。
技術的に見ると、ウェブのしくみを使ってこのようなことを実現するには、ユーザ数が増えてもレスポンスを維持するための技術が必要になります。ユーザの持つ人間関係のうち誰に見せてよいかをコントロールしながら瞬時に伝達することは簡単ではありません。しかしこのような技術の蓄積によって、現実世界は同期型、ウェブは非同期型という従来の垣根を超える動きとしての「リアル」が、今まさにSNSによって実現されつつあります。
またツイッターのタイムラインから一歩進んで、SNSならではの人間関係のネットワークを活用することで、自分だけでなく他の人の一連の書き込みを一緒に見ることもできます。知り合いのみんなが一斉に同じ話題を採り上げるとか、お互いがお互いの書き込みを見ることによって、面白いと思った話題が即時性を持ちながら他の人に広がっていく様が見えるようになってきています。
●モバイルでリアル化する追体験
これまで、ウェブ上に情報を書くためには、パソコンがインターネットにつながっているという環境が不可欠でした。一方、二〇〇〇年代初頭から携帯電話によるデータ通信が普及し始め、いまでは通話よりもデータ通信のほうが多いという状況になっています。
そのケータイも、iPhoneやスマートフォンなどの新しいモバイル端末へと急速に発達し、その性能は、今や小さなパソコンと呼べるほどに進化してきました。どの端末も通信機能を持っており、その接続先も各社が独自に提供している閉じたサービスではなく、ウェブに直接つながる能力を備えています。時間と場所を選ばないモバイル端末のフレキシビリティに加えて、ウェブで提供されているサービスのほぼすべてを享受できて、使っている人同士がどこにいてもつながれる環境が、今や多くの人のものになってきました。このような環境によって、いつでもどこでも思ったときに手元の端末ですぐウェブに書き込むという習慣が、一気に広まりつつあると言えるでしょう。実際、SNSはもともとパソコン向けのサイトでしたが、近年ではアクセス数を見てもモバイル向けサイトのほうが多くなっています。
また通知を受けたり、反応を得たりするリアルタイム感は、書き込む人のモチベーションを支えています。ツイッターについては、モバイル端末用の使いやすいアプリケーションがいろいろと出回っていて、このことがツイッターの隆盛に拍車をかけています。
パソコンでやりとりしていたころと比べると、コメントを書こうかどうしようかを考えるのに一〇分ぐらいかかっていたのが、三分になり、一分になりというふうに、反応のスピードもずいぶん短くなってきました。そして一分を切るようになると、やはり感じ方が質的に変わってきます。実際には時間も空間も隔てられていますが、ウェブによってそれらの境界が超えられることで、これまでとは少し違う「追体験」を生み出しているように思われます。現実世界の対面的なコミュニケーションのほうがもちろんリアルなのですが、ウェブが非同期であり、何秒か遅れて伝わったとしても、やはりいきいきとしたリアリティが感じられます。
そして、このようなリアルタイム性がSNS上で実現されると、そのコミュニケーションが、相手の存在をより具体的に感じさせてくれます。何かを書き込んだら数秒後に「いいね!」の反応が二人から、数分後にはさらに三人から来るという体験は他では得られない強烈なものです。まさに今、ウェブの向こう側にいるのは不特定多数の誰か、というぼんやりしたものではなく、あの人やこの人であるというリアリティをはっきりと意識させるものであり、このようなコミュニケーションは今までなかったからです。
ウェブ上にはこれまで、見えない他者へメッセージを投げかけておいて、反応があるときもないときもあるといった、既存のコミュニケーション観とは少し異なるやりとりがありました。その一方で、あらかじめ相手が決まっている特定少数のコミュニケーションがリアルタイムで行えるツールとして「チャット」や、パソコンやモバイル端末のアプリケーションである「スカイプ」「メッセンジャー」なども以前から存在し、広く使われてもいます。このようなサービスやコミュニケーション・ツールと比較しても、SNSにリアルタイム性が加わったコミュニケーションでは、相手の存在を非常にリアルに想像させる点が特徴的です。またこのことが、ソーシャルネットワークの存在をより明確に感じさせることにつながっています。
●動画共有から動画配信へ
よりダイレクトに人とコミュニケーションをしていきたいという流れのなかで、リアルタイム性を動画共有に応用する手法も生み出されました。動画共有サイトである「ニコニコ動画」では、アップロードされた動画のなかに、視聴者がコメントを書き込んでいくことができ、また他の人が書き込んだコメントと一緒に視聴できるのが大きな特徴です。一〇分の動画があれば、流れのなかには盛り上がるシーンや瞬間があり、そのような場所に集中的にたくさんの人がコメントを書き込んでいくといった具合です。たくさんの文字で画面が埋め尽くされ、元の映像がほとんど見えなくなってしまっているような動画を見たことのある方も多いでしょう。たくさんの人によってつけられたコメントを動画と合わせて見ることによって、まるでその人たちと一緒に見ているような感覚が生じます。書き込んだ人と見ているユーザは、本来的には非同期であり、追体験でしかないわけですが、リアルタイムを模しているという意味で「擬似同期」という概念で理解することもできるでしょう。このような追体験や擬似同期を実現する各種のしくみは、やはり人々が直接的なコミュニケーションを求めているからこそ、ヒットしていったのだと思われます。
そうなると究極的には本当のリアルタイム、すなわち今起こっていることを今見たいということになってくるのは、自然の流れです。過去にアップロードされた動画にコメントを入れたりしながら共有していたのが、今起こっていることを今流して、すぐに見られるようにしようというしくみが提供されるようになります。二〇〇七年には「USTREAM」がいち早く動画のリアルタイム配信サービスをスタートさせ、あらゆるものを生中継するという流れをつくっていきました。考えてみれば、実生活以外でリアルタイムなものを見る機会というのは、これまではテレビしかありませんでした。そのテレビでも、生中継で放映されるのはニュースやスポーツのイベントなど一部の番組であり、見られる機会はそれぐらいしかなかったわけです。
ウェブでも、人々が同じ時間を共有する手段はこれまでほとんどありませんでした。そこへ、ふつうの個人がカメラとマイクと通信手段を用意するだけで─いまや小さなモバイル端末一台ですべて揃ってしまうわけですが─ウェブを介して多くの人々に生中継できるというしくみが開放されたことになります。とにかくライブをやってみようとか、何か自分たちで番組をつくってみようという人たちがどんどん現れて、新しい表現が生まれています。ちなみにニコニコ動画にも、ニコニコ生放送という同様の配信機能が提供されています。リアル世界とほぼ同様の「同期」のコミュニケーション手段が、ウェブ上でできるようになってきたわけです。
またこのような動画配信サイトには、必ずといっていいほどコメントを受け付けるウインドウが設けられています。システムをつくる側からすればどうということのない簡単なしくみですが、そこが今までのテレビや、あるいは共有するだけの動画サイトとは、決定的に異なっています。たとえば視聴者とひたすらやりとりし、コメントをもらうというだけの、これまでにはない形態の番組もたくさん成立しています。こういった動画配信は、まずは自分のことを知って欲しいという新人たちや、これから世に出ようというミュージシャンなどが、パフォーマンスや主張を届ける手段として定着しつつあると言えるでしょう。
その一方で、マスメディアですでに活躍するような著名な人々が使っている例もあります。とくにウェブを介した生中継が一躍有名になったのは、国会議員による事業仕分けがきっかけでした。その後、有名アーティストのライブ配信や、大企業の決算発表会の生中継なども、大きなアクセスを集めて話題になりました。その他、公共性の高い講演会や、学会が主催するシンポジウムなども配信される機会が増えています。
●安田講堂からのシンポジウム生中継
二〇〇九年の暮れ、既存の学問分野を超えたウェブならではの研究を発表する機会をつくるために「ウェブ学会」というシンポジウムを企画して、そこでリアルタイム配信に挑戦しました。どんなイベントでも開催日時と会場が決まっていて、それが時間的・空間的な制約になります。そのために来られない人もいるはずです。一方、会場に行くことでしか得られない生の情報というものも確かにあって、これをウェブの動画配信でどこまで再現できるのか、実験的に取り組んでみようということになりました。
シンポジウムは東京大学本郷キャンパスの安田講堂で開催され、このリアルな会場には参加者が千人近く集まりました。そして、シンポジウムの開始と同時に、USTREAMとニコニコ生放送を使って配信を開始しました。また会場には無線LANを用意してモバイル端末やパソコンからアクセスできるようにし、質問は会場からも会場の外からもツイッター経由で行ってもらうようにしました。当時はまだどの程度配信がうまくいくかわからない状況で、視聴者の数も予想できなかったのですが、最終的にはUSTREAMでは同時視聴者数が多い時で約五千人、ニコニコ生放送のほうは、延べ二万人という結果になりました。会場は千人までしか入れないので、リアルタイム配信のおかけでそれ以上の方々に体験していただけたことになります。
すべてがうまくいったわけではありません。ぼくは会場にいて、これを数千人の人々が視聴しているということをうまく実感できなかったのですが、講演者も同様の感想を持ったようです。今後、技術やサービスの進歩によって講演者・参加者が互いの存在を感じられるようになれば、講演をする・聞くという関係性そのものが変わっていくかもしれません。またリアルな会場と、動画配信の参加者の比率も、たとえばリアルな会場は数十人程度で、動画配信の視聴者のほうをより多くするという方向性も考えられます。初めての試みもあって苦労もありましたが、動画配信について大きな可能性が感じられる貴重な体験となりました。
新しいコミュニケーション・ツールやメディアの登場に立ち会うときには、いつも違和感に似た感覚が伴います。しかし時を経て、多くの人々に使われていくことを通じて整理され、評価が定まり、混乱期から安定期へと移っていきます。たとえばブログであれば、今ならある程度著名なブログというものがあり、マスメディア化しているものも少なくありません。見るほうも評価の高いブログとして見つけやすい構造ができてきており、情報の受け手としては便利な一方、書き手としては、新規参入しても報われにくくなってきていると言えるでしょう。このように新規参入者の勝ち目が低いようなところでは、次第に新陳代謝が起こりにくくなっていくのは自然の流れです。そのような状況のなかに新しいツールやメディアが生まれてきたら、何かを成し遂げようと思った人は進んで新しいところに賭けるといったことは当然起こってくるものと考えられます。このように、新しいメディアが次々と生まれてダイナミックに変化していくのは、ソーシャルメディア本来の姿ではないかと思います。そのような環境では、究極のソーシャルメディアといったものがあるのではなく、常に変遷を繰り返していくのではないでしょうか。
またコミュニケーション・ツール、あるいはメディアというものは、その数が増えれば増えるほどさまざまな可能性が生まれ、相互に深く影響を与え合います。その意味で、どれか一つだけが生き残るというよりは、マスメディアらしい、評判が確立しているところに寄り添っていこうという動きと、クチコミのようなフラットな情報を信用しようという動きが、ともに並存していくというのが実際のところだろうと思います。そういったなかでユーザは常に、より自分にフィットしたコミュニケーションを求めて、自由にメディアを乗り換えながら、使いこなしていくに違いありません。
講演する大向(ケツダンポトフ)
http://www.ustream.tv/recorded/2731784
会場の様子(TechCrunch Japan)
http://jp.techcrunch.com/archives/jp-20091210-report-of-web-symposium-the-first-half/
●見知らぬ人とコミュニケーションするために
インターネット以前には、コンピュータ同士がコミュニケーションする、あるいは通信する─英語だとどちらも「communication」ですが─のは、結構たいへんなことでした。情報処理の教科書には、コンピュータの通信は七つの層に分かれていて、まず電線のような物理的な媒体にどう電気信号を流すかというルールから決めなければならないということが必ず出てきます。この「物理層」から始まって、最上位の「アプリケーション層」に至るまで七つのルールを守って初めてコンピュータは互いにデータをやり取りすることができるようになります。コンピュータはそれぞれ個々に独立したシステムであり、いわば他者同士であってお話しできないけれども、共通の約束ができるとコミュニケーションができるようになるというわけです。
人間もコンピュータと同じで、アルファベットなり漢字なりの文字を共有していなければ書かれたものが文字であることを認識できないし、文字が理解できたとしても、文法などの言語としての規則が共有されていなければ通じません。またさらに一段上のレイヤー(層)には、「あれがね」と言ったときに「ああ、あれね」と通じるのか、「あれって何?」となってしまうのか、といったコミュニケーションのレベルがあるでしょう。学術の世界でも、一つの物質の呼び名が、医学、生物学、脳科学などの分野ごとにまったく違うといった例は枚挙にいとまがありません。そういったことを橋渡ししていかなければ、ユーザが欲しい情報へとうまく誘導できないということは、第四章の検索エンジンのところでも見てきました。
このことはコンピュータの側から語っても、人間の側から語っても変わりません。会ったことのない人に情報を届ける、あるいはコミュニケーションをとるためには、私たちは無意識にせよいくつかの段階を踏まえて行っているはずなのです。たとえば日常の話をするにしても、ちゃんと周辺の情報や文脈を補いながら話さないと通じない、といった「お作法」のようなものがありますし、たとえば論文を書くときには、既存の論文を参照して何が新しいのかがわかるようにしなければなりません。あるいは当たり前のように存在しているこの「本」という媒体も、一冊一冊単独に存在しているのではなく他の本と関連しあっていたり、誰にどう語るかという文体のような問題も含めて、「本の作法」といったものが長い時間をかけて編み出されていった結果として生まれたものに違いありません。
ではウェブにはどのような作法があるのでしょうか。ウェブの大きな特徴の一つは、情報の受け手が情報配信のタイミングをコントロールするシステムである点です。このような受け手主導のシステムを「プル(pull)型」と言い、一方インターネットのもう一つの代表的なサービスであるEメールのように、情報の送り手が主導権を持っているシステムは「プッシュ(push)型」と呼ばれます。
プル型のシステムでは、情報の送り手は、その情報を誰に送るかを指定せず、受け手がいつでもアクセスできるような場所に情報を置くだけの役割に留まります。そして、その情報がいつ、誰に読まれるかについては関与することができません。一般的なコミュニケーションの文脈では、受け手が誰かということと情報の内容は一体化しており、プル型のウェブがコミュニケーションのためのメディアと呼べるかについては議論の余地があります。どちらかといえば、ウェブのアーキテクチャはテレビやラジオ、あるいは新聞など、不特定多数へ発信するマスメディアに似ています。マスメディア型の情報伝達においては、情報の内容は受け手による制約を受けません。個人に情報の内容を問わないマスメディア型の情報伝達手段を与え、その結果として多様性のあるコンテンツが入手可能になったことが、ウェブの普及につながったものと考えられます。
なぜブログが流行ったのか、なぜSNSが普及してきたのかといえば、先に投げてから反応を待つ、という個人がそれまでできなかった「プル型」のやり方ができるようになったことで、自分の予想を超えたびっくりするような反応が返ってくることがうれしいとか、おもしろいから、きっとうまくいったんだろうと考えられるわけです。ウェブ上に多くの個人が参加するようになった過程で、人間は見知らぬ人と話をするための新しいスキルを獲得しつつあるということもできるでしょう。
しかし一方で、そのことが同時にコンテキストを共有していない人たちとの摩擦を生んできたことは、これまでにも見てきました。見知らぬ人とコミュニケーションするには、やはりいくつかの段階を設けたりといった「構造化」が必要になってきます。というのも現実社会の場合には、誰かに話しかければ物理的に声が届く範囲はおよそ決まっています。このようにして距離や時間といったさまざまな制約によって、結果的にコミュニケーションが成立するというのが、現実社会の特徴です。これに比べて、コンピュータのなかの世界にはそのような制約がほとんどないため、自分でコントロールしたり、裁量できる余地が格段に広がります。その反面、意識的にコントロールしなければ、他人と何らかのつながりをつくることは難しいでしょう。この「構造化」の作業のことを、ここでは「デザイン」と呼ぶことにしましょう。この「デザイン」は、ウェブページのレイアウトや雰囲気をどうするかといった狭義のデザインではなく、むしろウェブ上での情報のあり方に近いものです。コミュニケーションをどうデザインするのか?─ウェブでは、このようなデザインこそが「ウェブらしさ」の鍵を握っているといっても過言ではありません。ではウェブらしい、コミュニケーションのデザインというのはどういうものなのか、本章ではいくつかの具体例に沿って、そのポイントをご紹介していきたいと思います。
●アップルの企業サイト・デザイン
「アップル社(Apple Inc.)」のホームページへ行くと、見知らぬ不特定多数の人々とコミュニケーションするにはどうしたらいいのか、そのヒントがいろいろと見つかります。
まずアップルのホームページには、アップル社とは何であるかということがまったく書いてありません。アップルと比較すると、普通の会社のサイトにはずいぶんといろいろな説明があります。それは一つの組織で多岐にわたることをやっているからこそで、なぜそれに取り組むのか、なぜそんなにメニューがあるのか、これとこれがどう関係があるのか、といったように際限なく説明が増えていきます。
一方、ユーザとしてアップルに期待することはいったいいくつぐらいあるでしょうか? パソコンと電話とiPad……多くてもその三つぐらいしか思いつかないし、仮にも車をつくって欲しいなどとは思いません。アップルは、そのようなまわりの期待を敏感にとらえて、やらなくてもいいことはやらないという点で徹底しています。アップルにはスティーブ・ジョブズがいたからうまくいったと言われることがよくあります。その理由はリーダーシップの強いトップが、企業の意思決定を集中して行うからだという話になるのですが、ではトップダウンでありさえすればいいのでしょうか? トップダウン性が発揮されているのは、実際には極限までやることを絞り込み、ユーザの期待をコントロールするところであり、彼が思う存分やりたいことをしていたわけではないという点が重要だと言えるでしょう。
期待のコントロールという点で見ると、ユーザとのよりよい関係を築くにあたって、「ユーザの声を聞くことが大事だ」と言えば、それに反対する人はいないでしょう。そのためにコールセンターがあって、オペレータが一対一で電話を受けているというのが普通の光景です。しかし本当に一人一人の話を、まじめに聞いていればいいのでしょうか。聞けば聞くほど、みんなバラバラのことを言いますし、それに誠実に答えていると機能は増え、商品は増え、説明しなければならないことは増え……というふうになっていきます。「聞きすぎ」の状態に傾くと、ケータイだったらカメラはきれいなほうがいい、防水であるほうがいい、テレビも見られるほうがいい、財布がついていたほうがいい……というふうになりがちです。
ウェブ上で発せられる人々の声は膨大です。その声とコミュニケーションするということは、何も逐一聞くだけではありません。膨大であるからこそ何が重要なメッセージなのかを探り当て、それを反映していくことが企業にとって最も重要な課題になります。先進的な企業ではコンピュータの力を借り、統計的な分析を行っています。
●グーグルのデザインは「デザイン」か?
統計的な分析を武器に突き進んでいく企業といえば、何といってもグーグルです。グーグルのウェブサイトの見た目は常日頃から微妙な変更が行われています。これは科学の実験と同じプロセスになっていて、いくつものデザイン候補を用意し、ユーザの反応を収集し、統計的に解析しています。〇・一%でもクリック率の高いものはどれか、という基準で最終的なデザインが決まります。
通常、デザインは企業のアイデンティティであり、資産です。ですからどの企業も人材やお金をかけてスペシャリストに依頼し、彼らが決定しています。制作者にとってはまさに腕の見せどころであり、一流企業のウェブデザインを担当するのは最も活躍しているデザイナーの証であると言えます。
ところがグーグルのデザインに関する意思決定のあり方は、「デザインとは何か」という定義を大きく覆します。これを推し進めていけば、優れた個人がつくるものという今までの価値観から遠く離れて、デザイナーは「候補をつくる人」でしかなく、決定する人ではないということになってしまいます。クリック率という、見えない、不特定多数の人々の行動の結果に大事なものの決定をゆだねるというのは、これまででは考えられなかった、ウェブらしい転換だと言うことができるでしょう。
グーグルがやっていることは、企業がふつうに考え得る道とはまったく違う方向へ行っています。そこにある原則は、ユーザに決めさせるという点にあります。あり得ないことのように考えられますが、ウェブ上のコミュニケーションを見渡してみれば、たとえばブログでもツイッターでも、未知なるものに言葉を投げかけて、言ったことの価値はあとから決まるという流れです。無反応ということもあるし、盛り上がることもあって、出す側としてはさまざまな期待を持って投げかけるのだけれども、その価値は最終的には受け手が決めていきます。
人の話を聞いてそれを活かすということは、もちろん昔からありました。まずは身近なコミュニティに限ってやりとりをするというのが現実的だったでしょう。しかし範囲を区切った瞬間から偏りが生まれ、そこからサンプルを抽出すると全体の意見とは異なる結論が出るかもしれません。あるいは声の大きい人に結果が左右されるといった、別の問題が起こる可能性もあります。そのように、どう転ぶかわからない他者に大事な決定を委ねるなんて、現実にできるわけないと思われてきたのではないでしょうか。それを可能にしたテクノロジーは、今のところウェブしかありません。そんなおもしろさがウェブらしさをつくっているのです。
●「ウィキノミクス」とワークスタイル
不特定多数に決定を委ねるのは極端な例であるとしても、人々の仕事観、職業観には確実に変化が起こっています。たとえば「デザイナーになる」とか、あるいは「会社に就職する」とはどういうことなのか、これまでとは少し意味合いが変わってきているのではないでしょうか。
デザインを発注する会社の側からすると、これまでは付き合いのあるデザイナーに頼むというのが一般的だったわけですが、世界を見渡してみれば、実はそのようなデザインができる人は大勢います。そこで全世界のデザイナーに「うちの会社のロゴをつくってみませんか」「名刺のデザインを募集します」というように募集し、一番いいものを採用してお金を払うという取引が、活発に行われ始めています。このしくみを活用すると、これまではせいぜい数種類の案のなかから選んでいたものが、選択肢が大きく広がり、結果としてクオリティの高いデザインが得られます。
デザインに限らず、仕事の内容や、発注する企業の層も広がっていて、アイデアを対象とした市場のようなしくみもウェブ上にできつつあります。企業の大小を問わず、こんなことがしたいんだけれどもどういう技術が適用できるのか、どんなアイデアがあるのか、世界へ向けてやりたいことを提示して「それができる」というチームがいれば、そのチームに資金を与えて実現してもらおうというわけです。このようなしくみができることで、意外な技術を持っている人が現れたりして、世界中の「ものづくり」のプロセスがどんどん変化していきます。ウェブを介して要望をする人とつくっている人がマッチングされ、新たな製品が生み出されていくのです。
このようなしくみを使って業績を上げる企業も出てきており、こうなると企業の存在意義も再考されることになります。これまではアイデアを生み出し、それを元に戦略を決定して世の中に適応していくことが企業という存在の核であり、このような中枢的な機能を外部にゆだねるのは考えにくかったと思います。ところが、ウェブを通じたアイデアと技術のマーケットができれば、一つの組織ですべてをまかなうのではなく、無数の人々の協働作業によってものごとを実現するような組織が可能になるのではないか、という見通しも生まれます。二〇〇六年には、このような思想に対してウェブのコラボレーション技術である「ウィキ(Wiki)」と「経済学(Economics)」を組み合わせた「ウィキノミクス」という造語が発案されました。今や外部の知識をいかにうまく管理していくかとか、世界中に存在する知識を適切にまとめる手腕などが、企業の業績そのものにダイレクトに影響してくるような時代になってきたのです。経済活動が変われば個人の働き方も変わります。このような動きはまだまだ始まったばかりとはいえ、世界規模で進行しています。
組織と関わる個人の側から見ると、やはり従来と比較して組織に所属することの意味が薄れ、組織との結びつきもゆるくなっていると言えるでしょう。知識や情報が組織内部に蓄積される方向から、どんどん外へ広がっていくことに伴い、組織の外をコントロールするためには組織のなかにいなければならないのだという考え方も、変わりつつあるのが現状です。とくに組織内にいる必要がないとなれば、フリーランスの人々がその時々の目標に合わせてベストなチームを組み、アイデアを出し合って実現していくといったフレキシブルな働き方も可能になります。今すでにIT業界などではチーム制で動いているところもありますが、これから徐々にこのようなスタイルが他の業種にも広がっていくものと思われます。
仕事の新しいマッチングのしくみが当たり前になれば、今日はイタリアの仕事をして、明日はカナダの仕事をするというように、国境を越えて活動できる可能性も広がります。もちろん言語の壁、文化や習慣の違いなどによってすべての仕事がグローバル化していくのには、相当に長い時間がかかることでしょう。一方YouTubeなどを見ればわかるように、動画表現や音楽のように言語的な要素の比率が低いものやプログラミングなどの分野では、グローバルなワークスタイルが浸透する日も近いのではないでしょうか。
●CiNiiのリニューアル・デザイン
さて今度は、ぼくが関わっているCiNiiについて、そのデザインのポイントを簡単にご紹介したいと思います。CiNiiは二〇〇五年から運営されている論文検索サービスですが、途中でリニューアルの機会があり、そこでさまざまな改良を行いました。
アップル、グーグル、ヤフー等々……ウェブのコミュニケーション・デザインには、多くのすばらしいお手本があります。このようななかで学術的なサービスであっても、デザインに意識的でなければ、ユーザに不満を与えてしまい、結果として利用率の低いサービスになってしまうことでしょう。そこで、お手本を生かしながらよいサービスをつくるという方針を立てました。
サイト全体の見た目を考えるとき、情報がぎっしり詰め込まれたヤフー、検索窓しかないグーグルを両極端とすれば、その間のどこかに最適なデザインがあるはずです。それはウェブサイトがどんなサービスを提供しており、何が期待されているのかということと深く関係します。ヤフーの場合はなるべく長く滞在してもらうことを目的としたサイトであり、最新のニュースやユーザが予期していないコンテンツを並べて、寄り道をたくさん用意しています。一方グーグルは、なるべく早く自サイトを離れて、検索結果のリンク先へ飛んでいって欲しいというデザインになっています。
そう考えると、CiNiiはグーグルに近いポジションにあります。ユーザにはできるだけ早く論文を見つけてもらい、それを使ってどんどん研究を進めて欲しいので、あまり長居したくないような、ちょっと素っ気ない色使いのページに仕上げました。
またこのリニューアルでは、これまで契約機関に所属している研究者・学生のみにアクセス権限が与えられていた情報を一般公開し、グーグルや、グーグルの論文検索機能である「Google Scholar」などの外部の検索エンジンからも検索できるようにしました。すると、一般のユーザが検索エンジンから直接、CiNiiのページにアクセスしてくるケースも想定しなければなりません。ここであまりにも無愛想なデータベースの検索結果のページのようなものが表示されれば、多くのユーザは内容を受け取ることができず、そのまま帰ってしまうことでしょう。CiNiiが扱っているのは専門的な学術論文ですが、論文のなかにも一般のユーザに役立つものは多々ありますし、一定の分量の情報がまとめられたものという意味では書籍と大きな違いはありません。そこで、普段オンライン書店を利用する人であれば、「ああ、これはまとまった情報を入手できるサイトだ」ということが理解できるような表示形式にしています。
サービスのユーザ層を考えるとき、これまでのCiNiiの主要なユーザである研究者・学生と、一般ユーザのどちらを優先するかは難しい問題になるだろうと予想していました。前者のような専門的なユーザが好むインターフェイスと、誰でも使えるインターフェイスは得てして異なるものになりがちです。しかし、簡単なものは専門家にも理解できるけれども、その逆はないということを考え、思い切って後者をターゲットにしました。結果的にこのアプローチは成功しました。どんな研究者であっても、自身の専門を一歩出ると一般ユーザと何も変わらないからです。
図7-1 CiNiiのリニューアルデザイン(http://ci.nii.ac.jp/)
一方で、もしCiNiiが検索結果を表示するのに五秒もかかったら、おそらくすべてのユーザが怒るか、失望するでしょう。たとえば検索機能を強化して、入力ミスに対しても自動的に補正することは技術的に可能ですが、それによって検索時間が長くなるよりも、一秒でも速く表示してユーザにやり直してもらうほうが、このサービスにおいては大事だと考えました。利用者の増加が見込まれるなかで、そのスピードをどう確保するかというのも大きな課題の一つだったのです。
こういった改良の結果、リニューアルの直後にアクセス数は約二倍になり、その後も順調に伸びています。アンケートの結果を見ると一般のユーザが大幅に増加しており、論文という専門的なコンテンツを新たな層にも伝えられたことがわかります。
●組織の新しいルール「アジャイル」
さてこのように見てくると、ウェブのやり方というのは、事前に入念な計画を練ってその通りにシステムをつくるのではなく、とにかく提供してみて相手の反応を見ながら変えていくほうがうまくいくようだということが理解できます。このような流れを生かしながら、質の高いサービスを生み出すソフトウェア開発手法が、「アジャイル(Agile)」と呼ばれるものです。
アジャイルとは「機敏な」「すばしこい」といった意味で、サービス開発において、「すばやさ」と「繰り返し」を重視する方法論です。「すばやい」というのは、従来のように長期的で大がかりな計画を組んでその計画通りに進めていくのとは逆に、できるだけ短期間に動作するようにシンプルにつくることを意味します。また、一度つくったら完成ということではなく、ユーザに利用してもらい、その結果に基づいて改良し、また使ってもらうというサイクルを繰り返す点が重要です。
今や成功しているベンチャー企業はどこでもアジャイルの方法論を取り入れ、常にサービスを改良し続けています。グーグルにせよ、フェイスブック、ツイッターにせよ、ビジネスモデルが存在しないと言われ続けていましたが、目先の利益を得る機会をどんどん先送りしながらサービスを拡張し、投資家を募って成功してきました。このような成功パターンには、短期的な合理性はまったくありませんが、一社でも大ヒットが出れば全体的・長期的に帳尻が合うというモデルになっています。
このように、ウェブでの成功モデルは、計画というものをどれだけ重視するか、資金繰りの方法等々、常識から外れたことばかりです。たとえば有名なグーグルの二〇%ルール─通常業務以外の新規プロジェクトに、就労時間の二〇%を使わなければいけない─などは、利益が見えているところにリソースを一〇〇%投入するのではなく、不確定な部分にも必ず投資しようというものです。
このように見てみると、ウェブにおいては、やはり結果からしか原因を語ることができない、と考えるしかありません。原因と結果がひっくり返っているというのが、ウェブのふつうのあり方になっているのです。常に結果からフィードバックして学ぶというアジャイルの方法論も、このような背景から必然的に生まれてきたものと考えられます。
●「ウェブらしさ」の条件
「ウェブらしさ」とは何でしょうか?─本書に最初に提起した問題に対する、一つの回答例として、これまでの議論をまとめたいと思います。
1 オープンさ
ウェブらしさの根幹をなすものは、オープンさという性質です。ではオープンさとは何か、というとなかなか定義しがたいのですが、第三章で見てきたように、ウェブの産みの親であるティム・バーナーズ=リーは、情報を隠すことができないようなしくみを考えました。彼の考えの基礎をなしていたのは、学術コミュニケーションのあり方でした。学術論文がそうであるように、既知の情報はすべて公開するというしくみによって、人類が新しい知識を獲得できたり、少なくともそれが本当に新しいものかどうかを知ることにつながります。つまり、オープンであることは、このような「未知の情報との遭遇」を支えてくれるものなのだ、と言うことができるでしょう。またグーグルをはじめとする検索エンジンにとっては、あらかじめウェブ上のデータが公開されていることが前提です。ウェブのオープンさは新しい技術、新しいビジネスの拠り所になるものです。
そしてブログなどを通じて発信する個人が激増し、人と人とのつながりがウェブ上に持ち込まれるようになっていくと、見知らぬ人とのつながりが誘発されるようなコミュニティが高く評価されます。ここではオープンさとは、「未知の他者とのコミュニケーション」を支えてくれるものだ、と言うことができるでしょう。情報のおもむく方向としても、これからのコミュニケーションの方向としても、ウェブの未来がオープンさにあることは変わらないように思われます。
2 他人にゆだねる(評価は他人が決める)
新しいコミュニケーション・ツールが登場したときには、使い道がきっちりと決まっているよりも、ユーザに任されるようなものでないと、多くの人々を集めることはできません。
評価を決めるのが他人だということは、企業にとっては生産や売上を綿密に予測して計算しても、あまり意味がないということにもなってくるでしょう。たとえばグーグルの場合、企業にとって大切なウェブサイトのデザインを、ウェブの向こうにいる人々にゆだねてしまい、複数の候補のなかから統計的な処理によって決めていることも見てきました。あるいはアップル社のように、人々の期待をコントロールしながら、それを経営に反映させていく手法も成功を収めています。このようなユーザ指向の方法論が、組織の在り方にもゆさぶりをかけていると言えるでしょう。
3 時間にゆだねる(評価はあとで決まる)
二〇一一年の東日本大震災を振り返ったとき、どんなウェブサイトが頼りになったでしょうか? いくつものボランティアによるサイトが立ち上がったなかで、継続的に情報が更新されているサイトが結果的には一番確かな感じを与えたのではないでしょうか。ウェブにおける信頼性は、権威や既存のブランドといった外部的な基準を参照するのではなく、ただ時間をかけていくことでこそ築かれるのだということも実感として残ったと思います。
成功したウェブ関連のベンチャーが、利益を後回しにしてもまずは拡大させ、投資を待つ……というかたちで伸びていったのも、時間にうまくゆだねることができたから、と言えるでしょう。短期的に見れば非合理そのものであっても、あとで決まった評価がすべてというのは、いかにもウェブらしいルールと言えるでしょう。
4 つながりを重視(情報のリンク・人々のネットワーク)
第三章で見てきたように、そもそもウェブは、ハイパーテキストのしくみをインターネットという世界規模のネットワークへ拡張したものです。情報のリンク=つながりは、ウェブの本質的な機能だと言えるでしょう。
そしてウェブの拡張に伴い、ブログ、SNSといった技術を受け入れた人々がウェブ上でネットワークをつくるようになってきました。技術の進化によってそれを使う人も進化する、このような「人と技術の共進化」のなかで、日常生活をもっと豊かにする、さらなる技術革新が求められています。
5 ベストエフォート(完璧でなくとも最大限の努力をする)
ウェブの価値感を最もよく表現しているのがこの「ベストエフォート」だと思います。新しいものをつくるときには、それが本当によいかどうか、究極のところ誰にもわかりません。まずはやってみる、そして反応を見て改良するというフィードバックの繰り返しこそが創造の源泉だとも言えるでしょう。
オープンさによって既知のものが出揃い、データも人もネットワークを構成しているウェブのなかでは、その価値が「みんなの意見」として客観的に測定されます。
そして相手と時間にゆだねた結果が、原因を決定する。原因と結果と原因が反転しているウェブの世界では、つくり手のコントロールが効かない部分が大半を占めます。そのなかでできることとは何だろうかという課題に対して、その答の一つが前節で見てきたサービス開発の方法論「アジャイル」です。オープンな雰囲気のチームを組み、時間にゆだねるスパンをできるだけ短くし、ユーザからのフィードバックを重視することで、完璧でなくともできるだけのことをする─このようなウェブらしい行動の基準のようなものを、アジャイルから学ぶことができます。
そして何より、このような「ウェブらしさ」を実践していれば、長期的に見て素晴らしいものができる─それが「ウェブらしさ」の最大の価値であり、現在のところそれ以上のやり方はないのではないか、と人類が考える方法論であるように思われます。というのも、実はこれは現在の「科学」の方法そのものであるからです。
科学においては、まず既出の論文をすべて読めるようにするオープンさが保証され(1オープン)、そして論文の評価には、委任された他の科学者がルールにしたがって審査する「ピア・レビュー(査読)」の方法が採用されています(2他人にゆだねる)。その際、審査員が正当に価値を判断できなかった場合には、その評価は時間にゆだねられ、後世の科学者がその価値を確定していきます(3時間にゆだねる)。そしてこのような科学者全体が大きな学術ネットワークを構成し、協力しあいながらも(4つながりを重視)、それぞれが少しでも新しい成果を挙げようとしのぎを削っています(5ベストエフォート)。このような出自を持つ方法論が、世界規模に広がった社会に、私たちは生きているのだと言うことができるでしょう。
これまで、駆け足でウェブのいまを眺め、そこから見えてきた「ウェブらしさ」について考えてきました。ティム・バーナーズ=リーという一人の人間がつくったウェブ。その裏側には、何百年もの時間をかけてつくられてきた学術コミュニケーションのしくみがありました。
これからも「ウェブらしさ」は今のままであり続けるのでしょうか。それともかたちを変えていくのでしょうか。ウェブの未来は誰も予測することができませんが、これまでの議論を通じてぜひ考えるためのヒントを見つけていただければと思います。
本書の最後にあたり、とくに指摘しておきたいことの一つは、オープンさとクローズさの綱引きです。ウェブは、技術的にクローズになりようがないしくみをつくることで、オープンさを達成してきました。こうして守られてきたオープンさは何者にも代えがたいウェブの価値であり、それゆえに多くの人々に使われるようになりました。
一方で、同じ技術を使ってウェブ上にクローズな空間がいくつもつくられてきました。一見、オープンさとクローズさは敵対するもののように感じられますが、クローズであるがゆえにアップロードされるような情報が増え、それがウェブの世界を豊かにしてきたことは間違いありません。
もちろん、情報をコントロールすればするほど使われる可能性は低くなり、ついには誰もアクセスできなくなってしまいます。そこで、私たちが考えなければならないのは、ウェブをより発展させていくために必要なオープンさとクローズさのバランスをどう取るのかということです。
最適なバランスは、その時々の技術、社会、そして人間のあり方によって揺れ動き、移り変わっていくことでしょう。そこには唯一絶対の答えはないようです。常に考え続け、綱を右に引き、左に引きということを繰り返していくことになるのではないかと思います。
SNSのところでは、クローズな世界の進化についてお話しました。一方で、ウェブのオープンさにも変化が見られます。もともと、ウェブは人間がつくった文書を人間が共有するための環境として設計されました。しかし、いまや文書を読むのは人間だけではありません。検索エンジンをはじめとするコンピュータからのアクセスが急速に増えています。
ウェブで情報を探すとき、一つのページだけを見て満足することはほとんどありません。いくつものページにアクセスし、その内容を比較したりつなげたりしながら自分なりの結論をつくり出しているはずです。これは人間ならではの知的な作業ですが、いま、コンピュータにも同じことができないかという模索がはじまっています。今後さらに情報が増えていくなかで、不眠不休で働いてくれるコンピュータをどう活かすかは重要な課題です。しかし、コンピュータにはページのなかのどの部分が重要な箇所なのかを判断することができません。
そこで、ウェブ上の情報を整理して、コンピュータが扱いやすいデータのかたちで公開するというアイデアに注目が集まっています。辞書・事典のように小項目で構成されているもの、あるいは政府の統計データといった情報を、ひとまとめの文書として公開するのではなく、小分けのままにしておくことで、コンピュータが解釈することなく、直接個々の内容にアクセスできるようにしようという計画です。
こういったデータがウェブ上に広がっていけば、コンピュータが自由にそれらを組み合わせて新たな情報を生み出すことができるようになります。ウェブそのものが保存・共有の場から価値をつくり出す場に変わっていくのです。今、個人が持つデータ、公共データ、そして企業のデータが続々とウェブで公開されています。このような、新たなオープンさがウェブや日々の生活に何をもたらすのか、まだ結論は出ていませんが、いつの日か実を結ぶことを期待しています。
このように、試行錯誤を繰り返しながら少しずつ進化していくウェブの可能性は計り知れません。これからも、「ウェブらしさ」をキーに考え続けていきたいと思います。
最後に、本書は発売と同時に、出版社のウェブサイトで全文が読めるようになっています。購入いただいた方は疑問に思われるかもしれませんが、書籍とウェブが共生することができるかどうかを知りたいと思い、実験的な試みとして無理を言って実現していただきました。丸善出版のみなさまに感謝するとともに、読者のみなさまにもご理解いただければ幸いです。本書を読み終えた方も、ウェブならではのリンクや検索機能などを活用して、本書をより深くお楽しみいただければと、著者一同願っています。
大向一輝(おおむかい・いっき)
国立情報学研究所・コンテンツ科学研究系 准教授。
二〇〇二年同志社大学大学院修了、二〇〇五年総合研究大学院大学 複合科学研究科、情報学専攻修了。専門はセマンティックウェブ、情報・知識共有、コミュニティ支援。二〇〇五年国立情報学研究所助教。二〇〇九年国立情報学研究所准教授。二〇一〇年より総合研究大学院大学准教授を併任。二〇〇八年からは株式会社グルコース取締役就任。
著書に『ウェブがわかる本』(岩波ジュニア新書)がある
◆関連サイト
池谷瑠絵(いけや・るえ)
コピーライター&サイエンスコミュニケーター。
東京生まれ。立教大学社会学部卒。科学を紹介する共著作に『ようこそ量子』『ロボットのおへそ』『ロボットは涙を流すか』『からくりインターネット』がある。
◆関連サイト
・ティム・バーナーズ=リー『Webの創成─World Wide Webはいかにして生まれどこに向かうのか』高橋徹訳、毎日コミュニケーションズ、二〇〇一
・Tim Berners─Lee『Weaving the Web: The Original Design and Ultimate Destiny of the World Wide Web』HarperBusiness1版、二〇〇〇
・H. Peter Alesso, Craig F. Smith『Thinking on the Web: Berners─Lee, Gdel and Turing』Wiley─Interscience、二〇〇八
・アルバート・ロズロ・バラバシ『新ネットワーク思考─世界のしくみを読み解く』青木薫訳、NHK出版、二〇〇二
・ジェームズ・スロウィッキー『「みんなの意見」は案外正しい』小高尚子訳、角川書店、二〇〇六
・濱野智史『アーキテクチャの生態系─情報環境はいかに設計されてきたか』エヌティティ出版、二〇〇八