Hatena::ブログ(Diary)

shi3zの長文日記 RSSフィード Twitter

2016-12-03

明後日の方向に噛み付く"ブロガー"徳力さんに思うこと 11:54

2016-12-01

中島聡さんの国立AIクラウドに関する批判は的外れ 22:08

 中島聡さんは尊敬するプログラマーの一人でもあるし、最近対談したりもしてる(https://codeiq.jp/magazine/2016/08/43799/)

 中島さんのブログはこちら→http://satoshi.blogs.com


 その中島さんが、国家プロジェクトであるディープラーニング用橋渡しクラウド(ABCI)を「スパコンは税金の無駄遣い」と呼んでケチをつけているという。さすがにこれは見逃せないので一言言わせていただく。

税金195億のムダ。戦略なき日本のスパコン開発を中島聡氏が批判 - まぐまぐニュース!

http://www.mag2.com/p/news/229866


 まず、京とABCIでは目的も構成もぜんぜん違う。

 ABCIのイメージ的にはTSUBAMEに近い。また、195億円は建屋や研究施設も含めた総工費であって、実際のABCIはその数分の一以下の予算で作られている。



 中島さんはものすごく頭がいい人なので、ディープラーニングなど触らなくてもわかってる。その限界も可能性も両方分かっている。・・・と思ってらっしゃるんだろう。その上で、ABCIは無駄遣いだと切り捨てる。でもたぶんABCIがなんなのか、ぜんぜん理解してない。しようともしてない。



 いま、日本の私企業で、MicrosoftやGoogleFacebookのように膨大な計算資源を確保できる会社がどれだけあるのだろうか。


 僕の知っている例では、わずかにドワンゴだけが、100台規模のGPUクラスタ紅莉栖を持っているだけである。この紅莉栖は、東京大学が持っている普通の設備よりも多くの計算資源であり、ドワンゴはこれを東京大学の学生が研究に使えるように一部解放している。


 しかし、この設備はハッキリ言って焼け石に水以下と言える。


 Googleが1000台規模のクラスタで猫を発見したりとか、Microsoftが、Amazonが、気の遠くなるような計算資源を用意してクラウドサービスとして展開している現状において、なぜ東証一部とはいえ、売上規模としてはいち中小企業にすぎないドワンゴが東大に計算資源を寄付しなければならないような状況に陥っているのか。


 それは我が国がディープラーニングというものの可能性に気づくのが、ほんの数年、欧米に遅れてしまったからである。


 私も昨年、ドワンゴやトヨタが共同で寄付した東大の深層学習寄付講座を聴講した。そこで起きていたのは、学生同士による計算資源の熾烈な奪い合いである。授業に使うサーバーが落ちる落ちる。クラウド上にあるのにアクセスが満足にできない。学生も真剣だから色々な仮説を試したいのに、肝心の計算資源が足りない。これでは研究もおぼつかない。これでは意欲や能力があっても、欧米に大きく遅れを取ってしまうのは自明である。


 日本の名だたる企業が連合で10億寄付して開催した講座がこの有様だ。一般の学生の事情は推して知るべし。


 そして、日本の大企業には、そうした大胆な投資判断を未だできないでいる。

 1000台規模のクラスタ、建造費数十億円のディープラーニングへの投資を単独できる大企業はそう多くない。そういうノウハウはネット企業にしかないし、ネット企業にはディープラーニングを十分活用できるだけのビジネス的なバックグラウンドがないからだ。


 実際にディープラーニングによって飛躍的に成果が上がると考えられるのは、ネット企業よりもむしろ既存のエスタブリッシュメント企業だったり、第一次、第二次産業だったりするのだが、そうした会社はディープラーニングの重要性を理解するのが、ネット企業よりもさらに数ステップ遅いからだ。


 人材の育成となればこれも大きく周回遅れしているのは否めない。まず計算資源が必要なのは大学であり、公的研究機関であるはずなのだ。しかし、今この段階で、素早い判断をして、素早い調達をして、人材を育てるという決断ができるエスタブリッシュメント企業は少ない、というかほとんど存在してない、と言っても良い。


 工場と違って、ディープラーニングが具体的にどのように業務を改善するのか、その指標も見えない段階では、大企業が及び腰になるのはむしろ当たり前である。工場の場合、建てる時に実稼働時の売上と利益予測が立てられるから、銀行もお金を貸してくれやすい。しかしディープラーニングはいまのところ、どのように活用すればいいのか手探りの段階である。


 この段階では、まだお金を持っていない学生や研究者、ベンチャー企業などが頑張って応用法を模索したり、色々な仮説を同時並行的に試したりしなければならない。我々も相当数の深層学習マシンを所有しているが、いくらあっても足りないというのが正直なところだ。昨年のMaxwell世代のTITANXは、世界中から在庫が払底してしまった、それでもまだ足りない、というのが今の状況である。


 研究を支援するためにまず圧倒的に必要なのは計算資源であり、この計算資源がないことが、我が国の国力を直接削ぐような危機を呼び込んでいる。


 そもそもABCIは、スパコンではない。

 スパコンには絶対必要とされる、倍精度浮動小数点演算がない。


 つまりABCIは、そもそもスパコンとしては全く使えない。京とは全く目的が異なり、気象予報とかには全く向いていない。


 だからABCIがあれば京はいらなくなるとか、そういう問題ではない。


 新聞屋さんはセンセーショナルなニュースを欲しがるから、ちょっとスペックの高い計算資源を国が調達しようとすると、すぐに「スパコン」というレッテルを貼りたがる。その尻馬にのって、ろくに調べもせずに批判するのはいかがなものか。


 ABCIの開発を無駄と断言する中島さんは我々日本の宝である東大生や国内の研究者たちに、MicrosoftやAmazonのクラウドを使って研究せよと仰るのか。

現時点で、本気で Deep Learning の研究をしている研究者は、自作のパソコンに高性能な GPU カードを挿して専用マシンを作っています。ニューラルネットワークのトレーニングには膨大な計算能力が必要で、彼らにとっては高性能な専用マシンが必須なのです。

パソコンとは言え、最新のGPU カードは一昔前のスパコン並みの能力を持っており(例:NVIDEA TESLA M40 は 7 teraflops)、そんなマシンを、一人の研究者が、何時間も何日間も占有して使える時代になったのです。

そんなニーズに応えようと、Amazon も GPGPU のレンタルサービスを充実させ始めましたが、まだまだ値段が高く、何時間もマシンを専用して学習させるのであれば、自作マシンの方がコストパフォーマンスが良いのが現状です。

国は195億円も税金を投入したスパコンを使い、何をしようというのでしょうか? 国立大学に安く時間貸しするのでしょうか? そのあたりが私には全く見えて来ません。

 ABCIが目指すのは、まさにその「研究者が使うハイエンドPC」を大量に並列化したもので、これを電気代程度の負担で国内の企業や学生に貸し出そうという試みである。


 AmazonのGPGPUやMicrosoftのAzureを使うよりも、安価に、しかも大量の学習ができる機械を調達しようとしているのに、中身も見ずに「スパコン」という言葉のイメージ(しかもそれも誤り)で批判とは、さすがに僕自身も中島さんに対して失望すら感じます。


 うちの会社はまさしくその「一昔前のスパコン並」の深層学習向けハイエンドPCを売っています(http://deepstation.jp)。ですが、これはあくまでも入門用が数十万円、プロ用のスペックとなれば簡単に数百万円のオーダーとなり、研究者だからといっておいそれと手に入るものでもありません。


 そのうえ、GPUによる学習は、うまくやれば分散学習ができるのですが、一台あたり数百万円のマシンを何台も買うよりも、クラウドで時間貸しをしてもらったほうがよほど効率的です。


 ある学習タスクを一台のマシンでやると普通に数ヶ月かかります。

 たとえば、ImageNetのデータをダウンロードするだけでも6日とか平気でかかります。

 誰もが実験に使う典型的なデータですら、ダウンロードするだけでそれだけの時間がかかるわけです。

 これが、クラウドで共有化されていれば、ダウンロードし直す手間はないし、ABCIをハブとして、日本の研究者コミュニティ全体の底上げが期待できます。


 また、ABCIは京のような専門家しか使えないスパコンとは根本的に異なります。

 専門の研究者だけでなく、民間企業がディープラーニングというものを身近に学ぶために、手軽に使えるようなものも目指しています。


 ちょうど、来週月曜日に内閣府の「新たな情報財検討委員会」で僕も委員としてプレゼンすることになっています。


 このプレゼンの中で、国家AI戦略の要所として今回中島さんが批判しているABCIについて、そのあるべき姿を提言しています。


 なんで僕が提言しているのかというと、任意組織である機械学習利用促進勉強会(MLEP)で利用促進のためのツールとして知的財産戦略やABCIの位置づけをこの半年間、ずっと議論してきた当事者だからです。


 内閣府の委員会は一般の方でも無料で傍聴できます(応募多数の場合、制限あり)。

新たな情報財検討委員会の開催について

http://www.kantei.go.jp/jp/singi/titeki2/tyousakai/kensho_hyoka_kikaku/2017/johozai/dai2/kaisai.html


 既に遅れ始めた日本のAI戦略を底上げするには、私企業の自助努力だけに頼っているわけにはいきません。

 日本は重要な社会インフラこそ、国が主導権を握って大きくしてきたという歴史があります。


 タバコも郵便も電話も、携帯電話もそうです。官が育てて、民営化させるというのが常套手段です。

 だいたい、当の中島さん自身も、もとは東大で学び、NTTという国策企業の研究所で働いていたはずではありませんか。自分は良くて、今の学生が国から計算資源を分けてもらうチャンスすら否定するのでしょうか?


 ちなみにABCIのモデルケースとしては京よりも遥かに構造が近い東工大のTSUBAMEは、国産唯一と言って良い深層学習フレームワークChainerの開発に貢献しています。ABCIもおそらく同じように様々な研究機関や民間企業の研究活動を強力にサポートしてくれるようになるでしょう。ちなみにABCIの設計にはTSUBAMEの松岡先生も関わっています。


 資源のない島国である我々は、インフラ整備は基本的に国家の仕事と思っています。

 AIのインフラを考える上で、ABCIはその要石とも言える重要な計算資源です。


 さくらインターネットも高火力コンピューティングなど、比較的安価なサービスを提供していますが、まだまだハードルが高く、個人が気軽に使うというわけにはいきません。


 だからこそ我が国にはABCIが必要なのです。


 こんなインタビューにつきあってるヒマがあったら、その才能を発揮して、なにかマシな深層学習のツールでも作っていただいたほうがよっぽど国のためになると思うんですけどね。どうですか、中島さん。


 あーあと

私が担当者であれば、まずは「専用ハードウェアによる機械学習のアクセラレーション」というテーマの研究の提案を各大学にさせ、優秀な提案には一件当たり1千万程度の予算を与えて、設計・試作をしてもらいます。そして、その結果次第では、ベンチャー企業として独立するためのさらなる資金を与えるなり、既存の企業への技術移転をしてもらい、実用化を目指します。


 こんなの数十億じゃそもそも無理ですから。最低100億は必要です。そしてもう予算がついてるプロジェクトもあります。


 ちょっと現状に疎すぎませんか。


 ASICの試作を一千万とかそもそも不可能ですよ。最低でも数億、ちゃんと動くものならやっぱり百億はかかります。そんな安価にできるなら、さすがにルネサスとかとっくにやってますよ。


 これって「一千万やるから画期的な電気自動車つくれ」とか「一千万やるから画期的なスマートフォンを試作しろ」くらい無茶ですよ。


 

文系でも一冊でChainerからTensorFlowまで学べる新刊「はじめての深層学習プログラミング」 07:15

 Chainerがバージョンアップする度に文句を言っていましたが、すったもんだの挙句、ついに半年前から修正修正また修正を繰り返していた本が発売と相成りました。


 その名も「はじめての深層学習プログラミング」


 教養本というか読み物本である「よくわかる人工知能」を書く裏側で、技術書も同時に書いていたわけです。

 なぜ書いたかというと、主に社内の情報共有のため。とりわけ我が社の文系社員であり、人類総プログラマー化計画の実験対象でもあるゴトーくんこと後藤大喜に読ませるためです。


 今週から「秋葉原プログラミング教室」で、「AIプログラミングコース」が始まるのですが、そのテスト版とでも言うべきイベントで、僕がAIのプログラミングについて話す機会が先月ありました。


 すると、それを聴いていた文系の学生が「ちょっと僕もやってみたいんであの資料もらえますか」と言ってきました。人工知能というのはそれほどまでに興味を引きつける対象なのもしれません。


 というわけで出ましたこの本。

 昨日、ついに見本誌が届きました。

https://i.gyazo.com/9c7105bd66df3acc0082a2479136c097.png


 気をつけたのは、できるだけ難しい数式を使わないこと。

 機械学習の話になると、すぐに皆さん難しい数式を使いたがる。

 あれは性癖なんでしょうか。


 たとえばChainer Playgroundというオフィシャルの入門サイト(https://play.chainer.org/)があるのですが・・・


https://i.gyazo.com/5344a79fee260aa1a75d45513f3fd3b3.png


 いきなりこれかよ!

 パラメトリックモデルとかの用語は基本的にどうでもいいので、なぜここで説明しているか不明ですし、線形変換のモデルを数式で説明しているのもやりすぎです。

 

 まあ正直、プログラマーの中には数学が得意でない方が数多く含まれていまして、プログラマー業界の中でも特に数式を大量に扱う、僕のような3Dゲームプログラマーであっても、数式というのはできるだけ避けて通りたい存在です。


 なのに、いきなり、出会い頭にこの数式!

 しかしビビッてはいけません。この数式が出てきたとしても、プログラムそのものは簡単なんです。だけど数式で説明しないと、たぶん頭のいい人たちは「気持ち悪い」のです。


 まあ、普段お世話になっているプリファードネットワークスさんの仕事にケチをつけたいわけではありませんが、この「Chainer Playground」をやってみると


 「ああ、PFNの人達は本当に頭が良すぎて、頭が良くない人(オレ)たちのことをなにも理解してくれないんだな」


 という気分が絶望的なまでに深まります。

 うん、これが理解出来る人は、そもそも既に機械学習のなんたるかを理解してる人だけだよね。


 とにかく、Chainer Playgroundがあったら、どんな人でも無料でChainerに入門できて、入門書書く意味がないじゃん!と密かに思っていたのですが、どうやら入門書を書いた意味はありそうだ、ということでホッとしています。


 話を本に戻すと、本書では、中学校卒業くらいの数学的知識で・・・といってもまあそのレベルでも盤石とは言えない人がほとんどでしょうから、もっと噛み砕くと、数学的知識がほぼなくても、AIのプログラミングを学ぶことが出来ます。


 なぜなら僕が数式をキライだからです。

 

 そして、僕もまあ大学院の授業とか受けたんですけど、一般的にいろんな先生がいろんな数式でいろんなことを説明してくれるのですが、プログラミングに落とせなければ数式は飾りです。逆に言うと、プログラミングに落としてあれば数式はそもそも必要ありません。


 その昔、昔々に書かれたコンピュータグラフィックスの本は、離散コサイン変換についての解説と数式、そしてコードの実装が載っていました。



https://i.gyazo.com/bc7051c24178bb806123d93020e1d8dd.png

https://ja.wikipedia.org/wiki/離散コサイン変換



 ちなみにこの数式、僕は一度も理解しようと思ったことがありません。

 さらにはVRAMの構造からアドレスまで。そうしないと、JPEG画像を表示することができなかったのです。


 今日、同じことはこう書けます。

import cv2
img = cv2.imread('hoge.jpg')
cv2.imshow("img",img)

 JPEGの実装の中身の理論とか、基本的に使う側からしたらどうでもいいのです。ここに真剣にこだわるのは、総裁(http://blogs.itmedia.co.jp/fukuyuki/)のように電機メーカーでデジカメの出力するJPEGを極限まで高画質にしようとするみたいなド変態の仕事をする人だけです。


 おなじことがニューラルネットワークのプログラミングにも言えます。

 最新の論文を読んで自力で実装しようという場合には、多少の数式が出てきますが、それとて三次元グラフィックスに比べたらごく当たり前の式しか出てきません。そして式で説明されるよりもプログラムで説明されるほうが遥かに簡単に説明されます。


 どこまでをブラックボックスとして扱って良いのか、どこまで中身を知っておいたほうが良いのか、ということは実際のプログラムに落として初めて理解できます。

 

 そしてニューラルネットワークのプログラミングは、今やChainerやTensorFlow、Kerasといった高度に抽象化されたライブラリが沢山できているために、ほとんど面倒なことを考えずに使うことが出来るのです。


 そして面倒なことが抽象化されていると、ニューラルネットワークのプログラミングそのものは恐ろしく簡単になります。


 本書で最初に出てくる画像認識のプログラムはものすごく短いです。

https://i.gyazo.com/c80724df1747ac44523435b73c3d17db.png


 これを何も考えずに写経するだけで、まあなんとなく人工知能のプログラミングっぽいことはできるようになります。


 こういうところから入って、少しずつややこしい話になって、最後は深層強化学習で超人工生命を育てる・・・というところまで行きます。


 そういうことですので、もし人工知能について知りたい、と思うなら、文系でも理系でもぜひ本書を手にとって読んで欲しいと思います。


 技術書としては薄くて安い本ですし、前提となる知識もほとんどいらないので、「よくわかる人工知能」で人工知能に興味を持った方にはぜひ手にとっていただきたい本です。キーボードが打てれば誰でもAIのプログラミングをマスターできます。


 反対に、既にニューラルネットワークのプログラミングをバリバリしてる人からすると少し物足りないと思います。そういう人はもっと難しい数式の書いてある本とかを読んでいただくのがいいでしょう。


 プロお断り!

 そこだけはご注意ください

2016-11-29

教養としてのサイバーパンク 05:00

 なんか最近たまにPowers of Tenを知らない人が居て、おお、教養は失われてしまったのかと嘆く日もある。



 下手すると僕が生まれる前に作られた映像だが、学校の授業で見て以来、そのダイナミズムはものすごく脳裏に刻まれている。見てない人は見るべし

 これはマクロの視点からミクロの視点まで一直線に繋ぐ凄い映像で、映像表現というものの可能性と、科学の扱う範囲の幅広さをわずか数分に凝縮したものである。


D


 この映像を作ったのは、家具デザインの大家、イームズ夫妻である。

 イームズの椅子がどうとかくだらん講釈を垂れる前にこの映像を見るべきなのだ。

 CGが一般化する以前にこれほどシームレスに見事に場面を繋いでいるというのがまず凄いし、こんな映像を作ろうというイマジネーションそのものが白眉である。


 しかし自分がなんでこんなにPowers of Tenに親近感を感じているのかというと、今調べて知ったが、Powers of Tenに日本語のナレーションをつけたのは子供の頃よく通っていた新潟県立自然科学館だったらしい。


 この映像は子供心に衝撃的で、その後、僕が物事を考える基礎になっている。

 椅子だけじゃないんだイームズ。むしろ椅子よりもこの映像の方が価値が高い。そうとさえ思える。



 さて、幸か不幸か、僕が育った70-80年代というのは空前のサイバーパンクブームだった。

 とはいっても、サイバーパンク自体はサブカルチャーのいちジャンルに過ぎず、別にサイバーパンクを知らなくても生きることはごく当たり前であり、知らないまま死んでも特に害はない、というものでしかなかった。


 しかし、サイバーパンク的イマジネーションが、今の世界を作ったと言っても、やはり過言ではないのではないだろうか。


 サイバーパンクの古典といえば、1984年のニューロマンサーである。


ニューロマンサー (ハヤカワ文庫SF)

ニューロマンサー (ハヤカワ文庫SF)


 何度も読んでるが、僕は読み終わるのに10年掛かった。

 何度読んでも寝てしまうという伝説的な書籍である。


 この中に、仮想空間と脳の直結による幻影、電脳空間(サイバースペース)、そしてその象徴としての"マトリックス"が現れる。


 映画「マトリックス」はニューロマンサーの映像化をしようとして、無理なので違う話を乗っけたストーリーといっていい。実際、Wikipediaにはそういうエピソードが掲載されている(https://ja.wikipedia.org/wiki/ウィリアム・ギブスン#.E6.98.A0.E5.83.8F.E5.8C.96.E3.81.95.E3.82.8C.E3.81.9F.E4.BD.9C.E5.93.81)


マトリックス (字幕版)

マトリックス (字幕版)

 

 「マトリックス」も今となっては古典映画の部類だが、ギブスンの重要なギミックが凝集され、映像化されていることは特筆に値する。


 ちなみにもちろん攻殻機動隊もニューロマンサーの影響を受けている。攻殻機動隊に影響を与えた作品としては他に「マイクロチップの魔術師」がある。

マイクロチップの魔術師 (新潮文庫)

マイクロチップの魔術師 (新潮文庫)


 このへんの洗礼を受けた人たちが、マトリックス以前に見ていた映像といえば、ブレードランナーは当然として、やはりマックス・ヘッドルームだろう。


D


 マックス・ヘッドルームはなんとDVD化されていない。

 より正確には、なぜかパイロット版(劇場版)だけがDVD化されていて、TV版はDVD化されていない。したがっていまの若い世代は見ることがほとんど不可能である。



 で、正直、劇場版はいちばんつまらない。

 というのもこの奇抜な設定に、制作者自身が振り回されている感があるのだ。


 マックス・ヘッドルームの舞台は「20分後の未来」


 世界は全地球規模のテレビネットワークで囲われ、貧富の差によって街にはスラムが広がる。唯一の成長産業はテレビ業界で、主人公はトップテレビ局、ネットワーク23の花形テレ・ジャーナリスト、エディスン・カーター。


 しかし陰謀に巻き込まれ、エディスンは瀕死に。そして瀕死のエディスンの記憶をコンピュータが読み取り、コンピュータ上に人格を再構成してうまれたのが人工人格「マックス・ヘッドルーム」である。


 マックスはエディスンが頭に強い衝撃を受けた混乱の中で生まれたのでちょっとおかしい。ちょっとおかしいが人気者のエディスンは死にかけてるし、こいつで視聴率がとれればいいやというかなり投げやりな理由でテレビに出演することになる。まあより正確には、出演させたいと思ってもさせたくないと思っても、マックスは勝手にネットワーク23の放送設備をジャックして自由きままに放送しちゃうんだけど。


 マックス・ヘッドルームの凄いところはいろいろあるんだけど、とにかく後先考えない世界感が凄い。

 たとえば法律で禁止されているものがビデオ録画とオフスイッチ(テレビの電源を切ると罰せられる")だとか、選挙の結果が視聴率で決まるとか、とにかくやりたい放題。


 ああこれぞサイバーパンクだよな、という、ある意味でマトリックスよりもブレードランナーよりもド直球のサイバーパンクが楽しめる。DVD化されてないのは実に惜しい。


 サイバーパンクといえば、ギブスン原作のJMもあった。


JM スペシャル・エディション [Blu-ray]

JM スペシャル・エディション [Blu-ray]


 JMの見どころはビートたけし。・・・だけじゃなくて、やっぱりお上品なやつらに対抗するロー・テク軍団が見もの。主人公もキアヌ・リーヴスだしね。

 


 まあとにかく、やはり教養としてサイバーパンクを知っておかないと、これからのVRとかAIとの時代に対応していくのは難しいんじゃないか。


 というのも、先日、Rez Infiniteを作った水口哲也のロングインタビューに参加したときに、驚くほど水口さんがサイバーパンクの人だったっていうのを確認して、改めて、世代は違えど同じ時間軸で生きててよかったと思ったしね。


 日本だと大流行したとは言えないサイバーパンクも、今、その真価が見直されるべき時期に来てるんじゃないの?という気がする。


 というのも、サイバーパンクでは、「コンピュータ上に構成された仮想世界(マトリックス)」や、死人の記憶をそっくり持っていて自律行動できるAI(ROM構造物)、生身の人間に生身の人間がジャックインする、人間をハッキングして操るAI(人形使い)、真価したAIが神のように振る舞う・・・などなど、今まさに人類が直面しつつある問題が全て描かれている。


 もちろん当時の想像力の範囲の中で、という注釈がつくものの、追いついている部分とまだまだ追いつけない部分の両方がとても参考になる。


 ちなみにニューロマンサーはものすごく読みづらいので本当に読むのに10年かかってしまう。

 途中寄り道するのに、同じ世界観の短編もオススメ




 しかしあの傑作、「モナリザ・オーヴァドライヴ」が英語版しかなくなってるのはAmazonのバグ?古本だと1400円・・・まあしかたないか。


 ニューロマンサーとクローム襲撃はKindle版でてるのでぜひ


モナリザ・オーヴァドライヴ (ハヤカワ文庫SF)

モナリザ・オーヴァドライヴ (ハヤカワ文庫SF)


 ちなみにこれは読んだことなかったけど、面白そうなので買った。

あいどる (角川文庫)

あいどる (角川文庫)


 というわけで、やはりこれからの時代、AIをどうにかしようと思ったら、まずサイバーパンクを学ぶのもひとつの方法ではないだろうか

2016-11-28

骨の髄までアイドルしてる!ぶっ飛ぶ世界観に君は"アイドルの真実"を見るか!? ハード(?)SF、「最後にして最初のアイドル」 15:45

 タイムラインを流れてきて、別にアイドルに思い入れがあるわけでもないが、どうも気になったので読んでみた。

 感想、「面白い」

最後にして最初のアイドル

最後にして最初のアイドル


 ここで終えてもいいくらいなんだけど、それもあんまりなので多少は感想を。


 普段、自分の本の書評とか読みに行くじゃないですか。

 それで「あー面白かった」くらいしか書いてないと、まあそれはそれで嬉しいんですけど、なんていうか、もうちょっとなにかこっちにフィードバックというか、もっとこういう内容、みたいな、そういうのないんですか、って思っちゃう。贅沢なのよね。


 で、この「最後にして最初のアイドル」。最初は単なるよくあるアイドルものの悲しくも哀しいストーリィが展開する鬱系物語かと思って読むわけです。


 これ、ラブライブ(?)かなんかのキャラらしいんだけど、まあ僕の脳裏に浮かんだのは、苦労している系アイドル、小池美由ですわ


 まあ小池はもう売れちゃってるらしいんで、これからやってくる地獄を見ればいいと思うんですけど、小池が売れないままただの痛い女としてタレント事務所に騙され、そして・・・


 って、ネタバレになるからアレですが、急にグロ展開、そして数万年、数億年単位のストーリーに展開していって、最後の最後でハッと我に返るという。


 ハードSFじゃないんだろうけど、ハードSFっぽい語り口がけっこう好き。

 話としては短いけど、やりたいことを全部やり尽くした感じでいい。


 ついでに途中、ほんの少しだけAIの要素も出てきて、「意識とはなにか?」「知的生物とはなにか?」ということについて考えさせられる。


 率直に言って大好物でした。


 拙書「よくわかる人工知能」で最も面白いと言われている最終章、PEZYの齋藤元章さんの展開する壮絶なビッグピクチャーに勝るとも劣らない内容で、何故か読み終わって爽快な気分になりました。なぜだろうね、この頬を伝う涙は。



 というわけで、こちらもよろしくお願いします。


 編集のイトーくんが感想ツイートをまとめてくれました

よくわかる人工知能の感想ツイートをくださった皆さんまとめ

https://twitter.com/i/moments/803122529388806144

逃げるは恥だが役に立つ 原作読んだ 09:07

 原作の一巻が0円だったんですよ。



 それ買って読んだわけですよ。

 そしたら当然、続きが気になるわけですよ。


 気がついたら8巻全部買っていた・・・なんという敗北感。

 してやられたわけですよ。

 

 そして8巻まで読むと、えーと、ドラマの次の展開は当然・・・えーーーっーーーーえっーーーーっ!!! (////)


 しかし、それで終わらないのがたぶん「逃げ恥」のいいところなんじゃないかと思う。

 まあ正直、こっからさき、男(星野源)はキモい感じになるだろうなあ。今までの爽やかさをどれだけ維持できるかが見ものだなあ。


 漫画では既にちょっと気持ち悪い(※あくまで個人の感想です)ので、みくる(ガッキー)には頑張っていただきたい。

 

 それよりもイケメンと百合ちゃんがいい感じになるところとかは気になるところではある。

2016-11-25

できそうなことはだいたい出来る、「ある意味で汎用???」ニューラル・ネット、pix2pix登場 07:03

 この世界の進歩は超早い。

 Google一社だけでも手に負えないっつうのに、次から次へと新手が出て来る。


 今度はできそうなことはだいたいできてしまう、pix2pixというのが発表された(https://github.com/phillipi/pix2pix)。

https://i.gyazo.com/bc562d66f9c01f38e89b97d6eac42c0e.png


 なにを言ってるのかというと、このpix2pixは、たとえばラベルだけを指定した画像を入力すると、それっぽい道路の写真を生成したり(左上)、衛星写真を入力するとそれっぽい地図画像を生成したり(左下)、「ここが窓でえ、ここが壁でえ、ここが扉でえ」と、一軒家を建てる時のハイテンションなお母さんの妄想のようなラベル画像を入力すると写真を生成したり(中央上)、昼間の情景を入力すると夜景に変換したり(中央下)、白黒画像をカラーに変換したり(右上)、輪郭線から実際の写真を生成したり(右下)、およそ一対一で画像が対応するものならなんでもできてしまうのである。単一のニューラル・ネットワークで!


 もうやだ。


https://i.gyazo.com/a00907a11aff629e62cbf3300efc4586.png


 どのように作るのかというと、これは最近すっかり定番になった敵対的生成学習(GAN)を使用する。

 通常のGANは、本物か偽物かを見分けるだけだが、今回のGANは本物のペアか偽物のペアかを見極める点が違う。・・・って違いはそれだけかよ。


https://i.gyazo.com/75be198a3a72754f0153e51e4cd551c1.png


 さらに、エンコーダー・デコーダーかU-Netか選ぶことが出来る。といってもU-Netはミラーレイヤーが後段に追加されるだけ。


https://i.gyazo.com/d6d776579a2440c3911673c662e9b034.png


 航空写真から地図を生成できるのと同様に、地図から航空写真を生成できる。


https://i.gyazo.com/a0a1314bab8f4594438880b9bbc84a94.png


 昼間の写真から夜の写真を生成できる


https://i.gyazo.com/47d0bd21bd2e88485108be22346079d0.png


 なんとなく輪郭を描くとカバンの画像が生成される。


https://i.gyazo.com/4e082ec723f449c3b6fcbf1d4f6a4234.png


 もはや絵として間違っていても、それっぽく塗られる。すごい!


 GANの威力恐るべし



 まあ白黒画像からカラー画像を生成するのがあんなに簡単にいけるんだったら他のタスクも行けそう、とは思ったけど、ここまでとは・・・