<p><a href="http://s0sem0y.hatenablog.com/archive">"機械学習","信号解析","ディープラーニング"の勉強

HELLO CYBERNETICS

深層学習、機械学習、強化学習、信号処理、制御工学などをテーマに扱っていきます

機械学習で予測モデルを作る際の概要のオレオレまとめ

TOP > >

 

 

https://cdn.blog.st-hatena.com/images/theme/og-image-1500.png

スポンサーリンク

はじめに

機械学習のモデルには数多くのものが存在します。 例えばサポートベクターマシンやニューラルネットワーク、ロジスティック回帰モデルなど、初学者にとってどれが何のために生み出され、 そしてどのような時に有効なのかを把握することは難しいように思います。

 

そこで今回はある特定のモデルについて細かく見るのではなく、機械学習のモデルが何を表し何を達成しようとしているのかの概観を与え、 それぞれのモデルがどういう時に使えそうなのかの感覚を身につける手がかりのようなものを書いてみたいと思います。

(最初、一般化線形モデルからベイズまでそれなりにしっかり書こうと思ったのですが、死ぬほど長引きそうだし、長引かないような上手い説明の仕方は私のレベルではできなかったため、 なんか本当に概要だけの記事になりました。)

機械学習のモデル

機械学習で達成したいこと(の多く)は、手持ちのデータDから今後、将来的に得られるデータに対する予測あるいは知見を得たいというものです。 そこでDに基づいた何らかの予測モデルを構築することが所謂学習となります。 しかし、どのようなモデルを仮定するかに応じて、得られる予測モデルは変わってきます。

 

ここでは、ザックリと予測モデルがどのようなものかを見てみましょう。 今回は題材として教師あり学習を考えていきます。

教師あり学習

手持ちのデータがD={(x1,y1),(x2,y2),...,(xN,yN)}で表されるとしましょう。 今xの値に応じてyが適切に予測できるような状況を想定(あるいは期待)します。すなわち、

y=f(x)

のように、xを入れたらyを出力するような関数fが作れるであろうと考えるわけです。

 

このとき、N個の「入力データxと出力データyの組」が手に入っているという状況で、上手い関数fを作り、 今後得られるxnewに対して正しいynewを出力してくれればうれしいということです。

 

xが仮に身長、体重、体脂肪率、筋肉量などの身体的データを格納したベクトルであり、yが性別(男or女)が格納されたスカラーだと思えば、 これは2クラス分類器を作ることに相当し、yが年収のような連続的な数値だとすれば多入力一出力の回帰を考えることになります。

 

このとき、これから作りたい関数fが上手く動作する保証はどこにもないことに注意してください。 身体的データから性別が分かるのか、あるいは年収が予測できるのかなんてのは、理論的に保証されることではありません。 予測できるとしたらどのようなfが考えられるのか、しか言えません。

 

機械学習における予測モデルの基本的な作り方

予測モデルfの考え方

さて、予測モデルfをデータDから求めるためにはある程度の仮定が必要です。 例えば、xyは正比例の関係(あるいは線形の関係)にあると考えれば、

y=f(x)=wx

であろうなどと仮定できます。

 

このときには私達が求めたいのはwというパラメータになり、これが求まれば予測モデルfが決定できるというわけです。 もちろん、実際にはxyの関係が仮定した形式になっているかの保証などどこにもありません。 もしかしたら今回のようなあまりにも単純すぎる仮定では、全くデータの関係を表すことはできないかもしれません。

 

そこでもうちょっとfに表現力を与えたいときがあります。その方法の1つが、xをあれこれ加工してϕ(x)としてから、

y=f(x)=wϕ(x)

の関係で表そうというものです。ϕ(x)の決め方はいろいろありますが、上手く選ぶことができれば、fに表現力を持たせることができそうです。

 

ϕ(x)の決め方

私達は予測に役立つようなf(x)を作ろうとしています。 そのためにϕ(x)というデータの加工を行えば表現力が高まります。というのがここまでの流れです。 しかしここで一つの疑問が生まれます。 fを求めることがϕを上手く選ぶことに変わっただけで、なんというか前に進んでいないような気がするのです。

 

それでもこの考え方は多くの場面で役に立つでしょう。 私達は、非線形性などを含むある種の複雑な関係性はϕの方に表現させておいて、 一方で線形の関係性はwの方で表現しようという、問題の分解ができたのです。 ここまでの考え方で生データxを何とか加工することで、 最終的には予測したいyと線形の形に持っていくことが目標になりました。

 

つまり、実際に学習で求めなければいけないのはwだけであり、比較的簡単ということです。 ϕ(x)がどれだけ複雑な形をしていようが、ϕ(x)を一度固定して、z=ϕ(x)なる新しい変数だと思ってしまえば

y=f(x)=wϕ(x)=wz

に過ぎなく、とっても簡単な線形回帰(線形分類)の問題として捉えられるのです。 そうであれば、既に存在する既存の学習手法を使い回すことが可能です(特に、計算機がまだ発達していない頃は、既存の比較的計算の軽い手法が使えることは重要でした)。

 

最初は予測をするための関数fを作りましょうと言う途方も無く抽象的な話から、少しは具体的なことに踏み込めるようになった気がします。 さて、ここでϕの方をどのように考えていくのか、その大まかな考え方を紹介します。

 

特徴量エンジニアリング

さて、予測モデルfを作っていく上で最も基本的なアプローチを紹介します。 それは生データxに対して様々な事前知識を活用した加工を施すということです。 いわゆる特徴量エンジニアリングと呼ばれるものです。

z=ϕ(x)

という加工(特徴量エンジニアリング)を行い、 zに対して線形回帰や線形分類を行うという方針です(特徴量エンジニアリングがそのままϕの役割をする)。

 

問題は自分たちの知恵を絞っても非常に上手い特徴量エンジニアリングは難しいという点です。

大体、確実と分かっている処理があるのならば、その処理を施さないという選択肢は殆ど無いので、 今回のようにまるで特徴量エンジニアリングや前処理がモデルの一部ϕであるかのような話し方はしません。

 

モデル選択

非常に上手い特徴量エンジニアリングが見つからないとしましょう(大抵そうである)。 つまり、おいしいϕが私達にはわからないのです。

それならば「何個かϕを準備しておいて、f(x)を作ってみて、一番良かったϕを使えば良いんじゃないですか?」ということが考えられます。 つまり以下のように例えば3つのモデルを作ってみて

y=f1(x)=w1ϕ1(x)

y=f2(x)=w2ϕ2(x)

y=f3(x)=w3ϕ3(x)

何らかの方法でそれぞれのwiϕiを比較し(例えば交差検証など)、 モデル選択を行うという方針が取れます。

もちろん、生データxに対してこれはやっておいたほうが良いという処理が分かっているのであれば、 特徴量エンジニアリングと組み合わせることも可能です。それはつまり、z=g(x)なる加工を施しておいて(そしてこの加工は優れていると仮定して)、

y=f1(z)=w1ϕ1(z)

y=f2(z)=w2ϕ2(z)

y=f3(z)=w3ϕ3(z)

と幾つかのモデルを準備することに相当します。

 

多くの場合はこの形式が取られるのではないでしょうか。 既に知っている確実な知識を特徴量エンジニアリング、あるいは前処理でしっかり反映しておいて、 確実とは言えない怪しい部分を、「仮定」という形でwϕに託すのです。

 

ϕが自由すぎるとモデルは簡単に過学習してしまいます。 かと言って単純すぎると、モデルの残る部分はwだけになってしまい、 コイツは線形分離や線形回帰しかできないので心もとない学習結果が得られるでしょう。

 

なかなか有望なϕを選ぶのは難しそうです。

 

ニューラルネットワーク

そこで「ϕを学習の中で一緒に求めてしまえばいいんじゃないですか?」という考えも重要でしょう。 つまり、ϕの方にも何らかの仮定を入れてパラメータ化して、そのパラメータを一緒に求めてしまえばいいということです。 具体的に言えば、ニューラルネットワークはこの部分に該当するのではないかなと思います。

 

例えば出力が1つで、中間層が2つのニューラルネットワークは以下のような形をしています。

y=f(x)=wσ(W2σ(W1x))

一番最後のwが出力層の重みだと思えば、それまでの層はϕを表すための層だと見ることができます。 「深層学習が特徴量を自分で獲得する」などと言われるのはこのような面を見ているのだと思われます。

 

ただ、一番最初に述べたとおり、実際にデータがこのように表せるかの保証など誰もしてくれないので、 上手い特徴量を選べている保証だって誰もしてくれません。ましてやニューラルネットワークがそうしてくれる保証もありません。 ただ、特徴量を持ってきていると見なす形をあれこれ考えることはできるということです。

 

もちろんココでも、特徴量エンジニアリングやモデル選択の概念が消えることはありません。 確実と分かっている前処理は当然行うべきですし、 何らかの仮定を設けたニューラルネットワークを複数準備して、モデル選択を行うというのが通常の手法です。

 

ここで何らかの仮定とは、ニューラルネットワークの構造や学習の条件などのハイパーパラメータを選ぶことに相当します。

そういう意味では、ニューラルネットワークを使おうが何をしようが、特徴量エンジニアリングやϕの選択に関して私達は解放されたわけではありません。 深層学習では、ニューラルネットワークの構造であったり、学習の条件であったりなどに置き換わっているだけです。

 

ただ、何となくニューラルネットワークの構造を考えるというのは、抽象的なϕなるものを考えるよりは幾分かとっつきやすいとは言えるでしょう。

 

複数の予測モデルの活用

アンサンブル

さて、予測モデルを幾つか作って比べてみたり、特徴量エンジニアリングをしてみたり、ニューラルネットワークを設計・学習したりと、やることがいっぱいあります。 これら全ては、ある一つの予測モデルを上手く作るための作業であり、ある1つの予測モデルが完成した時、道中で得られたそれ以外の予測モデルが全て捨て去られてしまうことになります。

 

なんて勿体無いのでしょう。そこで、複数のモデルを組み合わせて1つの予測モデルにするという考え方があります。 方法はいろいろあるのですが、形式的には予測モデルfiがあるときに、最終的な予測モデルf

f=g(f1,f2,...)

などと、複数の予測モデルを統合する関数gで与えられるでしょう。

 

これがモデルのアンサンブルです。ここでそれぞれの予測モデルfiはそれぞれ異なる予測を与えるでしょう。 しかしそれらの予測を上手く組み合わせて1つの予測に統合する方法を与えれば、 ある1つのモデルを使うよりもっと良い結果が得られる可能性があります。ナンバーワンだけではなく、数多くの意見を取り入れましょうということです。

 

するとこの手の手法では、どのように複数の予測の意見を統合するか(つまりgをどのように作る)が問題になります。

 

 

アンサンブル学習は、単にいろいろな機械学習モデルを混ぜましょうという話ではなく、更に発展的な1つの分野とも言えるでしょう。

 

それは、モデルを学習させるときにまで遡って見ると分かります。 例えば、ある予測モデルAにはある観点の予測にのみ特化させて、 別の予測モデルBには、別の観点の予測にのみ特化させて学習させるのです。 すると、問題の観点に応じて、どの予測モデルの意見を尊重するかを調整するという方法を考えることができます。 ある種の分業ですね。いろんな分野のスペシャリストを育て上げ、問題に応じてそれぞれの意見を集約するということです。

 

あるいは、順番に予測モデルを学習をさせていくことを考え、 前の予測モデルが苦手とする問題を補うように順次予測モデルを学習させていくという方法を考えることもできます。

 

ベイズ予測分布

「複数のモデルを活用する」という考え方に、ベイズ予測分布を使うこともできます。

 

まず複数の予測モデルfi(x)を作った際に、全ての予測分布を上手く統合するというのが今回の方針です。 統合の仕方を単純に線型結合で表すことにしましょう。すなわち、

y=p1f1(x)+p2f2(x)+=ipifi(x)

と、重み付けpiによって複数の予測モデルの意見を統合し、ひとつの出力yを得るということです。

  

ここで予測モデルの1つ1つはf(x)=wxなどとなっているかもしれませんし、f(x)=wϕ(x)となっているかもしれません。 はたまたニューラルネットワークの形になっているかもしれません。それは好きなように選ぶこととし、f(x,w)と表しておきましょう。

 

すると予測モデルfiのアンサンブルを行うというのは、言わば、いろんなwで作られるf(x,w)を利用するということです。

y=p(w1)f1(x,w1)+p(w2)f2(x,w2)+=ip(wi)fi(x,wi)

ここで重み付けpip(wi)と書き直しました。 なぜならモデルfiに応じたpiを決めることが目的でしたが、モデルfiwiによって表されるようにしたので、 piwiに応じて決まればいいからです。

 

さてここで、考えうる全てのwiを無限個準備することにしましょう。すると和が積分となり、式は以下のようになります。

y=wp(w)f(x,w)dw

無限個のwを準備したならば、予測モデルを無限個準備したも同然です。 ここで無限個の予測モデルを上手く統合する方法が得られれば素晴らしいでしょう。

 

それを可能にするのがベイズ予測(分布)です。 今回のようにxに対してyを予測するような場合の概要だけ述べることにすると、(理想的な)ベイズ予測分布とは以下の式で表されます。

p(y|x)=wp(w)p(y|x,w)dw

ここでp(w)wがどれだけ上手いパラメータになっているかの重みを確率で表したものです。

どうやらベイズ予測分布では、全てのwの関しての重みp(w)の和が1になっているということのようです。

  

p(y|x,w)は、パラメータwxが決まった時にyという値が出てくる確率を表しています。 この部分が1つ1つの予測器に相当するようです。

 

まとめれば、1つ1つの予測モデルp(y|x,w)p(w)という重み付けで統合しているのがベイズ予測分布というわけです。 急に関数が確率分布になってギョッとするかもしれませんが、ベイズ予測分布がやろうとしていることは所謂アンサンブルのようなものだというわけです。

  

  

さてここで問題なのは、じゃあp(w)をどうやって決めるんですか?というところでしょう。 実はp(w)なる上手い重み付けなど最初から知っているわけではありません。 そこで、手持ちのデータDからこれを決めてしまいたいということになります。

Dに基づいたwの重みは

p(w|D)

で表されます。

  

通常の機械学習では上手いモデルfあるいは上手いwを1つ求めることが目的でした。

しかし、ベイズ学習では最初からアンサンブルすることを目標にしているので、wを1つ求めるのではなく、 データDに基づいて、上手いパラメータwの重み付けp(w|D)を求めるということになります。 コイツを求めるのが所謂ベイズ学習、ベイズ推定、ベイズ推論になります。

 

データに基づく上手い重み付けをp(w|D)としたら、現実的に利用する予測分布は

p(y|x)=wp(w|D)p(y|x,w)dw

という形式で表されます。また、ベイズ予測では、値が得られるのではなく値の確率が得られます。yがこの値である確率は◎◎ですと言ってくれるようになります。

s0sem0y.hatenablog.com

s0sem0y.hatenablog.com

  

多くのモデルのアンサンブルによって出力を行うので、やけに自信満々な過学習したfi(x,w)がいい加減な予測を行うということはなくなります。 代わりに多くのモデルの意見を採用した、「そのような値と成る確率」を出力し、 その確率が低ければ予測モデルが自身をあまり持っていないと見ることができます。

  

ただし、ベイズ予測分布を使ってもモデルの正しさを保証してくれるというわけではありません。 要するに、明らかに正しいことに関しても、「私は自信がありません」と言ったりする場合もあるのです。

  

それは統合される前の予測モデル1つ1つはp(y|x,w)という形をしているわけですが、 これはwをパラメータとする確率分布であり、この形状に関しては仮定を設けなければならないからです。

  

この仮定が間違えていれば、それらを統合して得られる予測分布も重み付けの仕方も変になってしまうわけです。

  

ほとんど分布に仮定を設けない、ノンパラメトリックな確率分布を使うという方法もあるようですが、私の知識の範囲を逸脱するのでこの辺で。