確率的勾配降下法とは何か
機械学習において確率的勾配降下法(Stochastic gradient descent, SGD)ってよく耳にするけどよく分からない。「確率的勾配降下法 わかりやすく」でググった人は数知れないだろう。自分も SGD の本質がどこにあるのか分かっていなかったので改めて調べてみた。
準備:パラメータを "動かす"
本記事のトピックである勾配法では "パラメータを動かす" という考え方が重要となる。そこで、線型回帰を例としてパラメータを "動かす" とはどういうことか説明してみる。ここでは1変数の線形回帰を例として説明する。もちろん線形回帰は降下法なんか使わなくても最適なパラメータを求めることができる。あくまで説明のため線形回帰を例にしているに過ぎない。
1変数の線形回帰 とは、与えられた複数の点 に対して誤差の和が最小になるような直線 を引く問題である。たとえば以下の図では赤い直線が解である。
直線と複数の点の誤差の和は 残差の二乗和(esidual sum of squares, RSS)として計算されることが一般的である。具体的には以下の式で与えられる。
いまは は直線なので と表される。中学数学を思い出すと、 は直線の傾きで、 は 切片である。これをふまえて上記の二乗和を の関数 とみなす。
要するに、与えられた点 は固定であり、パラメータ の値を変えることで関数 の値が定まると考える。パラメータ を "動かす" ことで、目的関数 の値をなるべく小さくするアプローチこそが勾配法である。
パラメータ を動かす様子を図示してみる。まずは直線の傾き のみを動かしてみる。以下の図は赤線で傾き のとき、緑線で傾き のときの直線を示している。
当然、 の値を大きくすると傾きが大きくなり、小さくすると傾きが小さくなる。それと同時に点線の長さの和、すなわち残差の二乗和 の値も変化する。 の値を動かしながら の変化を観察すれば、 の値を小さくするような の値が分かりそうである。
同様に、切片 の値のみを動かしてみる。赤線で切片 、緑線で切片 のときの直線を示している。
こちらも の値を動かすことで の値を小さくするような の値が分かりそうである。
最急降下法
ここまでの話で、パラメータを動かすと目的関数(誤差)の値も動くことを見てきた。このようにパラメータと目的関数の関係を用いて誤差を最小化する方法として 最急降下法(gradient descent)がある。ちなみにこの手法を適用するためには、目的関数 がパラメータ によって偏微分可能である必要がある。
最急降下法の説明をする前に、先ほどの線型回帰においてパラメータ に応じて目的関数 がとる値を等高線として図示してみる。この図は横軸が の値、縦軸が の値になっている。この平面上の点ごとに回帰直線が一意に定まることに注意したい。この平面上を動くことがまさにパラメータを動かすことになる。
結果として図示されるものは同心円状の等高線になっており、中心に行くほど目的関数(誤差)の値が小さくなっている。つまり、中心に行くほど望ましいパラメータになっている。
最急降下法は、適当なパラメータ からスタートして、この等高線と直交するようなルートをたどって最も低いところへ進んでゆく手法である。いわばアリジゴクの底に落ちるようなルートをたどる。具体的には、点 上において進む方向はその点における勾配を下る方向であり、その勾配はベクトル に の値を代入することで計算できる。したがって、適当な からスタートし、以下のようにパラメータ を更新してゆけばよい。
更新式:
ただし、 は 学習率(Learning rate)であり、更新の大きさを調整する役割がある。
たとえば線型回帰の場合、 は以下の2つの要素からなる。
これらを用いて、パラメータの初期値 として最急降下法を実行した結果は以下である。ただし学習率は 0.001 とし、勾配が十分に小さくなるまでパラメータの更新を繰り返した。
初期値に対応する点からアリジゴクの坂を下るように底に落ちてゆく様子が見て取れる。ここで重要なことは、初期値が同じであれば何度実行しても同じルートをたどって同じ値に落ち着くということである。つまり "確率的" な挙動はしない。
最急勾配法はパラメータの更新にすべての点との誤差 の偏微分を用いる。このようにパラメータの更新にすべてのデータを使用する学習方法は "バッチ学習" と呼ばれている。実はバッチ学習はあまり実用的でない。というのも、バッチ学習の計算量は学習データや各データの複雑さに依存するため、たとえば学習データが1億件ある場合、1回のパラメータの更新に1億件に対する誤差の和を計算する必要がある。学習データが1億件というのは現代の機械学習では珍しいことではないというのが怖いところである。
確率的勾配降下法
最急勾配法の課題を解決するため、最急勾配法を乱択アルゴリズムとして近似したのが 確率的勾配降下法(Stochastic gradient descent, SGD)である。
SGD の基本的な仕組みは最急勾配法と同じであるが、パラメータの更新ごとにランダムに選んだデータ1つのみを用いるのが改良点である。つまり、パラメータの更新ごとにすべてのデータを用いる代わりに1つのデータだけ用いることで計算量を大幅に削減する。具体的には、ランダムに を選んだ点 と現在の直線の誤差をもとにパラメータの更新を行う。
更新式:
ここで、 は 番目のデータと直線の誤差であり、線型回帰の例では である。これを各パラメータ によって偏微分して得られるベクトルが である。線型回帰の例では具体的に以下である。ここに はない。
より理解を深めるために補足すると、SGD では現状のパラメータに対応する直線(下図の赤色の直線)とランダムに選んだ1点との距離のみを考慮してパラメータを更新する。下図の例だと直線の傾き も切片 も増加する方向にパラメータが更新されるはずである。
そして、先ほどと同様にパラメータの初期値を として SGD を3回実行した様子を以下に示す。
3回の実行をそれぞれ赤色、青色、緑色で示している。見てのとおり実行ごとに異なるルートをたどっている。これはもちろん学習に用いるデータをランダムに決めているからであり、乱択アルゴリズムとしての特徴が現れているといえる。これゆえ SGD は "確率的" な挙動をする。
ちなみに、SGD のように1つのデータだけを考慮してパラメータの更新を行うやり方は "オンライン学習" と呼ばれる。SGD はオンライン学習であるが、SGD の本質(stochastic と呼ばれる理由)は乱択アルゴリズムである部分にある。世の中には「最急勾配法をオンライン学習にしたものが SGD である」という説明が見られるが、これだけではランダムネスに言及できていないので説明として不十分であると思ったほうがよさそう。実際、少数のデータをパラメータ更新に用いる "ミチバッチ学習" も(オンライン学習ではないが) SGD の一種として有名である。
所感
今回初めて SGD を実装して実験的に動作を確認してみた。本記事の図を書いたコードは Gitst 上に置いた。勾配法の更新式を見ただけでは、代入してから偏微分するのか、偏微分してから代入するのか深く考えていなかったが、実装するにあたり後者が正しいことを認識できた。まぁ当たり前みたいな話なんだが。