質問:
確率的勾配降下法とオンライン最急降下法
stochasticcrap
2015-08-14 04:01:59 UTC
view on stackexchange narkive permalink

確率的勾配降下法とオンライン最急降下法の違いは何ですか?それとも同じアルゴリズムですか?

三 答え:
Neil G
2015-09-09 03:20:30 UTC
view on stackexchange narkive permalink

どうやら、異なる著者は確率的勾配降下法について異なる考えを持っています。ビショップは次のように述べています。

オンライン勾配降下法は、順次勾配降下法または確率的勾配降下法とも呼ばれ、一度に1つのデータポイントに基づいて重みベクトルを更新します…

一方、[2]はそれを最急降下法として説明し、確率的勾配降下法のより一般的な定義を示します。

確率的勾配降下法更新方向が勾配に正確に基づいている必要はありません。代わりに、方向をランダムなベクトルにすることができ、各反復での期待値が勾配方向と等しくなることだけが必要です。または、より一般的には、ランダムベクトルの期待値が現在のベクトルでの関数の劣勾配になる必要があります。

Shalev-Shwartz、S.、& Ben-David、 S.(2014)。機械学習の理解:理論からアルゴリズムまで。ケンブリッジ大学出版局。

Aymen
2015-09-04 02:42:13 UTC
view on stackexchange narkive permalink

例として、線形/ロジスティック回帰のコンテキストに身を置きましょう。トレーニングセットに$ N $のサンプルがあると仮定しましょう。これらのサンプルを1回ループして、モデルの係数を学習します。

  • 確率的勾配降下法:反復ごとにこれらのトレーニングサンプルの1つをランダムに選択して、係数を更新します。
  • オンライン最急降下法:各反復で「最新の」サンプルを使用します。サンプルを決定論的に選択するため、確率論はありません。データセットが大きい業界では、最新のサンプルが到着したらすぐに使用して「ライブ」でトレーニングし、係数を更新します。
つまり、「最新」とは、i = 1,2,3、....、Nの順序で意味するのでしょうか。
サンプルが時間どおりにランク付けされている場合は、そうでない場合ははい。「オンライン」は、各サンプルのタイムスタンプがある場合に意味があります
Bing Lv
2018-02-03 15:55:25 UTC
view on stackexchange narkive permalink

オンライン最急降下法は、本質的に確率的勾配降下法と同じです。オンラインの名前は、バッチの問題を解決するのではなく、IIDである必要のない一連の例を予測していることを強調しています。



このQ&Aは英語から自動的に翻訳されました。オリジナルのコンテンツはstackexchangeで入手できます。これは、配布されているcc by-sa 3.0ライセンスに感謝します。
Loading...