K分割交差検定の理論的観点、特にk分割CV予測誤差の数式について詳しく説明できる人はいますか?
更新:いずれか1つでしょうか242ページの本の最新版(2011年2月)に書かれた式を理解するのに役立ちます。
K分割交差検定の理論的観点、特にk分割CV予測誤差の数式について詳しく説明できる人はいますか?
更新:いずれか1つでしょうか242ページの本の最新版(2011年2月)に書かれた式を理解するのに役立ちます。
最小二乗回帰を含む多くのモデルについて、閉じた形式でリーブワンアウト交差検定誤差を計算するための式がありますが、私が知る限り、k分割交差の一般的な式はありません。 -検証(または少なくとも可能かもしれませんが、計算上の利点は小さすぎて価値がありません)。
この本の式は、相互検証エラーを言っているだけで、あまり多くを語っていません。は、データのさまざまなサブセットでトレーニングされたモデルを使用して評価された損失関数(L)の平均です。上付き文字$-\ kappa(i)$は、「モデル$ f $は、パターン$ i $と同じデータセットのパーティションでトレーニングパターンなしでトレーニングされる」ことを意味します。正式な数学表記で書くと曖昧さが少なくなることもありますが、必ずしもテキストよりも理解しやすいとは限りません。これはそのような場合の1つだと思います。
人々が相互検証を行う理由は、非常に制限された条件下を除いて、同じことを正確に達成するための数式がないためです。また、ほとんどの場合、k分割交差検定には十分な精度がないため、モデルのパフォーマンスを正確かつ正確に推定するには、k分割交差検定を50〜100回繰り返す(およびパフォーマンスメトリックを平均する)必要があることに注意してください。 。そのための数式は確かにありません。
真実は、相互検証は単にモデル選択のヒューリスティックであるということです。あなたが本当に探しているのがあなたの一般化予測の理論的に裏付けられた推定値を取得することである場合、相互検証はそれの良い推定値を与えるだけですが、保証はありません。そのためのより適切な方法は、PAC-Bayes設定などの理論的フレームワークを学習することです。ただし、これらのフレームワークには独自の欠点があります。これは主に、境界が緩い/一般的である傾向があるという事実に関連しています(たとえば、100%以上間違った予測をしないことを示す境界)。
ただし、相互検証ヒューリスティックを形式化しようとする人もいます。ジョン・ラングフォードからのこの投稿の参考文献をご覧になることをお勧めします。 http://hunch.net/?p=29