質問:
省略された変数と他の変数に対するそれらの結果
ChinG
2019-11-23 21:48:53 UTC
view on stackexchange narkive permalink

次の回帰モデルがあるとします。 $$ y_ {i} = \ boldsymbol {x_ {i} '\ beta} + e_ {i} $$ span> ここで、ベクトル $ \ boldsymbol {x_ {i} '} $ span>には、 $ [x_ {1i} \、 x_ {2i}]。$ span>仮定します 少しの間、その $ e_ {i} $ span>には、と相関する変数が含まれています $ x_ {1i} $ span>。よく知られている除外変数バイアスは、 $ \ beta_ {1} $ span> OLSによって推定される場合、バイアスを使用して測定されます。ただし、どのような影響がありますか これは $ \ beta_ {2}?$ span>にありますか?言い換えれば、バイアスは1つにありますか 推定値のセットは、2番目のセットのバイアスに影響を及ぼします 見積もりの​​?つまり、 $ cov \ left(x_ {1i}、e_ {i} \ right)\ neq0 $ span>の場合 、ただし $ cov \ left(x_ {2i}、e_ {i} \ right)= 0、$ span>これは、 $ \ beta_ {2}?$ span>

の見積もり
更新はありますか?簡単な質問のようです...
OLSは係数$ \ beta_2 $に対して正常に機能すると思います。そこにバイアスはありません。
二 答え:
jbowman
2019-11-25 22:29:39 UTC
view on stackexchange narkive permalink

直感的には、 $ \ hat {\ beta} _2 $ span>は $ x_2 $ は $ x_1 $ span>と相関しています。これは、 $ x_2 $ span>と $ x_1 $ span>の相関により $ \ hat {\ beta} _2 $ span>は $ \ hat {\ beta} _1 $ span>と関連付けられます。結果として、 $ \ hat {\ beta} _1 $ span>が $ \ beta_1 $ span>と異なる場合、 $ \ hat {\ beta} _2 $ span>は、 $ \ beta_2 $ span>とは予想が異なり、大まかに記述します。 、 $ \ hat {\ beta} _1 $ span>にバイアスがかかると予想されるため、 $ \ hat {\ beta} _2 $ span>もそうなります。

一般性を失うことなく、説明を簡単にするために切片の項を想定します。 $ \ mathbb {E} \ hat {\ beta} $ span>の式を書き出すと、次のようになります。

$$ \ mathbb {E} \ hat {\ beta} = \ mathbb {E}(X ^ TX)^ {-1} X ^ TY = \ mathbb {E }(X ^ TX)^ {-1} X ^ T(X \ beta + e)= \ beta + \ mathbb {E}(X ^ TX)^ {-1} X ^ Te $$ span>

質問の前提の下で、 $ \ mathbb {E} X ^ Te $ span>は $( \ theta、0)$ span>、ここで $ \ theta $ span>は、 $ x_1間の非ゼロ共分散の関数です。 $ span>および $ e $ span>。置き換えると次のようになります:

$$ \ mathbb {E} \ hat {\ beta}-\ beta = [(X ^ TX)^ {-1} _ {1,1} \ theta、 (X ^ TX)^ {-1} _ {2,1} \ theta] $$ span>

添え字は、 $ 2 \ times 2 $ span>行列のどの要素を指定します $(X ^ TX)^ {-1 } $ span>が参照されています。

$(X ^ TX)^ {-1} _ {1,1} > 0 $ span>以降、 $ x_1 $ span>は $ 0 $ span>と同じであり、 $ \ hat {\ beta} _1 $であることがわかります。 span>はバイアスされます。ただし、 $ \ hat {\ beta} _2 $ span>は、 $(X ^ TX)^ {の場合にのみ、バイアスがかかります。 -1} _ {2,1} \ ne 0 $ span>、つまり $ x_1 $ span>および $の場合x_2 $ span>は相関しています。

これはRの簡単な例で、 $ \ beta_1 $ span>と $ \ beta_2 $ の真の値です。 span>はどちらも $ 1 $ span>と同じです:

  bhat_1 <- rep(0、10000)

V <-マトリックス(c(1,0.6,0.6,1)、2、2)

for(i in 1:length(bhat_1)){
  x <- rmvn(100、c(0,0)、V)
  y <- x [、1] + x [、2] + rnorm(100)
  bhat_1 [i] <- coef(lm(y〜x [、1]))[2]
}


hist(bhat_1)
 

次のヒストグラムを生成します。 enter image description here

そうですか。それをありがとう。x2がエラーと無相関であるという要件を満たしていても、x1と相関し、x1がエラー項と相関しているため、バイアスがかかっているのは不思議です。この直感は正しいですか?また、実際にこれが当てはまる場合は、実際にバイアスに署名し、x1とx2のサンプル相関を考慮することでこのバイアスを修正できます。
あなたの直感は正しいです、そして私は何が起こっているかについてより直感的な光沢を置くために私の答えを編集します。
@ChinG私の直感で着陸しているように見えるのは、変数$ x_ {1} $と$ x_ {2} $を*重回帰*で並べ替えることができるということです(つまり、変数を*省略しない*ように)。データベクトルは名前を交換しますが、それでも同一の$ \ beta $ sとSEが表示されることを期待しています。その場合、$ x_ {2} $が省略されているために、$ \ beta_ {1} $の変数バイアスが省略されている場合、$ \ beta_ {2} $についても同じことが当てはまると思います。$ x_ {1} $を省略した場合。結局のところ、相関関係は方向性がありません。もちろん、私の直感には、ここで停止した時計の有用性があるかもしれません...:)(また:+1 jbowman)
@Alexis-あなたの直感は正しいです。それは実際には$ X ^ TX $の構造に帰着し、変数を並べ替えると行と列が再配置されるだけで、共分散自体は変更されません。
この博覧会は非常にひどいものです。私が頻繁に行うすべての経済学セミナーでは、人々は関心のある変数が観察されていない要因に対して外因性であるかどうか(つまり、変数が因果関係で解釈できるかどうか)だけを気にします。@jbowmanによって表示される推論の行によると、含まれる変数の*すべて*が条件付きで外因性であることを確認する必要があります。そうしないと、リグレッサー間の穏やかな相関により、各変数の係数がバイアスされる可能性があります。
悲しいが真実であり、偏見があるだけでなく一貫性もありません。
したがって、これらの場合、@jbowman,は、直交化されたリグレッサーを使用するのが賢明ではありませんか?これにより、それらの間の相関が0になることが保証されます(したがって、x2でx1を回帰し、残差でのみ機能します)。
解釈可能性を犠牲にして、リグレッサーの1つが欠落している場合、そのリグレッサーに関して直交化することはできません。しかし、それは2SLSに近づき、内生性の問題を取り除くための機器を構築しているのではないでしょうか。
@ChinG公平を期すために:*相関*は無指向性ですが、*因果関係*はヘラー指向性です。Hernán&Robbinsの[*因果推論:What If *](https://www.hsph.harvard.edu/miguel-hernan/causal-inference-book/)は、*因果*モデルで理由を明らかにするのに適しています。$ A $(介入、場合によっては複数の変数)を条件とする$ Y $と$ L $(条件付け共変量)の場合、因果推論の有効性は$ Y $に対する$ A $の影響です。*$ Y $に対する$ L $の影響については*ではありません**。
@Alexis-このコンテキストで使用される「hella」を初めて見たのですが、それが本当に重要です。$ x_1 $と$ x_2 $の間の明らかな因果関係を削除するために、例を更新しました。
@jbowman:D:Dそれは私のオークランド湾です-アリウス派が忍び込んでいます。:)
@ChinG一方、$ x_ {1} $と$ x_ {2} $の両方が$ y $の*原因*である場合、 " この博覧会は非常にひどいものです」と私は思います。
user20160
2019-11-26 08:10:47 UTC
view on stackexchange narkive permalink

これは、任意の数の予測子と省略された変数で発生することです。答えは、@ jbowman(+1)が2つの予測子(1つは除外された変数と相関し、もう1つは相関しない)に対して示したものと同様になります。私はすでにこれを書き始めているので、別のアプローチを見るのに役立つ場合に備えて投稿します。

以下の答えを要約すると、 $ X_u $ span>に、省略されたすべての変数と相関のない予測子が含まれ、 $ X_c $が含まれているとします。 span>には、少なくとも1つの省略された変数と相関する予測子が含まれています。次に、標準的な仮定の下で、 $ X_u $ span>の予測子のOLS係数は、 $ X_u $ spanの場合に限り、バイアスがかかりません。 >と $ X_c $ span>は無相関です。

セットアップ

$ y \ in \ mathbb {R} ^ n $ span>を応答のベクトルとし、 $ X \ in \ mathbb {R} ^ {n \ times p} $ span>は予測子の行列です。省略される予測子 $ Z \ in \ mathbb {R} ^ {n \ times q} $ span>もあります。予測子と応答が中央に配置されていると仮定します。したがって、切片の項は必要ありません。また、予測子は相関している可能性がありますが、完全に同一線上にあるとは限りません(これは、 $ X $ span>と $ Z $ はフルランクで、 $ n \ ge p + q $ span>)。

真のモデルは次のとおりです。

$$ y = X w + Z v + \ epsilon \ quad \ quad \ epsilon \ sim \ mathcal {N}(\ vec {0}、\ sigma ^ 2 I)$$ span>

ここで、 $ w \ in \ mathbb {R} ^ p $ span>および $ v \ in \ mathbb {R} ^ q $ span>は真の係数であり、 $ \ epsilon $ span>はiidを表すランダムベクトルです。平均がゼロで分散が $ \ sigma ^ 2 $ span>のガウスノイズ。

$ Z $ span>を省略して、通常の最小二乗回帰モデルに適合するとします。推定される係数は次のとおりです。

$$ \ hat {w} =(X ^ T X)^ {-1} X ^ T y $$ span>

バイアスは、推定された係数と真の係数の間の予想される差を含むベクトルです(以下の導出を参照):

$$ \ text {bias} = E [\ hat {w} -w] =(X ^ T X)^ {-1} X ^ T Z v $$ span>

両側に $ X ^ T X $ span>を掛けると、次のようになります。

$$ X ^ T X \ \ text {bias} = X ^ T Z v $$ span>

除外された変数と無相関の予測子の場合

予測子が $ X = [X_u、X_c] $ span>として分割されているとします。ここで、 $ X_u $ span >には、省略されたすべての変数と相関のない列が含まれ、 $ X_c $ span>には、少なくとも1つの省略された変数と相関のある列が含まれます。したがって、 $ X_u ^ TZ = \ mathbf {0} $ span>および $ X_c ^ TZ \ ne \ mathbf {0} $ span>。同様に、バイアスがサブベクトル $ \ text {bias} _u $ span>( $ X_u $ の予測子の場合)に分割されているとします。 span>)および $ \ text {bias} _c $ span>( $ X_c $ span>の予測子の場合)。前の方程式を分割形式で書き直します:

$$ \ begin {bmatrix} X_u ^ T X_u & X_u ^ T X_c \\ X_c ^ T X_u & X_c ^ T X_c \ end {bmatrix} \ begin {bmatrix} \ text {bias} _u \\ \ text {bias} _c \ end {bmatrix} = \ begin {bmatrix} \ mathbf {0} \\ X_c ^ T Z \ end {bmatrix} v $$ span>

これを2つのシステムに分割します:

$$ X_u ^ T X_u \ text {bias} _u + X_u ^ T X_c \ text {bias} _c = \ vec {0} $$ span>

$$ X_c ^ T X_u \ text {bias} _u + X_c ^ T X_c \ text {bias} _c = X_c ^ TZ v $$ span>

>

$ \ text {bias} _c $ span>はゼロ以外です。これは、ゼロであると仮定すると矛盾が生じるためです。これは、除外された可変バイアスに関する標準的なステートメントを要約したものです。

さらに興味深いことに、質問は $ \ text {bias} _u $ span>、省略された変数と無相関の予測子のバイアスに関するものです。上記のペアの最初の方程式は、2つの結論につながります。1) $ X_u $ span>と $ X_c $ span>の場合は無相関であるため、 $ X_u ^ T X_c = \ mathbf {0} $ span>の場合、唯一の解決策は $ \ text {biasです。 } _u = \ vec {0} $ span>。 $ X $ span>はフルランクであるため、 $ X_u $ span>もフルランクであり、 $ X_u ^ T X_u $ span>にはゼロベクトルのみが含まれます。 2) $ \ text {bias} _c $ span>はゼロ以外であるため、 $ \ text {bias} _u = \ vec {0 } $ span>は、 $ X_u ^ T X_c = \ mathbf {0} $ span>を意味します。

したがって、 $ X_u $ span>の予測子の係数は、 $ X_u $ span>の場合に限り、バイアスがゼロになります。および $ X_c $ span>は無相関です:

$$ \ text {bias} _u = \ vec {0} \ \ iff \ X_u ^ T X_c = \ mathbf {0} $$ span>

>

バイアスの導出

バイアスは、推定された係数と真の係数の間の予想される差であり、予想はw.r.tで取得されます。 $ \ epsilon $ span>:

$$ \ begin {array} {ccl} \ text {bias} & = & E [\ hat {w} --w] \\ & = & E \ big [(X ^ T X)^ {-1} X ^ T y-w \ big] \\ & = & E \ big [ (X ^ T X)^ {-1} X ^ T X w +(X ^ T X)^ {-1} X ^ T Z v +(X ^ T X)^ {-1} X ^ T \ epsilon -w \大きい] \\ & = & E \ big [(X ^ T X)^ {-1} X ^ T Z v +(X ^ T X)^ {-1} X ^ T \ epsilon \ big] \\ & = &(X ^ T X)^ {-1} X ^ T Z v + E \ big [(X ^ T X)^ {-1} X ^ T \ epsilon \ big] \\ & = &(X ^ T X)^ {-1} X ^ T Z v \\ \ end {array} $$ span>

2行目は、式を $ \ hat {w} $ span>に置き換えます。3行目では、 $ y $ span>の代わりに真のモデルを使用しています。4行目は代数的簡略化です。5行目は、期待値の線形性を使用しています。ノイズの平均はゼロであり、予測子と無相関であるため、最後の項の期待値はゼロであり、6行目となります。



このQ&Aは英語から自動的に翻訳されました。オリジナルのコンテンツはstackexchangeで入手できます。これは、配布されているcc by-sa 4.0ライセンスに感謝します。
Loading...