Meta-learnersの理論

はじめに

最近因果推論の分野が注目され始め、因果推論関連の書籍が続々と出版されているここ最近です。どう考えてもデータサイエンス界隈では、因果推論が盛り上がってきているということですよね?ということで今回は、CATEを推定する手法として、決定木系の方ではない、Meta-learnersの方を扱っていきたいと思います。私の観測している限りでは、CATEを推定したいみたいなモチベーションを実務で感じることはまだないのですが、この先その波はきそうだということで、記事を書くついでに勉強も兼ねていこうといった感じです。

Meta-learnersの概要

Meta-learnersは、因果推論の分野において条件付き平均処理効果(CATE)を推定するために開発された機械学習ベースの手法群です。これらの手法は、観察データから因果効果を推定する際に直面する複雑性と課題に対処するために生み出されました。Meta-learnersの主な目的は、個々の単位や部分集団によって異なる効果、すなわち異質性のある処置効果を捉え、より精確なCATEの推定を提供することにあります。
Meta-learnersが提案された背景には、いくつかの重要な要因があります。まず、ランダム化比較試験が不可能または非倫理的な状況で、観察データから因果効果を推定する必要性が高まっていました。しかし、観察データには選択バイアスや交絡因子の問題が存在し、単純な比較では真の因果効果を推定できないという課題がありました。また、多くの実際の状況において、処置効果は個人や部分集団によって大きく異なることが認識され、この異質性を捉えることが個別化された介入や政策決定にとって極めて重要であると理解されるようになりました。
同時に、機械学習の分野では急速な発展が見られ、複雑な非線形関係や高次元データを扱う能力が大幅に向上しました。これらの能力を因果推論に活用する必要性が認識されるようになり、予測精度の高い機械学習モデルを因果推論に適用するための新たなフレームワークとしてMeta-learnersが開発されました。
従来の因果推論手法、例えば傾向スコア法や回帰不連続デザインなどは、特定の状況下では効果的でしたが、複雑な関係性や高次元データを扱う能力に限界がありました。Meta-learnersは、これらの限界を克服し、機械学習の予測能力を活用しながら、因果推論の基本的な課題に対処することを目指しています。
主要なMeta-learnersには、S-learner、T-learner、X-learner、R-learner、DR-learner、Random Forest Learnerなどがあります。S-learnerは処置変数を他の共変量と同様に扱い単一のモデルを学習する手法で、シンプルさと解釈のしやすさから初期のMeta-learnerとして提案されました。T-learnerは処置群と対照群に別々のモデルを適用する手法で、両群の関係性が大きく異なる場合により柔軟なモデリングを可能にします。X-learnerはT-learnerを拡張し、反実仮想の結果を推定して処置効果を改善する手法で、処置群と対照群のサイズが大きく異なる場合や共変量の分布に偏りがある場合に対処するために提案されました。
R-learnerは残差に基づくアプローチを用いて因果効果を推定する手法で、統計的効率性を改善し、弱い仮定の下でより正確な推定を行うために開発されました。DR-learnerは二重頑健推定量を用いてバイアスを減少させる手法で、モデルの誤指定に対してより頑健な推定を行うために提案されました。Random Forest Learnerはランダムフォレストを使用してCATEを推定する手法で、非線形の関係性や複雑な交互作用を捉えるためにランダムフォレストの特性を活用する目的で開発されました。

S-learner(Single-model learner)の理論

S-learner(Single-model learner)は、条件付き平均処理効果(CATE)を推定するための比較的シンプルなアプローチです。この手法の基本的なアイデアは、処置の割り当てを他の共変量と同様に扱い、単一の予測モデルを学習することです。

S-learnerの理論的枠組みを理解するために、まず基本的な記号を導入しましょう。Y を結果変数、T を処置変数(通常は二値で、T \in {0, 1})、X を共変量のベクトルとします。CATEは次のように定義されます
\tau(x) = E[Y(1) - Y(0) | X = x]
ここで、Y(1) は処置を受けた場合の潜在的結果、Y(0) は処置を受けなかった場合の潜在的結果を表します。しかし、現実世界では各個体に対してこれらの潜在的結果の一方しか観察できません。この根本的な課題に対処するため、S-learnerは巧妙なアプローチを取ります。

  

S-learnerは、次の形式の条件付き期待値関数 \mu(x, t) を推定します
\mu(x, t) = E[Y | X = x, T = t]
この関数は、共変量 X と処置 T が与えられた時の結果 Y の期待値を表します。ここで重要なのは、処置 T を単なる追加の特徴量として扱っていることです。これにより、処置の効果と他の共変量の効果を同時にモデル化することができます。

  
S-learnerの学習過程は、次の最小化問題を解くことで行われます

\hat{\mu} = \arg\min_{\mu} E[(Y - \mu(X, T))^2]
この式は、予測誤差の二乗の期待値を最小化する関数 \mu を見つけることを意味します。実際の実装では、この期待値は観測データの平均で近似されます。

  

いったん \hat{\mu} が推定されると、特定の共変量 x に対するCATEの推定値は次のように計算されます
\hat{\tau}(x) = \hat{\mu}(x, 1) - \hat{\mu}(x, 0)
この式は、同じ共変量 x を持つ個体に対して、処置を受けた場合(T = 1)と受けなかった場合(T = 0)の予測結果の差を計算しています。これにより、その特定の共変量プロファイルを持つ個体に対する処置の効果を推定することができます。

  
S-learnerのアプローチは一見シンプルですが、いくつかの重要な利点があります。まず、単一のモデルを使用することで、計算効率が高く、実装が比較的容易です。また、処置変数を他の共変量と同様に扱うことで、処置と共変量の間の複雑な交互作用を自然にモデル化することができます。

しかし、S-learnerにはいくつかの潜在的な課題もあります。特に、処置割り当てが共変量と強く相関している場合(つまり、強い交絡がある場合)、S-learnerは処置効果の推定に偏りを生じる可能性があります。これは、モデルが処置の効果と共変量の効果を適切に分離できない可能性があるためです。

また、S-learnerの性能は、使用する基礎となる機械学習アルゴリズムに大きく依存します。例えば、線形回帰を使用した場合、非線形の処置効果を捉えることが難しくなります。一方、ランダムフォレストや勾配ブースティングなどの非線形モデルを使用すると、より複雑な関係性をモデル化できますが、解釈可能性が低下する可能性があります。

T-learner(Two-model learner)の理論

T-learner(Two-model learner)は、条件付き平均処理効果(CATE)を推定するためのアプローチの一つで、S-learnerとは異なり、処置群と対照群に対して別々のモデルを学習します。この手法は、処置の効果が共変量と複雑に交互作用する可能性がある場合に特に有用です。
  
T-learnerのアプローチは、処置群と対照群それぞれに対して別々の条件付き期待値関数を推定することです。具体的には、次の二つの関数を推定します

\mu_1(x) = E[Y | X = x, T = 1]
\mu_0(x) = E[Y | X = x, T = 0]
ここで、\mu_1(x) は処置群の条件付き期待値関数、\mu_0(x) は対照群の条件付き期待値関数を表します。

  
T-learnerの学習過程は、次の二つの最小化問題を別々に解くことで行われます

\hat{\mu}1 = \arg\min{\mu_1} E[(Y - \mu_1(X))^2 | T = 1]
\hat{\mu}0 = \arg\min{\mu_0} E[(Y - \mu_0(X))^2 | T = 0]
これらの式は、処置群と対照群それぞれにおいて、予測誤差の二乗の期待値を最小化する関数 \mu_1\mu_0 を見つけることを意味します。実際の実装では、これらの期待値は観測データの平均で近似されます。

  

いったん \hat{\mu}_1\hat{\mu}_0 が推定されると、特定の共変量 x に対するCATEの推定値は次のように計算されます
\hat{\tau}(x) = \hat{\mu}_1(x) - \hat{\mu}_0(x)
この式は、同じ共変量 x を持つ個体に対して、処置を受けた場合の予測結果と受けなかった場合の予測結果の差を計算しています。

  
T-learnerのアプローチには、いくつかの重要な利点があります。まず、その柔軟性が挙げられます。処置群と対照群に別々のモデルを適用することで、各群における結果と共変量の関係を柔軟にモデル化できます。これは特に、処置効果が共変量と複雑に交互作用する場合に有用です。次に、解釈可能性という利点があります。各群に対して別々のモデルを持つことで、処置の有無による予測モデルの違いを直接解釈することができます。さらに、モデル選択の自由度も重要な利点です。処置群と対照群で異なるモデルや異なるハイパーパラメータを使用することができ、各群のデータ特性に応じた最適なモデルを選択できます。   
しかしながら、T-learnerにもいくつかの課題があります。一つ目は、データ効率の問題です。各群のデータを別々に使用するため、特に処置群または対照群のサンプルサイズが小さい場合、推定の精度が低下する可能性があります。二つ目は、外挿の問題です。処置群と対照群の共変量分布が大きく異なる場合、一方の群のモデルを他方の群に適用する際に外挿の問題が生じる可能性があります。三つ目は、計算コストの問題です。二つの別々のモデルを学習する必要があるため、S-learnerと比較して計算コストが高くなる可能性があります。   

X-learnerの理論

X-learnerは、条件付き平均処理効果(CATE)を推定するための高度なアプローチであり、S-learnerやT-learnerの概念を拡張し、より柔軟で効率的な推定を目指しています。この手法は、特に処置群と対照群のサンプルサイズが大きく異なる場合や、共変量の分布に偏りがある場合に効果的です。   
X-learnerのアプローチは、三つの主要なステップから構成されます。
第一ステップでは、T-learnerと同様に、処置群と対照群それぞれに対して別々の条件付き期待値関数を推定します

\hat{\mu}_1(x) = E[Y | X = x, T = 1]
\hat{\mu}_0(x) = E[Y | X = x, T = 0]

  
第二ステップでは、これらの推定された関数を用いて、各個体の「仮想的な」処置効果を計算します。処置群の個体に対しては、観測された結果から対照群モデルの予測値を引くことで処置効果を推定し、対照群の個体に対しては、処置群モデルの予測値から観測された結果を引くことで処置効果を推定します

D_i = \begin{cases}
Y_i - \hat{\mu}_0(X_i) & \text{if } T_i = 1 \
\hat{\mu}_1(X_i) - Y_i & \text{if } T_i = 0
\end{cases}

  
第三ステップでは、これらの「仮想的な」処置効果を新たな目的変数として、再び機械学習モデルを適用します

\hat{\tau}_1(x) = E[D | X = x, T = 1]
\hat{\tau}_0(x) = E[D | X = x, T = 0]

  
最終的なCATEの推定値は、これら二つのモデルの加重平均として計算されます

\hat{\tau}(x) = g(x)\hat{\tau}_0(x) + (1-g(x))\hat{\tau}_1(x)
ここで、g(x) は重み関数であり、多くの場合、傾向スコア(propensity score)が使用されます。

  
X-learnerのこのような複雑なアプローチには、いくつかの重要な利点があります。まず、処置群と対照群の不均衡に対して頑健です。サンプルサイズが大きく異なる場合でも、それぞれの群のデータを効果的に利用することができます。次に、共変量の分布の偏りにも対応できます。第二ステップで計算される「仮想的な」処置効果が、この偏りを部分的に補正する役割を果たします。さらに、各ステップで異なる機械学習アルゴリズムを使用できるという柔軟性があります。これにより、データの特性に応じて最適なモデルの組み合わせを選択することが可能になります。   
しかし、X-learnerにも課題があります。まず、その複雑性が挙げられます。多段階のプロセスと複数のモデルを使用するため、計算コストが高くなる可能性があります。また、各ステップでのモデル選択やハイパーパラメータの調整が必要となり、実装や調整が難しくなる可能性があります。さらに、最終的な推定値が複数のモデルに依存するため、解釈可能性が低下する可能性があります。   
X-learnerは、その複雑さゆえに実装と解釈に注意が必要ですが、適切に使用すれば、特に処置群と対照群の不均衡が大きい場合や、複雑な処置効果の構造が予想される場合に、強力なツールとなり得ます。他のMeta-learner手法と比較しながら、具体的な問題設定に応じて最適な手法を選択することが重要です。

R-learnerの理論

R-learnerは、条件付き平均処理効果(CATE)を推定するための革新的なアプローチであり、他のMeta-learner手法とは異なる独自の方法論を採用しています。この手法は、残差に基づく推定(Residual-based estimation)という考え方を中心に据えており、統計的効率性と柔軟性を両立することを目指しています。   
R-learnerのアプローチは、次の最小化問題を解くことで CATE を推定します

\hat{\tau} = \arg\min_{\tau} E[(Y - m(X) - (T - e(X))\tau(X))^2]
ここで、m(X) = E[Y|X] は結果変数の条件付き期待値(outcome regression)、e(X) = E[T|X] は傾向スコア(propensity score)を表します。

  
この最小化問題は、直接解くことが難しいため、R-learnerは以下の段階的なアプローチを採用します

まず、m(X)e(X) を推定します。これらは、それぞれ結果変数 Y と処置変数 T を共変量 X に回帰させることで得られます。
次に、推定された \hat{m}(X)\hat{e}(X) を用いて、以下の最小化問題を解きます
\hat{\tau} = \arg\min_{\tau} \frac{1}{n} \sum_{i=1}^n (\(Y_i - \hat{m}(X_i)) - (T_i - \hat{e}(X_i))\tau(X_i))^2
この最小化問題は、機械学習アルゴリズムを用いて解くことができます。例えば、\tau(X) を線形関数や決定木、ランダムフォレストなどでモデル化し、残差二乗和を最小化するようにパラメータを調整します。

  

R-learnerのこのようなアプローチには、いくつかの重要な利点があります。まず、統計的効率性が高いことが挙げられます。R-learnerは、セミパラメトリック推定の理論に基づいており、適切な条件下では効率的な推定量となることが知られています。次に、柔軟性があります。結果モデル $m(X)$ と傾向スコアモデル e(X)、そして処置効果モデル \tau(X) のそれぞれに対して、異なる機械学習アルゴリズムを使用することができます。これにより、データの特性に応じて適切なモデルを選択することが可能になります。さらに、R-learnerは二重頑健性(double robustness)という特性を持っています。これは、(X)e(X) のどちらか一方が正しく指定されていれば、一貫した推定が可能であることを意味します。

  

しかし、R-learnerにも課題があります。まず、その理論的な複雑さが挙げられます。R-learnerの背後にある統計理論は比較的高度であり、実装や解釈に専門知識が必要となる場合があります。また、m(X)e(X) の推定精度が最終的な CATE の推定精度に大きく影響を与えるため、これらのモデルの選択と調整が重要になります。さらに、処置効果が非常に小さい場合や、処置の割り当てが共変量と強く相関している場合(強い交絡がある場合)には、推定が難しくなる可能性があります。
0 R-learnerの性能は、使用する基礎となる機械学習アルゴリズムに大きく依存します。m(X)e(X)\tau(X) のそれぞれに対して、線形回帰、決定木、ランダムフォレスト、ニューラルネットワークなど、様々なアルゴリズムを使用することができます。この柔軟性により、データの特性や問題の性質に応じて適切なアルゴリズムを選択することが可能になりますが、同時にモデル選択の複雑さも増加します。

R-learnerは、その統計的効率性と柔軟性から、特に大規模なデータセットや複雑な処置効果構造が予想される場合に有効なツールとなり得ます。しかし、その理論的複雑さと実装の難しさから、適用には注意が必要です。

DR-learner (Doubly Robust learner)の理論

DR-learner(Doubly Robust learner)は、条件付き平均処理効果(CATE)を推定するための強力なアプローチであり、二重頑健推定(Doubly Robust estimation)の概念を Meta-learner フレームワークに組み込んだものです。この手法は、モデルの誤指定に対する頑健性と統計的効率性を両立することを目指しています。   
DR-learnerのアプローチは、次の推定量に基づいています

\hat{\tau}(x) = E[\hat{\psi}(Y, T, X) | X = x]
ここで、\hat{\psi}(Y, T, X) は二重頑健推定量であり、以下のように定義されます
\hat{\psi}(Y, T, X) = \frac{T(Y - \hat{m}_0(X))}{\hat{e}(X)} - \frac{(1-T)(Y - \hat{m}_1(X))}{1-\hat{e}(X)} + \hat{m}_1(X) - \hat{m}_0(X)
この式において、\hat{m}_1(X) は処置群の結果モデル、\hat{m}_0(X) は対照群の結果モデル、\hat{e}(X) は傾向スコアモデルを表します。

  
DR-learnerの実装は、以下の段階的なアプローチを採用します

まず、\hat{m}_1(X)\hat{m}_0(X)\hat{e}(X) を推定します。これらは、それぞれ処置群の結果変数、対照群の結果変数、処置変数を共変量 X に回帰させることで得られます。
次に、各サンプルに対して \hat{\psi}(Y, T, X) を計算します。
最後に、\hat{\psi}(Y, T, X) を新たな目的変数として、共変量 X に対する回帰問題を解きます。この回帰問題の解が CATE の推定値 \hat{\tau}(x) となります。

  

DR-learnerのこのようなアプローチには、いくつかの重要な利点があります。まず、二重頑健性が挙げられます。結果モデル(\hat{m}_1(X)\hat{m}_0(X))と傾向スコアモデル(\hat{e}(X))のどちらか一方が正しく指定されていれば、一貫した推定が可能です。これにより、モデルの誤指定に対する頑健性が高まります。次に、統計的効率性があります。両方のモデルが正しく指定されている場合、DR-learnerは効率的な推定量となります。さらに、柔軟性も備えています。結果モデル、傾向スコアモデル、そして最終的な回帰モデルのそれぞれに対して、異なる機械学習アルゴリズムを使用することができます。

  
しかし、DR-learnerにも課題があります。まず、その複雑性が挙げられます。複数のモデルを推定し組み合わせる必要があるため、実装と計算コストが比較的高くなります。また、傾向スコアが 0 や 1 に近い値をとる場合(つまり、ある共変量の組み合わせに対して処置や対照群のサンプルがほとんど存在しない場合)、推定値が不安定になる可能性があります。さらに、各段階でのモデル選択やハイパーパラメータの調整が必要となり、適切な設定を見つけるのが難しくなる可能性があります。   
DR-learnerの性能は、使用する基礎となる機械学習アルゴリズムに大きく依存します。結果モデル、傾向スコアモデル、最終的な回帰モデルのそれぞれに対して、線形回帰、決定木、ランダムフォレスト、ニューラルネットワークなど、様々なアルゴリズムを使用することができます。この柔軟性により、データの特性や問題の性質に応じて適切なアルゴリズムを選択することが可能になりますが、同時にモデル選択の複雑さも増加します。   
DR-learnerは、その二重頑健性と統計的効率性から、特にモデルの誤指定リスクが高い場合や、複雑な処置効果構造が予想される場合に有効なツールとなり得ます。しかし、その複雑性と計算コストの高さから、適用には注意が必要です。

U-learner(U-statistic based learner)の理論

U-learner(U-statistic based learner)は、条件付き平均処理効果(CATE)を推定するための革新的なアプローチであり、U統計量の概念を Meta-learner フレームワークに導入したものです。この手法は、効率的な推定と柔軟なモデリングを両立することを目指しています。   
U-learnerのアプローチは、U統計量に基づく以下の推定量を中心に構築されています

\hat{\tau}(x) = \frac{\sum_{i \neq j} K_h(X_i - x) (T_i - T_j)(Y_i - Y_j)}{\sum_{i \neq j} K_h(X_i - x) (T_i - T_j)^2}
ここで、K_h(\cdot)カーネル関数であり、h はバンド幅パラメータです。この推定量は、局所的な U 統計量の考え方に基づいています。

  
U-learnerの実装は、以下の段階的なアプローチを採用します

まず、適切なカーネル関数 K_h(\cdot) とバンド幅 h を選択します。これらの選択は、データの次元や分布に依存します。
各点 x に対して、上記の U 統計量ベースの推定量を計算します。これは、すべてのデータ点のペアに対する計算を含むため、計算量が大きくなる可能性があります。

得られた推定値を用いて、機械学習モデルを学習します。これにより、新しいデータ点に対する CATE の予測が可能になります。   
U-learnerのこのようなアプローチには、いくつかの重要な利点があります。まず、効率性が挙げられます。U統計量は、多くの場合、最小分散不偏推定量(MVUE)となることが知られており、これにより効率的な推定が可能になります。次に、モデルフリーな性質があります。U統計量ベースの推定は、結果モデルや傾向スコアモデルの明示的な指定を必要としないため、これらのモデルの誤指定リスクを回避できます。さらに、非線形性や交互作用の扱いに優れています。カーネル法を用いることで、複雑な非線形関係を柔軟にモデル化することができます。   
しかし、U-learnerにも課題があります。まず、計算量の問題が挙げられます。U統計量の計算は二重のループを含むため、大規模なデータセットに対しては計算時間が長くなる可能性があります。また、カーネル関数とバンド幅の選択が重要になります。これらの選択が不適切な場合、推定の精度が低下する可能性があります。さらに、高次元の共変量を扱う場合、次元の呪いの問題に直面する可能性があります。
U-learnerの性能は、選択されるカーネル関数やバンド幅、そして最終的な機械学習モデルに大きく依存します。カーネル関数としては、ガウシアンカーネルやエパネチニコフカーネルなどが一般的に使用されます。
U-learnerは、その効率性と柔軟性から、特に非線形性が強い場合や、結果モデルや傾向スコアモデルの指定が難しい場合に有効なツールとなり得ます。しかし、その計算量の多さや、カーネル法特有のパラメータ調整の難しさから、適用には注意が必要です。
個人的には、計算リソースの問題が解決すれば、カーネル法系の手法は、選択肢に大きく入ってくる将来が来ると思っているので、将来に期待な手法といったところでしょうか

M-learner(Modified Covariate Method)の理論

M-learner(Modified Covariate Method)は、条件付き平均処理効果(CATE)を推定するためのアプローチであり、共変量修正法を基礎としています。この手法は、処置変数と共変量の交互作用を明示的にモデル化することで、柔軟かつ解釈可能な CATE の推定を目指しています。   
M-learnerのアプローチは、以下の回帰モデルに基づいています

Y = \alpha(X) + T \cdot \tau(X) + \varepsilon
ここで、\alpha(X) は共変量 X の主効果を表す関数、\tau(X) は CATE を表す関数、\varepsilon は誤差項です。

  
M-learnerの実装は、以下の段階的なアプローチを採用します

まず、傾向スコア e(X) = P(T=1|X) を推定します。これは通常、ロジスティック回帰やその他の分類アルゴリズムを用いて行われます。
次に、修正された共変量 X^* = X - E[X|T] を計算します。これは以下のように近似されます
X^* \approx (1-T)\frac{X}{1-e(X)} - T\frac{X}{e(X)}
修正された共変量 X^* と処置変数 T を用いて、以下の回帰モデルを推定します
Y = \alpha(X^) + T \cdot \tau(X^) + \varepsilon
推定された \tau(X^*) 関数が CATE の推定値となります。

  

M-learnerのこのようなアプローチには、いくつかの重要な利点があります。まず、解釈可能性が高いことが挙げられます。処置効果が共変量の関数として明示的にモデル化されるため、各共変量が処置効果にどのように影響を与えるかを直接解釈することができます。次に、柔軟性があります。\alpha(X^)\tau(X^) の関数形を柔軟に選択することができ、線形モデルから複雑な非線形モデルまで幅広いモデルを適用できます。さらに、共変量の修正により、処置割り当ての偏りを部分的に補正する効果があります。

  
しかし、M-learnerにもいくつかの課題があります。まず、傾向スコアの推定精度が全体の推定精度に大きく影響を与える可能性があります。傾向スコアの推定が不適切な場合、修正された共変量も不適切になり、最終的な CATE の推定にバイアスが生じる可能性があります。また、高次元の共変量を扱う場合、修正された共変量の計算や解釈が複雑になる可能性があります。さらに、処置効果が共変量と非常に複雑な関係にある場合、適切な関数形を選択することが難しくなる可能性があります。

M-learnerの性能は、使用する基礎となる機械学習アルゴリズムに大きく依存します。傾向スコアの推定、そして \alpha(X^)\tau(X^) の推定には、線形回帰、決定木、ランダムフォレスト、ニューラルネットワークなど、様々なアルゴリズムを使用することができます。

  
M-learnerは、その解釈可能性と柔軟性から、特に処置効果の異質性を詳細に分析したい場合や、処置効果のメカニズムを理解したい場合に有効なツールとなり得ます。しかし、その性能が傾向スコアの推定精度に依存することや、高次元データでの適用の難しさから、適用には注意が必要です。
M-learnerは、共変量修正法という古典的なアイデアを現代の機械学習手法と組み合わせた興味深いアプローチです。今後、高次元データへの適用方法の改善や、より複雑な処置構造(例:多値処置や連続的処置)への拡張など、様々な観点からの発展が期待されます。

F-learner(Food and Mold learner)の理論

F-learner(Food and Mold learner)は、条件付き平均処理効果(CATE)を推定するための比較的新しいアプローチです。この手法は、処置群と対照群の予測を巧妙に組み合わせることで、効率的かつ柔軟な CATE の推定を目指しています。F-learnerという名称は、この手法の開発者が用いた比喩に由来しています。   
F-learnerのアプローチは、以下の二つの関数を推定することから始まります

\mu_1(x) = E[Y | X = x, T = 1](処置群の条件付き期待値)
\mu_0(x) = E[Y | X = x, T = 0](対照群の条件付き期待値)

  
これらの関数を用いて、F-learnerは次のような形で CATE を推定します

\hat{\tau}(x) = g(x) \cdot (\mu_1(x) - \mu_0(x))
ここで、g(x) は重み関数であり、0 から 1 の値をとります。この重み関数が F-learner の特徴的な要素です。

  
F-learnerの実装は、以下の段階的なアプローチを採用します

まず、処置群と対照群それぞれに対して条件付き期待値関数 \mu_1(x)\mu_0(x) を推定します。これには任意の回帰モデルを使用できます。
次に、重み関数 g(x) を推定します。この関数は、各共変量の値 x に対して、\mu_1(x)\mu_0(x) の予測がどの程度信頼できるかを表現します。例えば、以下のような形式を取ることがあります
g(x) = \frac{n_1(x)n_0(x)}{n_1(x)n_0(x) + \lambda(n_1(x) + n_0(x))}
ここで、n_1(x)n_0(x) はそれぞれ x の近傍における処置群と対照群のサンプル数、\lambda はハイパーパラメータです。
最後に、\hat{\tau}(x) = g(x) \cdot (\mu_1(x) - \mu_0(x)) を計算して CATE を推定します。

  

F-learnerのこのようなアプローチには、いくつかの重要な利点があります。まず、柔軟性が挙げられます。\mu_1(x)\mu_0(x) の推定には任意の回帰モデルを使用でき、非線形性や複雑な交互作用を捉えることができます。次に、サンプルサイズの不均衡に対する頑健性があります。重み関数 g(x) により、各群のサンプル数に応じて推定値を調整することができます。さらに、外挿の問題に対する一定の保護機能があります。共変量空間の特定の領域でデータが不足している場合、g(x) がその領域での推定値を下げる効果があります。

  

しかし、F-learnerにもいくつかの課題があります。まず、重み関数 g(x) の適切な形式と、そのパラメータ(例:\lambda)の選択が重要になります。これらの選択が不適切な場合、推定精度が低下する可能性があります。また、高次元の共変量を扱う場合、近傍サンプル数の計算が難しくなる可能性があります。さらに、\mu_1(x)\mu_0(x) の推定誤差が CATE の推定に直接影響を与えるため、これらの関数の適切なモデリングが重要になります。

  

F-learnerの性能は、使用する基礎となる機械学習アルゴリズムに大きく依存します。\mu_1(x)\mu_0(x) の推定には、線形回帰、決定木、ランダムフォレスト、ニューラルネットワークなど、様々なアルゴリズムを使用することができます。また、重み関数 g(x) の計算方法にも様々なバリエーションが考えられ、これらの選択がF-learnerの性能に大きく影響します。

  

実際の適用においては、重み関数 g(x) の形式や関連するハイパーパラメータの選択に関して、交差検証などの手法を用いて最適な設定を選択することが推奨されます。さらに、\mu_1(x)\mu_0(x) の推定精度や、共変量空間でのサンプルの分布についても慎重に検討する必要があります。

  
F-learnerは、その柔軟性とサンプルサイズの不均衡に対する頑健性から、特に処置群と対照群のサンプルサイズが大きく異なる場合や、共変量空間での分布に偏りがある場合に有効なツールとなり得ます。しかし、重み関数の設計や高次元データでの適用には注意が必要です。

Random Forest Learnerの理論

Random Forest Learnerは、条件付き平均処理効果(CATE)を推定するためのアプローチであり、ランダムフォレストアルゴリズムの強力な予測能力を活用しています。この手法は、非線形性や交互作用を自然に捉えることができる点で、複雑な処置効果構造を持つ問題に特に適しています。   
Random Forest Learnerのアプローチは、ランダムフォレストの構造を利用してCATEを直接推定します。その実装は、以下の段階的なアプローチを採用します

データの準備:共変量 X に処置変数 T を追加した拡張共変量空間 (X, T) を考えます。
ランダムフォレストの構築:結果変数 Y(X, T) に対して回帰するランダムフォレストモデルを構築します。このモデルは以下の関数を推定します
f(x, t) = E[Y | X = x, T = t]

各木での処置効果の計算:ランダムフォレストの各決定木について、葉ノードごとに処置効果を計算します。葉ノード l での処置効果 \tau_l は以下のように計算されます
[tex:\tau_l = \frac{1}{n{l1}} \sum{i \in l, T_i=1} Y_i - \frac{1}{n{l0}} \sum{i \in l, T_i=0} Y_i]
ここで、[tex:n{l1}] と [tex:n{l0}] はそれぞれ葉ノード $l$ に含まれる処置群と対照群のサンプル数です。
CATEの推定:新しいデータ点 x に対するCATEの推定値は、x が各木でどの葉ノードに分類されるかを考慮し、それらの葉ノードでの処置効果の平均として計算されます
[tex:\hat{\tau}(x) = \frac{1}{B} \sum{b=1}^B \tau{l_b(x)}]
ここで、B は木の数、l_b(x)b 番目の木で x が分類される葉ノードを表します。
  
Random Forest Learnerのこのようなアプローチには、いくつかの重要な利点があります。まず、非線形性と交互作用の扱いに優れています。ランダムフォレストの特性により、共変量間の複雑な関係性や処置効果の非線形構造を自然に捉えることができます。次に、変数選択の能力があります。重要度の高い変数を自動的に選択し、不要な変数の影響を軽減することができます。(ここに関しては以前ランダムフォレストの記事を書いたときに説明した気がします) tomtom58.hatenablog.com

さらに、過学習に対する頑健性があります。ランダムフォレストのアンサンブル性質により、個々の木の過学習を抑制し、汎化性能の高いモデルを構築できます。   
しかし、Random Forest Learnerにもいくつかの課題があります。まず、解釈可能性の問題があります。ランダムフォレストは「ブラックボックス」モデルと呼ばれることが多く、個々の予測がどのようになされているかを詳細に説明することが難しい場合があります。また、外挿の問題があります。訓練データの範囲外の領域では、予測の信頼性が低下する可能性があります。さらに、計算コストの問題もあります。大規模なデータセットや高次元の問題では、計算時間とメモリ使用量が増大する可能性があります。   
Random Forest Learnerの性能は、ランダムフォレストのハイパーパラメータに大きく依存します。木の数、最大深さ、ノードを分割する際の最小サンプル数、特徴量のサブサンプリング比率などが重要なパラメータとなります。これらのパラメータの適切な選択が、モデルの性能と汎化能力を左右します。   

最後に

今回本当は実装部分まで扱うつもりでいたのですが、それはじかに持ち越したいと思います。機械学習と因果推論分野の発展に伴って、メタラーナーは結構ホットな分野だと思っています。この先CATEを推定したいというモチベーションは、効果の異質性や個別への施策最適化の流れの中では、来るのだろうと個人的には思っているので、今回はメタラーナー手法の種類とその理論を軽く触ってみました。次回は必ず実装記事を書きます。