Paper Reading, "On Causal and Anticausal Learning", ICML-12

35
“On Causal and Anticausal Learning” In Proc. of ICML-12 D3 Yusuke IWASAWA Paper Reading 1

Transcript of Paper Reading, "On Causal and Anticausal Learning", ICML-12

Page 1: Paper Reading, "On Causal and Anticausal Learning", ICML-12

“On Causal and Anticausal Learning”In Proc. of ICML-12D3 Yusuke IWASAWA

Paper Reading 1

Page 2: Paper Reading, "On Causal and Anticausal Learning", ICML-12

書誌情報

• Bernhard Schölkopf, Dominik Janzing, Jonas Peters, Eleni Sgouritsa, Kun Zhang

• Max Planck Institute for Intelligent System, Germany• ICML2012• 概要:

– 因果構造に関する知識を機械学習タスクにどう利用可能かの分析– 因果構造自体を推定する話ではない

• 選定理由:– この分野よく知らないけど重要そう

• 推論:政策 A ( Intervention )が本当に効果があるのかを予想する

– Deep Learning 本の 16 章 “ Representation Learning” でも重要な役割• 事前学習はどのようなときにうまくいくのかなど

2

Page 3: Paper Reading, "On Causal and Anticausal Learning", ICML-12

Outlines1. Introduction ( English )2. Causal Model Setting3. Anticausal Model Setting4. Empirical Experiments

3

Page 4: Paper Reading, "On Causal and Anticausal Learning", ICML-12

Main Topic: Causal Structure (因果構造)

• Causal Structure is...– The graph that represents the relationship

between variables

X Y

X Y

4

Causal

Anticausal

• Input causes output• Ex. House pricing

• X: Feature of houses• Y: Price

• Output causes input• Ex. Iris

• X: Feature of lily• Y: Type of iris plants

Page 5: Paper Reading, "On Causal and Anticausal Learning", ICML-12

5RQ: How ML could benefit from the structure?

This paper gives simple explanations by how the causal structure determines best solutions for some ML tasks

Page 6: Paper Reading, "On Causal and Anticausal Learning", ICML-12

6This paper not includes/includes

Not Includes

Includes

• Theorems• Novel experimental data

• Systematic explanation of how causal structure facilitate statistical ML

• Empirical evaluations of how the above explanation is consistent with (many) real world examples

Page 7: Paper Reading, "On Causal and Anticausal Learning", ICML-12

Summary of Results:• How causal structure facilitate ML?

– In causal setting, SSL could not works well– In anticausal setting, SSL could works well – and similar explanations on many other settings

• How the explanation is consistent with real world examples?– They verified that the explanation is consistent

with real world results using more than 26 datasets

7

Page 8: Paper Reading, "On Causal and Anticausal Learning", ICML-12

Summary of Introduction (Japanese)

• 因果構造+機械学習– 因果関係の構造に関する知識が,機械学習のタスクを解くため

にどう重要かをいくつかの仮定のもと分析

• いろいろな設定で実験※

– 半教師あり学習( SSL ),転移学習,コンセプトドリフト etc• 結果:

– 半教師あり学習がうまくいくかどうかに因果構造が大きく関わっていることを確認

– 実データセット( 26 以上)を利用して上記の説明が正しいことを確認

※ 時間の関係上ここでは一部のみを扱います

8

Page 9: Paper Reading, "On Causal and Anticausal Learning", ICML-12

Notations

• P(C) ~ C, P(E) ~ E• P(X) ~ X, P(Y) ~ Y• X が原因で Y が結果の場合, X が結果で Y が原因の場合の 2 通り分析

原因( Cause )

結果( Effect )E = φ(C, NE)

ノイズ(互いに独立)

メカニズム

9

Page 10: Paper Reading, "On Causal and Anticausal Learning", ICML-12

10OverviewSelect Analysis

Targets Explain Assumptions Give Best Solution for each ML Tasks

Compare Best Solutions

• Independence

• Richness• etc

• Covariant Shift

• SSL• Transfer

Learning• Concept

Drift• etc.

Best solutions for Causal Structure

X YCausal

X Y

Anticausal

因果構造に関する知識をどう役立てられるのかを検証

Best solutions for Anticausal

Structure

Page 11: Paper Reading, "On Causal and Anticausal Learning", ICML-12

11Assumptions of this paperCausal Sufficiency

• 2つの独立なノイズ変数( NC と NE が存在している)

• 原因と結果の間に交絡がない?

Independence of Mechanism and Input (重要)• P(E|C) と P(C) は独立• [Janzing & Scholkopf, 2010]• 重要なので次スライドで説明

Richness of functional causal models

• 因果構造の同定は 2 変数であっても仮定なしには難しい

• 古典的には PC や FCI により解ける[Spirtes et al, 19933; Pearl, 2000]

Additive noise models

• 因果構造の同定を行うためのモデルの 1 つ [Hoyer et al., 2009]

• 本発表では,因果構造は同定できているものとして進める

いずれも因果推論の分野では行われてきた仮定っぽい.ここが Novel というわけではない.

Page 12: Paper Reading, "On Causal and Anticausal Learning", ICML-12

12Independence of Mechanism and Input• P(E|C) と P(C) は独立• C : MTG でのプレゼンのクオリティ• E :卒業できるかどうか• P(E|C) :あるクオリティのプレゼンを行った学生が卒業

できる確率

• P(C) は入って来る学生によりばらつく• P(C) が変化したからといって, P(E|C) は変化しない• 逆に, P(E|C) が変化したからといって, P(C) は変化しな

Page 13: Paper Reading, "On Causal and Anticausal Learning", ICML-12

13P(E) と P(C|E) は独立か

• 結論:一般に独立ではない[Janzing &scholkopf, 2010; Daniusis et al., 2010]

• E :卒業できるかどうか• P(E) :卒業できる確率• P(C|E) :卒業できた人がどのようなプレゼンをしてた

か• どちらも P(C) や P(E|C) の変化に影響される

Page 14: Paper Reading, "On Causal and Anticausal Learning", ICML-12

Outlines1. Introduction2. Causal Model Setting3. Anticausal Model Setting4. Empirical Experiments

14

Page 15: Paper Reading, "On Causal and Anticausal Learning", ICML-12

What is Causal?

• 入力 X が原因 C 、出力 Y が結果 E であるような設定• 例:駅からの近さや部屋の広さを入力、家賃を出力とする場合

• そもそも理想的な関数 φ があるので f を求めるのも簡単と期待される

原因 X から結果 Y への写像 f

15

Page 16: Paper Reading, "On Causal and Anticausal Learning", ICML-12

ML Tasks for Analysis

• 複数の設定で検証• 時間の関係上本発表では Type1 のみを扱う

Type1: 入力に関する情報がある場合

Type2: 出力に関する情報がある場合

Type3: 入出力に関する

情報がある場合

情報がある場合入力に関する

情報がある場合入力に関する

情報がある場合

共変量シフト

半教師あり学習(SSL)

分布の変化

新しいサンプル

転移学習

コンセプトドリフト

入力分布 P(X) が異なるデータ有り

同じ分布 P(X) の新たなデータ有り

出力分布 P(Y) が異なるデータ有り

同じ分布 P(X) の新たなデータ有り

ノイズのみが変化したデータ有りANM におけるノイズ NXNYが異なる

ANM における Φ が異なる

16

Page 17: Paper Reading, "On Causal and Anticausal Learning", ICML-12

17分析の構造

• Given :与えられる条件• Goal :目的• Solution :– 与えられた条件下で目的を達成する最適な解法

• Note :特記事項• Assumption :– 追加の仮定

杉山将,非定常環境下での学習:共変量シフト適応,クラスバランス変化適応,変化検知

Page 18: Paper Reading, "On Causal and Anticausal Learning", ICML-12

Case: Covariant Shift (共変量シフト)

• Given: – P(X, Y) からのサンプル群– P’(X) からのサンプル群

• Goal:– P’(Y|X) を推定

• Solution:– 独立性の仮定から, P’(X) は P’(Y|X) に関する情報を持たない– ゆえに, P(Y|X)=P’(Y|X) と推定するのが良い

(共変量シフトの手法はうまくいかない)

18

杉山将,非定常環境下での学習:共変量シフト適応,クラスバランス変化適応,変化検知

Page 19: Paper Reading, "On Causal and Anticausal Learning", ICML-12

Case: SSL (半教師あり学習)

• Given: – P(X, Y) からのサンプル群– P(X) からの新しいサンプル群

• Goal:– P (Y|X) を推定

• Solution:– 独立性の仮定から, P(X) は P(Y|X) に関する情報を持たない– ゆえに,単純な教師あり学習が良い

(半教師あり学習はうまくいかない)

19

Page 20: Paper Reading, "On Causal and Anticausal Learning", ICML-12

Outlines1. Introduction2. Causal Model Setting3. Anticausal Model Setting4. Empirical Experiments

20

Page 21: Paper Reading, "On Causal and Anticausal Learning", ICML-12

What is Anticausal?

• 入力 X が結果 E 、出力 Y が原因 C であるような設定• 例: lily, MNIST

• すなわち、原因 E から結果 C への関数 f を求める

21

原因 X から結果 Y への写像 f

Causal と逆向き

Page 22: Paper Reading, "On Causal and Anticausal Learning", ICML-12

Case: Covariant Shift (共変量シフト)

• Given: – P(X, Y) からのサンプル群– P’(X) からのサンプル群

• Goal:– P’(Y|X) を推定

• Solution:– P(Y) が変化したのか P(X|Y) が変化したのかを "LDC” により検証

• 前者の場合,“ Inverting Control” により P’(Y) を推定• 後者の場合,“ Estimating causal conditions” を利用して P’(X|Y) を推定

– LDC などについては割愛(論文 4 章参照) – 要は, P’(X) の情報を活用することができる

(共変量シフトの手法が効果的)

22

Page 23: Paper Reading, "On Causal and Anticausal Learning", ICML-12

Case: SSL (半教師あり学習)

• Given: – P(X, Y) からのサンプル群– P(X) からの新しいサンプル群

• Goal:– P(Y|X) を推定

• Note:– P(X) と P(Y|X) は独立ではない

• c.f. P(Y) と P(X|Y) は独立– ゆえに新たなサンプルによる P(X) のより良い推定が効果的で

ありうる(半教師あり学習が効果的)

23

Page 24: Paper Reading, "On Causal and Anticausal Learning", ICML-12

24SSL の一般的な仮定との整合性

• いずれも, P(X) と P(Y|X) がどう繋がるべきかに関する仮定

• P(X) と P(Y|X) が独立ではうまくいかないのは当然

Cluster Assumption

P(X) に関して同じクラスタに属するサンプルは同じクラス

Low density separation assumption

クラスが曖昧な部分のP(X) の密度は小さい

Semi-supervised smoothness assumption

学習される関数(すなわち,分布 P(Y|X) の期待値)は P(X) が大きい部分では滑らかである

Page 25: Paper Reading, "On Causal and Anticausal Learning", ICML-12

Outlines1. Introduction2. Causal Model Setting3. Anticausal Model Setting4. Empirical Experiments

25

Page 26: Paper Reading, "On Causal and Anticausal Learning", ICML-12

26実験設定

• 各データセットが次のいずれかに割り当て– Anticausal :入力 X が結果,出力 Y が原因– Causal :入力 X が原因,出力 Y が結果– Unclear :どちらか不明

• 半教師あり学習がうまくいくかを検証– ここまでの説明 / 仮説が正しければ、

1) Causal については SSL はうまくいかない2) Anticausal については SSL はうまくいく

Page 27: Paper Reading, "On Causal and Anticausal Learning", ICML-12

Semi-Supervised Learning

• 26 のデータセットで確認• Causal ではうまくいかないことを確認

27

教師

あり

学習

との差

Page 28: Paper Reading, "On Causal and Anticausal Learning", ICML-12

Semi-supervised Regression 28

Anticausal• 教師あり学習より半教師あり学習の場合で

RMSE が低下• 半教師ありにより精度改善• Wilcoxon 検定で有意差あり( p値=0.0156 )

Causal• 半教師ありにより精度は微妙に改善• Wilcoxon 検定では有意差なし( p値

=0.6523 )

Wilcoxon 検定参考資料: http://kusuri-jouhou.com/statistics/wilcoxon.html

Page 29: Paper Reading, "On Causal and Anticausal Learning", ICML-12

29まとめ

• 本発表では,いくつかの仮定のもと因果構造がML タスクにどう影響を与えるのか分析した– 例)– Causal の場合: SSL はうまくいかない– Anticausal の場合: SSL がうまくいきうる

• 実験結果も上記の説明をサポートしている• 因果構造は ML タスクをよりよく解く上で必要

Page 30: Paper Reading, "On Causal and Anticausal Learning", ICML-12

詳しく知りたい人: Judea Pearl で検索

• “ジューディア・パール( Judea Pearl 、 1936年 9月4日 - )はイスラエル系アメリカ人の計算機科学者で哲学者。人工知能への確率的アプローチとベイジアンネットワークを発展させたことで知られている(確率伝搬法を参照)。また、構造モデルに基づいた因果的かつ反事実的推論の理論を発展させた。” ( Wikipediaより抜粋)

• 2011年: ACMチューリング賞受賞

30

Page 31: Paper Reading, "On Causal and Anticausal Learning", ICML-12

交絡( Confounding )とは

• 交絡(こうらく、英 : Confounding )は、統計モデルの中の従属変数と独立変数の両方に(肯定的または否定的に)相関する外部変数が存在すること。そのような外部変数を交絡変数( confounding variable )、交絡因子( confounding factor 、confounder )、潜伏変数( lurking variable )などと呼ぶ。したがって科学的研究では、第一種過誤(従属変数が独立変数との因果関係にあるという偽陽性の結論)と呼ばれるこれらの要因を避けるよう制御する必要がある。 2 つの観測された変数のそのような関係を擬似相関という。すなわち交絡が存在する場合、観測された現象の真の原因は交絡変数であるにもかかわらず、独立変数を原因と推論してしまう。

31

Page 32: Paper Reading, "On Causal and Anticausal Learning", ICML-12

因果構造とグラフィカルモデルの違い

• 因果構造:– データの構造を表すもの?

• グラフィカルモデル:– 機械学習タスクを解く上での因果構造に関する

仮定?

32

Page 33: Paper Reading, "On Causal and Anticausal Learning", ICML-12

33Wilcoxon 検定

• http://kusuri-jouhou.com/statistics/wilcoxon.html

Page 35: Paper Reading, "On Causal and Anticausal Learning", ICML-12

35独立である例

• C :遺伝子配列• E :ある特徴が発現するかどうか