Take a Risk:林岳彦の研究メモ

自らの研究に関連するエトセトラについてのメモ的ブログです。主にリスク学と統計学を扱っています。

今回は因果関係があるのに相関関係が見られない4つのケースをまとめてみた(前編:検定力が低い)

どもお久しぶりです。林岳彦です。ローソンなどで売ってるいなばのタイカレーそうめんのつけ汁として使ってもマジうまいのでオススメです。


さて。


今回は前々回の記事:

因果関係がないのに相関関係があらわれる4つのケースをまとめてみたよ(質問テンプレート付き) - Take a Risk:林岳彦の研究メモ

の続編として、逆のケースとなる「因果関係があるのに相関関係が見られない」ケースについて見ていきたいと思います。あんまり長いと読むのも書くのも大変なので、今回はまずは前編として「検定力の問題」に絞って書いていきます。

(*今回は上記の前々回の記事での記述を下敷きに書いていきますので、分からないところがあったら適宜前々回の記事をご参照ください)


まずは(今回の記事における)用語の定義:「相関」と「因果」

今回も少しややこしい話になると思うので、まずは用語の定義をしておきたいと思います。(*細かいところはあまり気にしない方はこの節は飛ばしてもらってもたぶん大丈夫です)

前々回の記事と同じく、今回の記事内では「因果」の定義については:

「要因Aを変化させた(介入)とき、要因Zも変化する」ときに、「要因A→要因Zの因果関係がある」と呼ぶ

ことにしたいと思います(詳しくは、前々回のエントリーをご参照ください)。今回の記事の後編では、この「因果」定義自体の難点にも触れることにもなっていきます。

また、今回の記事内では、「相関」については:

得られたデータにおける項目Aと項目Zのあいだに何らかの関連がみられる(=独立でない)ときに、両者間に「相関がある」と呼ぶ

ことにします。より一般には、「相関」というと、 ピアソンの相関係数で示されるような項目間での「直線的な関連性」を指すことが多いですが、今回の記事で言及するのは基本的に「直線的な関連」に限定した話ではないので、上記のようなかなりユルい定義を使っていきます(より詳しい議論は前回の記事をご参照ください)。

そして「相関が見られる/見られない」という表現については、「データにおける項目間にある関連性が、偶然に生じたものと区別できるほど大きい*1/区別できないほど小さい」という意味で用いていきます。(そもそも相関は本質的に連続量的なものなので、「見られる/見られない」という二分法自体がスジが悪いともいえますが、ここでは日常的用語法に従い「見られる/見られない」という表現を使っていきます*2

また、今回の記事では、あくまでも狭義の相関( ピアソンの相関係数r)ではなく、データにおける項目間に「何らかの関連性」が見られるかどうかを問題としていくので、例えばt検定で「2群間の平均値に差がある(=2群間での「処理の違い」と「結果」の間に関連性がある)」ことをもって「相関がある」という言い方もしていきます(まあ基本的に、2群間で平均値に差が見られれば相関も見られるので同じことになります)。

因果関係があるのに相関が見られないケース:(1)検定力が低い

はい。では「因果関係があるのに相関が見られない」ケースを見て行きましょう。

まずは、なんといっても、そもそも「検定力が低い」ケースです。

検定力とは、「(偶然によるものではない)差や関連性がある場合に、それを統計的に有意な差や関連性として検出できる確率」です。そして、結論から言うと、その「検定力」の大きさは、「サンプル数サンプルサイズ*3」「影響(関連性)の大きさ」「データにおけるバラつきの大きさ」「有意水準」に本質的に依存します。


では、具体的な理解のために、仮想例を見ていきましょう。

今回は、「新開発のキンギョのエサが、キンギョの体重に与える影響」のケースを考えていきます。

あなたはキンギョのエサの開発者で、「新しく開発したエサが(従来のエサに対して)どのくらいキンギョの体重を増加させるのか」を知りたいとします。ここで、生まれたばかりのキンギョの稚魚をA群/B群へとランダムに分け、A群には「従来のエサ」を、B群には「新しく開発したエサ」を与えつづけて1年間育ててみるという実験をしてみます:


ここで、「従来のエサで育てたときの平均体重は30g標準偏差は5gで、新開発のエサはキンギョの1年後の体重を平均+3g増加させる(標準偏差は変化させない*4)」という状況を考えていきましょう。

果たして、各群に何匹のキンギョを用いればこの2群の「差」を検出できるでしょうか?


では、Rで色々と計算していきたいと思います。まずは、試しに散布図の例から描いてみます*5


この図は各群のキンギョが10匹(各群がn=10)のケースについて、横軸の左側は従来のエサ(A群)、右側は新開発のエサ(B群)、縦軸はそれぞれの群における「1年後の体重(g)」を表しています(RコードはKingyo_Ex.R 直)。このプロットを見ると、新開発エサのB群の体重の方が大きいように見えますが、その差の程度はビミョウなかんじですね。。

では、実際にサンプルサイズがA群、B群ともにn=10匹の場合のp値を計算してみましょう。今回は「正規分布する2群のサンプルにおける平均値の差を見る」のが目的なのでt検定になります*6

Rで解析を行うと次のようになります:

> n <- 10; controlmean <- 30;
> truedifference <- 3; truesd <- 5;
>
> weightA.data <- rnorm(n,mean=controlmean,sd=truesd)
> weightB.data <- rnorm(n,mean=controlmean+truedifference,sd=truesd)
>
> ttest.res <- t.test(weightA.data, weightB.data, var.equal=T, alternative="less")
> ttest.res

     Two Sample t-test

data:  weightA.data and weightB.data
t = -0.6752, df = 18, p-value = 0.2541
alternative hypothesis: true difference in means is less than 0
95 percent confidence interval:
     -Inf 2.454056
sample estimates:
mean of x mean of y
 31.15390  32.71873

今回の各群n=10匹の例では、p値(p-value)はp=0.25になりました*7。有意水準をp=0.05とすると、この場合では"統計的に有意な差"を検出できなかったことになります。

さて。では、このような各群n=10匹の場合のシミュレーションを100回繰り返してみましょう(A群、B群のデータは各回のシミュレーションごとに新たなものを生成しています:RコードはKingyo_ttest100sim.R 直):


各群n=10のシミュレーションを100回繰り返すと、以上のような結果になりました。横軸は100回のシミュレーションを、縦軸はそれぞれのシミュレーションで得られたp値を示しています。赤色の破線はp=0.05の水準を示しています。この例では、有意水準をp=0.05とすると100回中の37回において(のみ)統計的に有意な差(p<0.05)を検出できているという結果になりました。

この「(偶然によるものではない)差がある場合に、それを統計的に有意な差として検出できる確率」が、「検定力」と呼ばれるものになります。
この「検定力」がなぜ重要かというと、要するに:

「検定力」が低い場合に、「因果関係があるのに相関関係が見られない」というケースが数多く生じる

からです。

例えば、上記の図の例では、本当は「新開発のエサによって体重が+3g変化している(=因果関係がある)」にもかかわらず、「100回中37回」しかそこに「統計的有意差が見られない(=相関関係が見られない)」という状況になっています。

もし、こんな検定力の低い(10回に4回弱しか差を検出できない)デザインの実験結果に基づいて「差がない」という結論になり、あなたが心血を注いで新開発したエサがお蔵入りになってしまったら悲しいですよね。。。


検定力が低い(あるいは、検定力に関する意識が低い)というのは、とても由々しき問題なのです。

どのような場合に検定力が低くなるのか

では、どのような場合に検定力が低くなるのかを見ていきましょう。

まずは、上記と同じキンギョの実験の例を念頭に、「コントロール群の平均体重30g標準偏差5g、新エサ投与時の増加体重+3g各群n=10有意水準p=0.05(片側検定)」の条件における検定力をRを用いて計算してみます。t検定を対象とした検定力の計算には、power.t.test()という関数を用います:

> power.t.test(n=10,delta=3,sd=5,sig.level=0.05,type="two.sample",alternative=("one.sided"))

     Two-sample t test power calculation

              n = 10
          delta = 3
             sd = 5
      sig.level = 0.05
          power = 0.3617837
    alternative = one.sided

検定力(power)は0.36と計算されました。同じパラメータ値を用いた上述のシミュレーションで得られている結果(100回中37回で有意差あり)と良く整合してますね。この検定力の「0.36」という値は低いのか高いのかというと、「よく分からないからもうコイントスで決めようぜ(←やけくそ)」というのでも検定力は0.5あるわけなので、まあ少なくともとても高いとは言えない値です*8


次は、検定力に対するサンプルサイズの影響をみていきましょう。上記と同じ「コントロール群の平均体重30g、標準偏差5g、新エサ投与時の増加体重+3g、有意水準p=0.05(片側検定)」という状況でサンプルサイズn(1群あたりのキンギョの匹数)だけを変化させた検出力の算出を行います:


はい。サンプルサイズが増すに従って検定力が上昇するのが見て取れます(Rコードはkensyutsuryoku.R 直)。もし8割の確率で「群間で体重に差がある場合に*9、それを統計的に有意なものとして検出できる」こと(検定力=0.8)を目指すのなら、サンプルサイズとして少なくとも各群40匹程度は必要となることが分かります。

一方、サンプルサイズが各群20匹程度の場合には、検定力が0.5くらいであり、おおよそ半々の確率で「新エサと体重の間に、因果関係があるのに(統計的に有意な)相関がみられない」ことが予測されます。


では、次は体重における「影響の大きさ」「ばらつきの大きさ」の影響を見てみます。今までと同じくデフォルトは「コントロール群の平均体重30g、標準偏差5g、新エサ投与時の増加体重+3g、有意水準p=0.05(片側検定)」で、体重の変化量標準偏差のみを変えてみましょう(Rコードはkensyutsuryoku.R 直):


他の要因が同じ場合、「変化量(影響の大きさ)」が大きくなるにつれて検定力は増加します(左図)。上図の例では、新エサによる体重の変化量が+6gを超えると検定力も0.8以上になっていますが、体重の変化が+3gくらいだと検定力は0.4以下に留まります。つまり、「変化量」が小さいほど検定力が低下するため、例えば、変化量が小さい場合にも同じ検定力を維持するためには「サンプルサイズを増す」などの対処が必要になってくる、というわけです。

また、他の要因が同じ場合、「体重のバラツキ」が大きくなると検定力は減少します(右図)。上図の例では、体重の標準偏差が2gくらいであれば検定力は0.8を超えますが、標準偏差が5gくらいになると検定力は0.4を下回ってきます。これは例えば、「同じ実験デザインの実験を行っても、実験の下手な人がやると(結果におけるバラツキが増えるため)有意差が出にくくなる」という現象に相当するものです。逆の言い方をすると、検定力を上げるための方法として「バラツキ」を抑える工夫をする、という方向性もあることになります。

で、実は、上の「変化量の大きさ」と「バラツキの大きさ」は相対的なもので、検定力は「変化量/標準偏差」に依存する、とよりシンプルに両者の影響をまとめることができます。例えば、左図ではデフォルトの標準偏差として5gが用いられていますが、「変化量/標準偏差=1」(=変化量5g)のとき、検定力は0.6強になっています。一方、右の図ではデフォルトの変化量として+3gが用いられていますが、こちらも「変化量/標準偏差=1」(=標準偏差3g)のとき、検定力は同じ値(0.6強)になっているのが分かるかと思います。

この「変化量/標準偏差」の値(つまり、変化量のスケールを標準偏差で標準化した値)は一般に「効果量(effect size)」と呼ばれるものに対応します*10


最後に、有意水準を変化させてみましょう。今までと同じく「コントロール群の平均体重30g、標準偏差5g、新エサ投与時の増加体重+3g、各群のサンプルサイズn=10匹」で、有意水準だけを変化させてみます(Rコードはkensyutsuryoku.R 直):


(あたりまえなのですが)有意水準が大きくなるにつれ、検定力が上がっていきます。有意水準が大きく(緩く)なると「本当は差がないのに、差があると判定」する確率(第一種の誤りが大きくなる一方で、検定力は大きくなり、「本当は差があるのに、差がないと判定」(第二種の誤り)する確率が小さくなります。このように、有意水準と検定力は本来的にトレードオフの関係にあるわけです。

ここで、「有意水準」と「検定力」のどちらを重視する必要があるのかは本来はケースバイケースなのですが、多くの場合、「第一種の誤り」の方を制御することを重視して*11、有意水準の方を先ず固定(p=0.05やp=0.01とか)にして考えていく方法が一般的となっています。

ここまでの小まとめ

この辺で、いったんまとめてみます:

  • 検定力が低いと、「因果関係があるのに相関関係が見られない」ケースが多く生じる
  • 検定力が低くなるのは以下のケースである:
    • (1) サンプルサイズが小さい
    • (2) 効果量(=変化量/標準偏差*12)が小さい
    • (3) 有意水準が小さい

というかんじになるかと思います。(ここまではよろしいでしょうか?)

でも「やみくもにサンプルサイズを増せばいい」というわけでもないの:本質は効果量にあり

さて。

ここまで、「検定力」は「サンプルサイズ」「効果量」「有意水準」に依存することを見てきました。仮説検定の枠組みにおいて、これらの4つの量は常にお互いに依存し合う"カルテット"的な量になっています。そして、これらの中でも、多くの場合に実験や調査の前にわれわれが主体的に大きく変えられる余地があるものは「サンプルサイズ」です。そのため、検定力と聞くと「とにかくサンプルの数を増せばいいんでしょ?」と思われる方もいるかもしれません。

まあそれはそうなのです。が、ただ、そうは言っても「やみくもにサンプルの数を増せばいい」というわけでもありません


そもそも、検定における「検定力」「サンプルサイズ」「効果量」「有意水準」の中で、私たちが知りたい「調査対象において実際に起きていること」を最も直接的に反映しているのは何といっても「効果量」なのです。その一方、「有意水準」「検定力」というのは「実験・調査デザイン(のクオリティ)」の方をより直接的に反映する量といえます。

その意味で、特に論文の査読という「実験・調査デザインのクオリティ」を重視するプロセスにおいて「有意水準」や「検定力」が重視されてきたのは理解できますが、そのせいで「効果量」の方が軽視されるようになってしまったら、それはもう本末転倒と言えるでしょう(例えばこちら)。

(殆どの場合において)大事なのは「調査対象において実際に起きていること」を理解することであり、そのためには「効果量」を中心に考えを進めていくことが重要です。


サンプルサイズを決定する際にも、そもそもの本来的な目的に照らして「どの程度の"差"が実質的な差と言えるのか?」という点をまず明確にし、その「実質的な差(実質的な効果量)を検出するためにはどの程度のサンプルサイズが必要なのか?」という順番で考えていくことが王道といえます。(ここでちゃんと考えることをサボると、あとで「nが足りな〜い...」という番町皿屋敷的な状態になるので気をつけましょう)

逆に言うと、サンプルサイズをやみくもに多くして、「瑣末な差」に統計的有意性を見いだしたとしても、それは「現実を知る/現実に対処する」ためには何の役にも立ちません*13


(ついつい忘れがちですが)統計解析の際にはいつでもその本来的な目的を見失わないように注意しましょう。

今回のまとめ:

では、今回の内容をまとめます。(殆どさっきのまとめと重複しますが)

  • 検定力が低いと、「因果関係があるのに相関関係が見られない」ケースが多く生じる
  • 検定力が低くなるのは以下のケースである:
    • (1) サンプルサイズが小さい
    • (2) 効果量(=変化量/標準偏差)が小さい
    • (3) 有意水準が小さい
  • 検出力はやみくもに高ければ良いというものでもない(本質は「効果量(effect size)」にあり)
  • わたしの検定力は530000です


はい。


ちなみに今回の記事では仮説検定の枠組みを基にして書きましたが、またそもそも論を言うと、「効果量」に着目するのであればそもそも仮説検定の枠組みよりも「効果量の信頼区間」や「効果量の推定分布」を求めたほうが断然スジが良いと言えます。この辺りを書きはじめるととても長くなるので、ぜひ以下の本をご一読いただければ幸いです(すごく良い本だと思うので):

伝えるための心理統計: 効果量・信頼区間・検定力

伝えるための心理統計: 効果量・信頼区間・検定力

(もしくは、みんな仮説検定のことなんか忘れてベイジアンになっちゃえばよいのにと思います)


はい。


では、次回の後編では、「因果関係があるのに相関関係が見られないケース」の中でも、交絡要因や中間変量が関連するものについて書いていきたいと思います。

(今後はコンスタントに更新していきます)

今回の参考文献:

検定力分析入門

検定力分析入門

検定力分析の入門書。さすがの分かりやすさ。事例(心理学中心)も多くオススメです。
伝えるための心理統計: 効果量・信頼区間・検定力

伝えるための心理統計: 効果量・信頼区間・検定力

上記の豊田本より高レベルですが、読み応えはあります。仮説検定が廃れてきた理由と経緯についても詳しく書かれています(あまりその辺りのところを詳しく書いてくれている本はあまりないので大変ありがたい)。こちらも大変オススメです。

(単なる宣伝)

私が寄稿させていただいた自主制作文芸誌が こちらこちらで買えます(まだまだ赤字らしいのでどぞ4649です)。



.

*1:counterfactualさんのブコメを見てここに量的な表現がくるのはおかしいかなと思ったので改変

*2:ちなみに、私は因果関係に対しては「ある/なし」、相関に対しては「見られる/見られない」「現れる/現れない」の語を使うことが多いですが、これは因果は本質的に存在論的なものであるのに対し、相関は本質的に現象論的なものである、という理解の仕方が背景にあります

*3:ブコメで「サンプル数」の語は誤りとの指摘あり。まじどもサンクスです。勉強になります。以下の文では瑣末になるのでこっそり修正しました

*4:つまり等分散性を仮定

*5:各群のデータは正規分布すると仮定します

*6:体重の「増加」に興味があるので片側検定を用います

*7:その都度サンプルをランダムに発生させているので、コードを実行するごとに値は変わります

*8:一般には検定力は0.8くらいあることが望ましいと言われていたりします→詳しくは大久保・岡田(2012)

*9:厳密に言えば片側検定なので「B群の体重の方が大きい場合に」

*10:ここはちょっと大雑把な言い方になっています。実際には効果量の定義にはいろいろあります。詳しくは大久保・岡田(2012)などをご参照ください

*11:あるいは、何も考えずに単に慣習に従って

*12:「効果量」の定義はいろんな形があり得ますが、ここではとりあえずこの形で

*13:もちろんそこで得られた「効果量」には意味があります/まあそれがサンプルサイズの増加に費やした努力量に見合ったものかは分かりませんが

"相関"の話&そのついでに"21世紀の相関(MIC)"の話(ややマニア向け)

どもです。林岳彦です。息子の3DSにバーチャルコンソールの「ソロモンの鍵」を密かに入れました(まだ3面)。


さて。

前回の記事:

因果関係がないのに相関関係があらわれる4つのケースをまとめてみたよ(質問テンプレート付き) - Take a Risk:林岳彦の研究メモ

につきましては沢山ブクマ等をいただき大変ありがとうございました*1。大変感謝しております。

さて。上記記事について、ublftboさんから「相関関係の定義が書かれていないのでは」(相関と因果 - Interdisciplinary)とのご指摘をいただいたきました。

ご指摘は確かにごもっともですので、今回は「相関」概念についてと、そのついでに近年に開発された"21世紀の相関(MIC)"の話について私なりに書いてみたいと思います。


(以下、ややマニア向けの話になるかもしれません。あと前回ほどではないですが、それなりに長いです。)


広義の「相関」(より適切には「関連/association」と呼ばれるもの)

まずは、前回の記事の補足的なところから話をはじめたいと思います。

前回の記事において「相関」という語を私がどういう意味で用いていたかというと、あまり深くは考えてはいませんでしたが、改めて文字にすると「得られたデータにおける項目Aと項目Bの間に何らかの関連が見られる=相関がある」という意味で用いていたと思います。

これはかなりざっくりした用法で、かなり広義の意味での「相関」という語の使い方と言えます(日常言語における「相関」の語のニュアンスの方を強く反映した用法とも言えるかもしれません)。

Wikipediaの"correlation"の項を見てみると:

In loose usage, correlation can refer to any departure of two or more random variables from independence, but technically it refers to any of several more specialized types of relationship between mean values.

という記述がありましたが、この前半の"loose usage"における"any departure of two or more random variables from independence"というところが、前回の記事において私が念頭においていた「相関」の語の意図するところになります。


ここで、"departure of two or more random variables from independence"というところの意味が良く分からない方も多いかもしれないので、「関連/association」と「独立/independence」の関係についてちょっと説明を加えてみます:

さて。そもそも「得られたデータにおける項目Aと項目Bの間に何らかの"関連"が見られる/見られない」というのは、統計学的にどう表現されうるでしょうか?

一般的には、Aが起こる確率P(A)と、Bが起こる確率P(B)、および、AとBが同時に起こる確率P(A,B)の関係が:

P(A,B) = P(A)P(B)

のときに、AとBは「独立/independence」と呼ばれます。また、AとBが独立であるとき、それらの間には「(統計的に)関連がない」とされます。

例えば、2つのコインA, Bを投げたときに、それらがオモテとなる確率がそれぞれ「 P(A=オモテ)=0.5、P(B=オモテ) = 0.5 」であるとしましょう。

ここで「AがオモテでBもオモテ」となる確率 P(A=オモテ, B=オモテ)が、「 P(A=オモテ, B=オモテ)= P(A=オモテ) x P(B=オモテ) = 0.5 x 0.5 = 0.25 」であるときには、「コインAを投げてオモテになる確率」と「コインBを投げてオモテになる確率」は「独立」であり「関連がない」ということになります。

逆に、 P(A=オモテ, B=オモテ) が0.25 から逸脱する場合には、コインAとコインBのあいだに「何らかの関連性」が推測されることになります。


ちなみに上の式を別の形で書くと:

P(A) = P(A|B)

とも書くことができます。これは、「Bがどうであるか」はAの確率に影響を及ぼさない、ということを示しています。また別の言い方をすると、「Bに関する情報は、Aに関する予測の役に立たない(=何の情報ももたらさない)」という言い方もできます。

つまり「AとBが独立である」というのは、AとBの関係が「関連がない」「影響を及ぼさない」「予測の役に立たない」「情報をもたらさない」などなどの意味に対応することになります。


はい。

というわけで、「AとBの間に広義の意味で相関がある」は数学的/統計学的にいうと「AとBは独立でない」という状況に対応するものになります。

一般には、この意味での「広義の相関」については、「相関correlation」よりも「関連association」という語が使われるのが普通ですので、細かい議論をする際には区別して使うことが望ましいでしょう。(その意味で、前回の私の記事の用語法はあまり良くないと言えます*2


では次は、ご存知の方も多いと思いますが、狭義(というかより一般的な用法における)「相関」について説明してみたいと思います。

いわゆる「相関」は直線的関係の指標である

一般に、統計学の文脈において「相関」と言った場合には、「ピアソンの相関係数」に基づくものを意味することが殆んどかと思われます。

Wikipediaの「相関係数」の項からピアソンの相関係数の数学的定義を引用すると:

となります。

さて。では、ピアソンの相関係数の直感的な性質を見てみましょう。

(ピアソンの)相関係数の特徴は、データ間の直線的関係のみを見ていることにあります。

直線的な関係を見ているということは、AとBの間に「明らかな関連/association」がありそうな場合にも、相関係数(correlation coefficient)は低い値になりうる、ということを意味しています。

「百聞は一見にしかず」なので、Wikipediaの図を見てみましょう:


http://ja.wikipedia.org/wiki/%E3%83%95%E3%82%A1%E3%82%A4%E3%83%AB:Correlation_examples2.svg より引用

ここでそれぞれの図はデータの散布図を表していて、上の数字はそれぞれの相関係数を表しています。

上の図から:

  • 直線的関係でばらつきが全くない場合は相関係数は1(または-1)になる
  • 直線的関係*3の傾きの大きさは相関係数の大きさには関係ない
  • ただし傾きが完全にフラットのときは相関係数はゼロ*4
  • 直線的関係においてばらつきが大きいと相関係数はその分小さくなる
  • 非直線的な関連を評価したい場合には相関係数はあまり役にたたない

という「相関係数」の特徴がわかると思います。


はい。いわゆる「相関係数」とは、こういうものなんです。


さて。上記の特徴を理解して使えば相関係数は大変便利なものです。しかし、世の中の全てが「直線的関係」だと思うなよ、と言われたらそれはまさしくそうであります。


そこでMICですよ(ドヤ)。


21世紀の"相関":MICとは?

MIC(Maximum Information Coefficient : MIC@Wikipedia)とは、すごくざっくり言うと「どんな形でも対応可能な"相関"係数」です。

2011年のScienceで出版されたReshef et al. 2011において発表されたもので、そのときのScience誌の解説文では「A correlation for the 21st century」なんて書かれたりしています(スゴイネ!)。


MICはピアソンの相関係数のようには単純な数式では表せず、コンピュータによってゴリゴリと計算されます。基本的なアルゴリズムとしては、データ散布図を様々な数のグリッド(=解像度)で区切っていきながら、様々な解像度の値において相互情報量が最大(=各グリッド内に含まれるデータ密度のコントラストが最大となるようなイメージ)となるような区切り方を決定し、それらを規格化したのちの最大の情報量をMICの値として選択しているようです*5

ちなみに相互情報量を数式で表すと:

となっており、独立( P(x,y)=P(x)p(y) )のときには相互情報量はゼロとなることがわかります。


MICの特徴は、どんな形のassociationでも定量化できるできるところにあります。例えばこんな感じです:


http://lectures.molgen.mpg.de/algsysbio12/MINEPresentation.pdf より引用・改変

これは、一番左の列のタイプのデータの場合に、MICとピアソンの相関係数がそれぞれどのような値をとるかを示しているものです。ピアソンの相関係数では検出できていないような非線形の場合においても、MICでは高い値を示すことがわかります。(ちなみにMICがとる値の範囲は0から1までになっています)

MICの特徴として、データがばらつくに従ってその値が低下することも挙げられます:


http://lectures.molgen.mpg.de/algsysbio12/MINEPresentation.pdf より引用・改変

この辺りの性質は、ピアソンの相関係数の性質を良く受け継いでおり、直感的にも違和感のないものです。


MICはかなりgeneralなものなので、基本的にはどんな対象にでも適応できます。その中でも有望な応用例として、遺伝子発現における「非線形的関連の検出」が挙げられているようです。

幸い、最近RでMICを簡単に計算するための"minerva"というパッケージが出たようなので、それを使って計算も試してみたいと思います:

install.packages("minerva")
library(minerva)
data(Spellman)
Spellman <- as.matrix(Spellman)
res <- mine(Spellman,master=1,n.cores=1)

ここで"Spellman"というデータセットには、CDC15 Yeast Geneの4382個の転写産物の量を時系列(23 time points)で計測したデータが入っています(詳しくはこちら)。mine関数においてMICの値が計算されており、"res"にはその結果が格納されています。

"res"の中身を見て、MICが高い値になっていた2つの転写産物の例をピックアップしてみると以下のようなパターンになっていました:


いずれも、ピアソンの相関係数では低い値となるケースですが、MICでは非線形的な関連が捉えられているようです。

正直ちょっと「ほんまかいな」と思わないでもないですが、研究の「とっかかり」を得る分には十分なのかなあとも思います。

まとめ

まとめます。

今回は:

  • 「(統計的に)関連がない」とは「(統計的に)独立である」ということ
  • (統計学の文脈で)「相関」といえば一般には「ピアソンの相関(係数)」のことを指す
  • (ピアソンの)相関係数は直線的関係しか評価していない
  • 直線的関係に限らない「関連度」の一般的な指標としてMICなんてのがあります

てな話でした。


次回は、「因果関係があるにもかかわらず相関関係(*より正確には"統計的関連")が生じないケース」についてまとめたいと思います。

関連情報などまとめ
  • Correlation and dependence @Wikipedia(link
  • 確率論的独立性 @Wikipedia (link
  • MIC @Wikipedia (link
  • MICの元論文(Reshef et al. 2011 in Science) (link
  • 同号に載っていたMICの解説(link
  • Reshef et al. 2011の補遺(link)
  • MICの解説資料(オススメ)link
  • RのMICが使えるパッケージ"minerva" (link
#関連しない単なる宣伝:超文学フリマにおいて私も寄稿させていただいた文芸誌「線と情事」買えます!

私も寄稿させていただいた「線と情事」が、ニコニコ超会議2と併せて行われる「超文学フリマ」において以下の要領において販売される予定です。

「超文学フリマ」in ニコニコ超会議2:
2013年04月28日(日)10:00〜17:00幕張メッセ(「ニコニコ超会議2」内)ブース: 【イ-03】

ニコニコ学会βなどのついでにでもお立ち寄りいただければ幸いです。何卒よろしくお願いいたします。

*通販でも買えます
甘茶茂、しまおまほ、島田虎之介、関根美有ほか「線と情事 創刊号」 - タコシェオンラインショップ
創作・オリジナル 同人誌専門店 サッシ / 「線と情事」 / NECOfan
.

*1:小心者なのでブクマ数が伸びすぎてるプレッシャーで風邪を引きました

*2:まあ、ざっくり「相関と因果」という場合には広義の意味での「相関」が含意されていると考えたほうが良い気もしますが、それにしてもどこかで一度定義しておいたほうが良かったですね

*3:相関の話がメインなので、ここでは回帰直線を意図していません。回帰と相関の違いについては→ここなど

*4:と思ったけど、ばらつきがない場合に限っては厳密に言うと相関係数の式の分母がゼロになるから計算できないってのが正解かも/←コメント欄でのご指摘に従い修正

*5:ここあんまり自信ないです。詳しくはこの解説資料および原論文の補遺を参照推奨

因果関係がないのに相関関係があらわれる4つのケースをまとめてみたよ(質問テンプレート付き)

どもっす。林岳彦です。ファミコンソフトの中で一番好きなのは『ソロモンの鍵』です*1


さて。

今回は、因果関係と相関関係について書いていきたいと思います。「因果関係と相関関係は違う」というのはみなさまご存知かと思われますが、そこをまともに論じていくとけっこう入り組んだ議論となります。

「そもそも因果とは」とか「因果は不可知なのか」のような点について論じるとヒュームから分析哲学(様相論理)へと語る流れ(ここのスライド前半参照)になりますし、統計学的に因果をフォーマルに扱おうとするとRubinの潜在反応モデルやPearlのdo演算子やバックドア基準(ここのスライド後半参照)の説明が必要になってきます。


その辺りのガッツリした説明も徐々に書いていきたいとは考えておりますが(予告)、まあ、その辺りをいちどきに説明しようというのは正直なかなか大変です。

なので今回は、あまり細かくて遭難しそうな話には立ち入らずに、「因果関係がないのに相関関係があらわれる4つのケース」についてあくまでもざっくりとした説明を試みてみようと思います。


(*最初に断っておきますが、以下、長いです)

まずは(とりあえずの)因果関係の定義から

まずは、(とりあえずの)「因果関係」の定義をしておきたいと思います。

因果の定義には色々なスタイルがありうるのですが、今回の記事内では:

「要因Aを変化させた(介入した)とき、要因Zも変化する」ときに、「要因A→要因Zの因果関係がある」と呼ぶ

ことにしたいと思います。

このような「介入に基づく因果の定義」は非常に日常的/普遍的なものです。たとえば、初めて訪れた大きな教室において「壁にあるスイッチと照明電灯の因果関係」を把握したい場合を想像してみましょう。

このとき、私たちはおそらくスイッチを適当に押し、「どのスイッチを変化させると、どの電灯の状態が変化するか」の対応をみて、「各スイッチと各電灯」についての「因果」を了解します。このような「介入による変化にもとづく因果関係の判断」は私たちが普段の生活の中で日常的に行なっていることです。


因果関係について本質論的に考えていくと遭難しがちなので、とりあえず今回はこのようなカジュアルな形で「因果関係」という概念を捉えておきます。

因果関係なしの相関関係:(1)偶然によるケース

では、因果関係がないのに相関関係があらわれるケースを見て行きましょう。

まず第一に挙げられるのは、単なる偶然によるケースでしょう*2

独立した2つの現象に関連性が現れることは、単なる偶然によっても生じえます。もっとも単純には、「二つのサイコロを転がしたら同じ目がでた」なんてのがそれにあたります。ここではもちろん「同じ目がでた」と言っても、2つのサイコロの目の間に「因果関係」はありません。つまり、「サイコロAの目を変化させると、サイコロBが同じ目に変化する」という関係があるわけではありません。


もう少し複雑な例として、25人の幼稚園児に「うまい棒」と「チロルチョコ」を、10枚のコインを投げたときのオモテの数の個数だけ与えるような場合を考えてみましょう*3

まず、25人の園児に10枚のコインを投げたときのオモテの数の個数だけ「うまい棒」を与えます。つまり、1人目が10枚のコインを投げたときのオモテの数が「5」なら1人目には「5個のうまい棒」を与え、2人目が10枚投げたときのオモテの数が「3」なら2人目には「3個のうまい棒」を与え…という調子で、25人に対してそれぞれオモテが出た数だけ「うまい棒」を与えていきます。

その後、最初に与えたうまい棒の数とは全く関係なく、25人それぞれに新たにコインを10枚投げたときのオモテの数の個数だけ「チロルチョコ」を同様に与えていきます。このようにして、25人全員に「うまい棒」と「チロルチョコ」の配布を終えたとします。

この場合、もちろん、各園児が持つ「うまい棒」と「チロルチョコ」の個数の間に因果関係はありません。つまり、「ある園児が持つうまい棒の個数を変化させると、その園児が持つチロルチョコの個数が変化する」という関係はありません。

さて。

では、このとき、各園児が持つ「うまい棒」と「チロルチョコ」の個数に、どのくらいの頻度で「有意な相関」が検出されると思いますか? Rによるシミュレーションをやってみます(ソースコードは Umaibou-Tiroru.R 直 ):


この図は、25人の園児のそれぞれに「うまい棒」と「チロルチョコ」を、それぞれ10枚のコインを投げたときのオモテの数の個数だけ与えるシミュレーションを100回くり返したときの結果です。

横軸はそれぞれのシミュレーション(1〜100回目)を、縦軸はそれぞれのシミュレーションにおいて得られた「各園児が持つうまい棒とチロルチョコの個数」の相関係数のp値を示しています。赤線はp=0.05となるところを示しており、赤線を下回ると有意差(有意水準 p=0.05)があるということになります。

上の図からは、100回中5回くらい、有意水準を下回る場合があり、相関係数に「有意差」が現れていることが分かります。つまり、100回に5回くらいは、各園児が持つ「うまい棒」と「チロルチョコ」の個数に偶然による「有意な相関」が現れるわけです*4

ちなみに、上の図は園児の数が25人でしたが、園児の数を25,000人に変えても同じような結果が得られます:


これは「統計的有意差」の意味を正しく理解している人々には極めてあたりまえのことなので、これらの図を見て「えっ!?」と思ってしまった方々は、この機会に"有意差"というものを復習しておきましょう。(例えばここ


また、このような件に関する特に注意が必要なケースとしては、同一のサンプルに対して多数の仮説検定を適応(=多重比較)しているときが挙げられます。このような場合には、上記のような「偶然によって生じる相関関係」を有意なものとして特に拾いやすくなることが知られています。この多重比較の問題については以前に書きましたので、ぜひ以下をご参照ください:

無から有(意差)を生む:多重比較でウソをつく方法 - Take a Risk:林岳彦の研究メモ


調査観察データにおける「相関関係」が偶然によるものかどうかを知りたい場合には*5、可能な場合には再度の調査を行ったり、あるいは独立に行われた類似の研究間で一貫した結果が得られているかを調べると良いでしょう*6。多数の研究で一貫した結果が出ている場合には、その「相関関係」が偶然によるものとは考えられません。

因果関係なしの相関関係:(2)因果の流れが「逆」のケース

次は、因果の流れが「逆」のケースについて見ていきたいと思います。

例として、「事故多発注意の看板」について考えていきましょう。「事故多発注意」の看板がある幾つかの場所と、そのような看板がない幾つかの場所で、事故の発生率を調べてみたとします。そのような調査の結果、おそらく「事故多発注意」の看板のある場所のほうが、ない場所よりも、事故の発生率が高いかもしれません。図や数式で表すと:


P(事故の発生|看板あり) > P(事故の発生|看板なし)

と書けるような状況です。

このような場合に、「看板あり→事故発生率高い」という因果関係はあると考えられるでしょうか?


これは、普通に考えると、因果の流れが「逆」ですよね。このような場合には、おそらく「事故の発生率が高い→看板の設置」というのが順当な因果の順序であり、その結果として、「事故の発生率」と「看板の設置状況」に相関関係が生み出されているものと考えられます。

このような場合には、「事故の発生率」と「看板の設置状況」の相関関係は、「看板あり→事故発生率上昇」の因果関係の存在を意味しません。また、もちろん「看板設置への介入(看板を外す)→事故の発生率の減少」という変化も期待できません。


看板の例はあまりにも安直すぎるかもしれないので、もうちょっとリアルに難しい例も考えてみましょう。


サンゴとその捕食者の例を採り上げてみます(この話はこのtogetterの内容を基にしていますが、本記事ではあくまでも説明のための仮想例としてディテールは無視して取り扱います)。

サンゴの保全のための調査から、サンゴの生存率とサンゴの捕食者Oの個体数に以下の相関関係が示されているとしましょう。また、捕食者Oは実際にサンゴを捕食していることがフィールドでの観察から分かっているとします。

このとき、「捕食者Oの増加→サンゴの生存率の減少」という因果関係を想起するのは自然なことかもしれません。

もしこのような因果関係が存在するならば、「捕食者O」を減少させることにより「サンゴの生存率」を増加させることができそうです。


はてさてしかしながら:


より詳細な調査から、「捕食者Oは死にかけのサンゴしか食べない」ことが分かってきたとします。このとき、捕食者Oは実は生態系の中でスカベンジャー的役割を果たしていたということになります。

こうなると、「サンゴの生存率が低下→スカベンジャーである捕食者Oが増加」という逆の因果が真である可能性も出てきます。もしこの形の因果が真ならば、「捕食者Oを減少させることによりサンゴの生存率を増加させる」という保全施策は全く効果を及ぼさないことになります。(むしろ、スカベンジャーを排除することによりサンゴの健全な新陳代謝が妨げられる可能性さえあるかもしれません)

そして、このどちらの「因果の向き」がより真に近いのかは、基本的には現場での観察 and/or 介入によってしか明らかにすることはできません*7


はい。

このサンゴと捕食者の例は、「因果の向き」を正しく認識し、適切な統計的因果推論を行うためには、対象とする現象についての適切な背景知識を持っていることが本質的に重要であることを示しています。(因果の森に一歩足を踏み入れたからには、stepwise AICみたいなオートメーションな形で話を進めることはできないのです!)

対象とする現象に対する理解が(その現象の複雑さに比して)乏しい場合には、「因果の向き」を正しく理解することも案外と難しいものです。油断して自分の思い込み/予断で進みすぎないように、注意しましょう。

あと、以下のような、複数の要因を経た「逆向きの因果」も非常に気づきにくくやっかいなので、注意が必要です。


因果関係なしの相関関係:(3)因果の上流側に共通の要因が存在するケース

では次は、「因果の上流側に共通の要因が存在するケース」について見ていきたいと思います。

これはいわゆる「交絡」と表現されるものに対応するケースです*8。因果グラフで表すとその構造がわかりやすいので、因果グラフを用いて説明していきたいと思います。

「交絡」の状況を因果グラフで書くと以下のようになります:


コトバで書くと「説明変数Aの"上流側"に、説明変数Aと結果変数Zの両者に影響をもたらす要因がある」 というかんじですかね。そのような要因のことを、「交絡要因」とか「交絡因子」と呼びます。上の図の場合、要因B,Cが交絡要因となります。

(ここで要因Cを「交絡要因」と呼ぶかどうかは微妙ですが、要因Cで調整すれば交絡は消える状況にあるのは確かなので一応「交絡要因」として呼んでおきます。ここで要因Cも含めるためのニュアンスとして単に"上流"ではなく"上流"という表現を使っています)


では、具体的な例で考えてみましょう。河川中の「亜鉛濃度」と「底生生物の種数」の仮想例について見ていきます(この仮想例の生成と解析に用いたRスクリプトは zinc-BOD.R 直 )。


河川の底生生物の保全のために「底生生物の種数」と河川中の環境汚染物質について調査を行う場合を考えていきます。まず、手始めに重金属濃度データについて調査したところ、河川中の「底生生物の種数」と「亜鉛濃度」に以下のような関係が見られました:


このとき、「亜鉛は底生生物に対して毒性がある」という背景知識を考慮に入れると、「亜鉛濃度の増加→底生生物の種数の減少」の因果関係を想起するのは自然なことかもしれません。ここで「底生生物の種数」に対して「亜鉛濃度」を説明変数とした単回帰をしてみると、その回帰係数は「-1.0」で、傾きの有意差は「p<2.6 x (10の-10乗)」となっています。


はてさてしかしながら:


さらに調査を進めていくと、河川の有機汚濁(BOD)に関しても同様の関係が見られることがわかりました:


はて。これを見る限りは、「BODの増加→底生生物の種数の減少」という因果関係もありえそうです。「底生生物の種数」に対して「BOD」を説明変数とした単回帰を行うと、その回帰係数は「-1.9」で、傾きの有意差は「p < 2x(10の-16乗)」となっています。


はてはて。どちらが「真」の因果関係なのでしょうか?


こういう場合の定石として、結果変数を「底生生物の種数」、説明変数を「亜鉛濃度」と「BOD」とした重回帰分析を行なってみましょう。結果として得られたのは:

> res.num_BOD_zinc <- lm(num_species ~ BOD + zinc)
> summary(res.num_BOD_zinc)
...略
Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept) 18.32240    2.75233   6.657 1.68e-09 ***
BOD         -2.02024    0.16300 -12.394  < 2e-16 ***
zinc         0.08852    0.12811   0.691    0.491    

という結果でした。この結果を読むと、「亜鉛濃度」「BOD」の2つの説明変数による重回帰を用いたところ、「亜鉛濃度」の影響が消えてしまっていることが分かります(対応する偏回帰係数が0.088, p値は0.49)。この結果から、「亜鉛濃度」と「底生生物の種数」の相関関係は交絡によるものであり、「因果関係がないのに相関関係が現れている」ケースであることが分かります。

一方、「BOD」の影響は殆ど変わらず(対応する偏回帰係数が-2.0, p値は < 2x(10の-16乗))、「BODの増加→底生生物の種数の低下」の因果関係の方は真であると推測できることになります。

上記のような場合には、因果グラフは以下のような構造であると推測できます:


このとき結果変数として「底生生物の種数」を、説明変数として「亜鉛濃度」をとった場合には、「BOD」が交絡要因となっているのが分かります。このような場合には、「BOD」の値で重回帰において説明変数として追加する等による調整を行わないと「亜鉛濃度→底生生物の種数」の因果効果を適切に推測することはできません。

(逆に、上記の因果グラフは、結果変数として「底生生物の種数」を、説明変数として「BOD」をとった場合には、「亜鉛濃度」は交絡要因ではないことを示しています)


一般に、上記の例のように「説明変数Aの"上流側"に、説明変数Aと結果変数Zの両者に影響をもたらす要因」がある場合には、簡単に「因果関係なしの相関関係」のグラフを作ることができます。例えば、説明変数Aと結果変数Zの両者が「年代につれて増加」するような傾向を持つときには、両者の変数の間に因果関係がなくとも、相関関係は簡単に現れます。例えば、このあたりの有機食品と自閉症の例テレビの台数と死亡率の例などはその典型例といえるでしょう。


このような「交絡」の影響を除去するためにはどうしたら良いでしょうか?

定石としては、交絡の原因となる要因(=「説明変数Aの"上流側"に、説明変数Aと結果変数Zの両者に影響をもたらす要因」)に基づきデータを層別化して解析を行うか、重回帰においてその交絡要因を説明変数に追加した解析を行うことになります。また、興味のある説明変数以外をまとめてエイヤっと交絡を調整する方法として傾向スコア法なんてのもあります。

ある要因が交絡要因かどうかを判断したい場合には、(厳密なものでなくてもよいので)因果グラフを描いて、その要因が「説明変数Aと結果変数Zの両者に影響をもたらす要因」 かどうか検討してみましょう。


(重回帰における変数選択の際に、「関連のありそうな変数はとりあえず入れとけ」みたいなアドバイスもあるようですが*9、変数を追加することにより逆にバイアスが生じたり*10因果効果の過小推定を引き起こす*11可能性もあり、また余計な変数を入れると推定精度が低下しがちなので注意が必要です。交絡を調整するためにどの説明変数を選択するべきかを判別するformalな基準としてバックドア基準というものがありますので、それについてもいつか書きたいと思います)


また、いわゆる「シンプソンのパラドックス」というのもこのタイプの交絡の一種です。以下の筒井淳也さんの素晴らしい記事を適宜ご参照いただければと思います:
シンプソンのパラドックスの図解 - 社会学者の研究メモ

シンプソンのパラドックスにおいての「どの変数において層別化(重回帰の説明変数として追加)するべきか」という決定は、確率論的考察からは議論することすらできない問題ですが*12、因果グラフさえ描くことができれば、バックドア基準に基づきどの変数が調整すべき変数(=交絡をもたらす変数)なのかを明確に判別することができます。


*交絡の問題に関しては、以下の記事でもまとめて書いておりますので適宜ご参照ください:
因果グラフからみる交絡問題:「遺伝統計学における因果問題の特殊性」について考えてみた - Take a Risk:林岳彦の研究メモ


(4)因果関係なしの相関関係:因果の合流点において選抜/層別/調整されてしまっているケース

では最後に、「因果の合流点において選抜/層別/調整されてしまっているケース」について説明していきたいと思います。

このケースは、いわゆる「選択バイアス」と呼ばれることが多いものです*13。因果グラフ系の用語では、「合流点バイアス(collider bias)」と呼ばれます。

因果グラフで見てみましょう:


因果グラフがこのような形のとき、要因Bが「合流点(collider)」と呼ばれるものになります。このような合流点で選抜/層別/調整が起きていると、「説明変数A→結果変数Z」の因果関係がない場合でも、両者のあいだに相関が生まれることがあります。

たぶん合流点バイアスは具体的な例を通して理解したほうがてっとり早いと思いますので、芸術系大学の入学試験の仮想例を考えてみましょう。


ある芸術系大学で入学試験があり、その内訳は「実技試験(500点満点)」と「学力試験(500点満点)」の二つの科目からなるとします。仮想例のための仮定として、実技試験と学力試験の間には本来的に相関関係も因果関係もないものとします。プロットをしてみると、こんなかんじの状態ですね(用いたRスクリプトは exam.R 直 ):


さて。

ここで、合格基準が「二つの科目の総得点が700点以上」だとします。このとき、諸事情によりデータ解析者には「合格した生徒のデータしか渡されていない」状況を考えてみます。このような状況で「渡されたデータ」からグラフを描き、相関係数を求めてみると:


という関係が現れました。ここでは、実技試験と学力試験の間には、因果関係がないにもかかわらず有意な相関が生じています。これは、データが「二つの科目の総得点が700点以上」という条件であらかじめ選別されていることに起因するバイアスです。図で説明すると:


この上記の青色の線が「二つの科目の総得点が700点以上」を満たすラインになっており、その部分の合格者だけのデータが選抜されていることにより相関が生じていることが分かるかと思います。こういうのがいわゆる「選択バイアス」というやつです。

上記の例のケースを因果グラフで書くと:


のような形になり、「合格の可否(試験の総合点)」が合流点となります。このような合流点の値に基づく選別があらかじめ行われていると、そもそも因果関係のない「実技試験の点数」と「学力試験の点数」の間に相関関係が生じてしまうのです。

(ここで一つ関連して注意しておきたいのは、たとえデータを「ランダムにサンプリングする」といっても、サンプリングの対象となる集団において既にバイアスが形成されている場合には、その"ランダムサンプリング"によってはそのバイアスを除くことはできません。例えば、上記の例の「合格した生徒のグループ」からランダムサンプリングにより50人選んだところで、その合流点バイアス自体が消えることはありません)


上記の例では、得られているデータの形成過程において「合流点での値に基づくデータの選択」が起きていましたが、合流点バイアスは、統計解析の時点における「合流点での値に基づく層別化」や「重回帰の変数として合流点にある要因を追加する」ことによっても同様に生成してしまいます。とっても気をつけましょう。

合流点バイアスを避けるためには、(厳密なものでなくてもよいので)因果グラフを描いてみて、上記のような「因果の合流点」において選抜/層別/調整が行われていないかチェックしてみると良いでしょう。

おまけ:建設的な質問をしよう!:統計解析者への「質問テンプレート」

はい。ここからは「おまけ」です。

上記の4つのケースを踏まえて、因果関係と相関関係に関して統計解析者(プロの研究者を想定)へ建設的な質問をするための「質問テンプレート」を幾つか考えてみたので解説してみます。


(A) 「説明変数Aと結果変数Z、および関連する主要なその他の説明変数(共変量)に関して、あなたが想定している因果グラフを描いてみてください(厳密なものでなくとも構いません)」

これは、上記ケースの2[逆]・3[交絡]・4[合流点]が当てはまっているかどうかをチェックするためのもっとも包括的な質問になります。ここで大事なのは、とりあえずの議論のためには必ずしも厳密な因果グラフを描く必要はなく、変数間の関係がおおざっぱに(上流か/下流か/独立か)議論できれば、多くの場合、間に合うということです。

相手が因果グラフを描いてくれた場合には、上記2・3・4のケースが当てはまりそうか吟味し、また、その因果グラフの理論的/メカニズム的妥当性について議論を進めることにより、建設的なやりとりが期待できます。(ひょっとすると、新たなリサーチクエスチョンが見つかる、なんてこともあるかもしれません)


(B) 「説明変数Aと結果変数Zについて、説明変数Aにおいて異なるサンプル群について、説明変数A以外の要因については同質であると言えますか?その論拠は?」

これも、上記の2[逆]・3[交絡]・4[合流点]のケースに対応する質問となります。この質問をより具体的に発展させると「質問(A)」の形になる、というかんじですかね。


(C) 「説明変数Aと結果変数Zの両者に影響を与えている、共通の原因が存在する可能性については考慮しましたか?」

これは上記3[交絡]のケースに絞って質問する場合になります。要するに「交絡要因についてちゃんと考慮していますか?」という質問です。具体的に頭に浮かんでいる「交絡要因」があるのならば、より具体的に「◯◯が交絡要因となっているのではないでしょうか?」と質問してみましょう。


(D) 「サンプリングもとの集団において既にバイアスがかかっている可能性はありませんか?」

これは上記4[合流点]のケースについて、「合流点バイアス(選択バイアス)があるのではないでしょうか?」という意味ですね。


(E) 「説明変数Aと結果変数Zについて、独立に行われた同様の研究において結果は一貫していますか?」

これは上記1の「偶然によるケース」に対する質問です。


(F) 「あなたの研究デザインは潜在的に多重比較になっていませんか?」

これも上記1の「偶然によるケース」に対する質問です。


あなたが、もし質問される側(統計解析者の側)ならば、質問者から蜂の巣にされないように、これらの点についてはちゃんと研究計画の段階からあらかじめ自問自答しておきましょうね(ニッコリ)。

まとめ:全ては地に足のついた丁寧な考察のために

まとめます。

今回説明してきた「因果関係がないのに相関関係があらわれるケース」は、以下の4つになります:

  • (1) 偶然によるケース
  • (2) 因果の流れが「逆」のケース
  • (3) 因果の上流側に共通の要因があるケース
  • (4) 因果の合流点において選抜/層別/調整されてしまっているケース

もしかしたら、上記の4つの他にも(測定や実験デザインの不備等により)「因果なしの相関」が生じるケースもあるのかもしれませんが、それらも結局は上記1-4の形(やその組み合わせで)表すことができるかと思います*14


で、ここで逆から言うと、われわれがある特定のデータから「相関関係が因果関係を意味するのか」を判断する際には、実際には「上記の4つのケースを除外できるかどうか」を判断しているとも言えるわけです。つまり、様々な角度からの検討により、上記4つのケースを高い確度で除外できると判断できるような場合には、「因果関係があって、相関関係が生じている」と推論できる、ということになります。


はい。

で、

まあ。なんといいますか。詰まるところをいえば(ヒューム的な意味で)我々は因果関係を知ることができない、というのは真だとは思うのです。完璧な文章や完璧な絶望が存在しないように、完璧な因果推論などといったものは存在しないのです。

ですが、でもそこで「因果なんてけっきょく分かんないんだから統計データから因果の考察するのなんて無意味っつうか無粋だよね〜」とか「因果なんてけっきょく分かんないんだからなし崩し的に因果があるって解釈しちゃってOKですよね〜」みたいな雑なかんじになるのではなく、そのつどそのつど「データ」と「理論/メカニズム」と「現場知」を照らし合わせながら「因果の有無と程度」について地に足をつけて丁寧に考察していくのが大事かな、って思う今日このごろであります。


ほんで


今回の記事がもしそのような「地に足のついた丁寧な考察」の一助となれば本当に嬉しいです。


#次回は、今回の記事とは逆の「因果関係があるのに相関関係があらわれないケース」についてまとめたいと思います。
あといくら何でも記事が長すぎですよね。本当にすみません。。。 > 読者さまがた
#尚、今回の記事は以下のtogetterに触発されて書かれたものです。まとめ人および登場人物の方々に感謝&リスペクト申し上げます。
相関関係と因果関係をごっちゃにしないために - Togetterまとめ

関連図書など

統計的多重比較法の基礎

統計的多重比較法の基礎

多重比較についてはこれで勉強しました。
メタ・アナリシス入門―エビデンスの統合をめざす統計手法 (医学統計学シリーズ)

メタ・アナリシス入門―エビデンスの統合をめざす統計手法 (医学統計学シリーズ)

メタアナリシスについてはこれから勉強したいです。
調査観察データの統計科学―因果推論・選択バイアス・データ融合 (シリーズ確率と情報の科学)

調査観察データの統計科学―因果推論・選択バイアス・データ融合 (シリーズ確率と情報の科学)

統計的因果推論の鉄板本その1(Rubin系)
統計的因果推論―回帰分析の新しい枠組み (シリーズ・予測と発見の科学)

統計的因果推論―回帰分析の新しい枠組み (シリーズ・予測と発見の科学)

統計的因果推論の鉄板本その2(Pearl系)
Excelで学ぶ共分散構造分析とグラフィカルモデリング

Excelで学ぶ共分散構造分析とグラフィカルモデリング

上の宮川本が難しい方は、こちらからどうぞ
統計的因果推論 -モデル・推論・推測-

統計的因果推論 -モデル・推論・推測-

Pearl師匠の本。いろんな意味で激ムズ。
Modern Epidemiology

Modern Epidemiology

  • 作者: Kenneth J. Rothman,Timothy L. Lash Associate Professor,Sander Greenland
  • 出版社/メーカー: LWW
  • 発売日: 2012/12/17
  • メディア: ハードカバー
  • この商品を含むブログを見る
この本(3rd ed)の12章の「Causal Diagrams」の章が(それなりに難しいが)英語が読めて、疫学がベースの人には一番有益な因果グラフ入門かもしれない。

単なる宣伝

私が寄稿させていただいた文芸誌が中野のタコシェで買えるようになったようです→ http://t.co/FzHMI9siWJ

*1:本当に名作だと思う

*2:"単なる偶然"とは何か、と問い詰められるとちょっと困るけど

*3:どんな場合やねん

*4:暇なひとはRのスクリプトで実際に試してみてください

*5:実験データの場合には再試験してください(キッパリ)

*6:いわゆるメタ・アナリシス

*7:フロントドア基準的な方法で明らかにできる可能性はある、かも?

*8:「交絡」の定義については、研究分野間で微妙にちがったりするので、この表現がピンとこない方々ももしかしたらいるかもしれませんがご容赦を

*9:まあ応対している相手の統計リテラシーのレベルにもよる話なので一概には否定はしませんですよ

*10:合流点によるバイアスなど

*11:中間変量による調整の場合など

*12:do演算子のような確率と因果を架橋する概念が必要となる

*13:この用語法も分野によるらしいので「そんなの選択バイアスじゃないやい!」と思われる方々もいらっしゃるかと思いますがご容赦くださいね

*14:たぶん

宣伝(文学フリマ):自主制作文芸誌『線と情事』に詩を書かせていただきました

あまりここにはわたくし事を書かないようにしているのですが、今日は諸事情により宣伝させていただきます。

このたび、何の因果か、甘茶茂@NECOfanさんが責任編集を務める文芸誌『線と情事』へと詩(12ページ、7篇)を寄稿させていただきました。

*文芸誌『線と情事』の内容は以下をご覧ください:
コミックナタリー - 島田虎之介、しまおまほ、関根美有ら自主制作文芸誌に


シマトラさんやしまおまほさんなどの豪華執筆陣に紛れて私の名前がエントリーされているのは、なんというか「21世紀枠」的なかんじは否めませんが、文学フリマなどへお出かけの方がおりましたら、ぜひご購入のほど何卒よろしくお願いいたします。

(個人的に私はタマフルTHE MOVIEのDVDを買うくらいにはコアなタマフルファンなので、しまおさんと名前が並んで載っているだけで鼻血が出るくらいうれしいのです。あとザ・キャプテンズの傷彦氏を初めとする個人的にリスペクトしてやまない仙台時代の知人たちとこんな形でまた「対バン」できるのは感慨深いものがあります)


とりあえず大阪の文学フリマ(4/14)を皮切りに、東京の文学フリマおよびweb通販などで販売される予定です(詳しくはこちら)。好事家の皆様、ぜひよろしくお願いいたします。


関連図書:

東京命日

東京命日

ガールフレンド (P‐Vine BOOKs)

ガールフレンド (P‐Vine BOOKs)

THE CAPTAINS ANTHOLOGY

THE CAPTAINS ANTHOLOGY

発表資料アプ:「比例ハザードモデルはとってもtricky!」

どもです。林岳彦です。ももカッパよりもアゲルちゃんのほうがいいと思います。


さて。

最近、某カジュアル系勉強会で、疫学研究などで頻繁に用いられる「比例ハザードモデル」をテーマに発表をしたのでその資料を晒してみます(資料内で用いているRスクリプト→ CoxPH.R 直

何卒よろしくです!

#次回は統計的因果推論ネタで、「因果関係がないのに相関関係があらわれるケース」についてまとめる予定です(現在執筆中)

(今回の発表で参考にさせていただいた比例ハザードモデルに関する資料のリスト)

【書籍】

生存時間解析―SASによる生物統計

生存時間解析―SASによる生物統計

what_a_dudeさんが挙げていた本。とてもわかりやすかったです。

生存時間解析

生存時間解析

最初にこの本を読んだらちょっと混乱しました。翻訳のせいもあるかもしれない。

【Web上の資料】

(1)what_a_dudeの日記(linkなど)
   「記事一覧」の検索窓から「比例ハザードモデル」で検索すると一連の記事が読めます。分かりやすいし面白いし数学的説明もちゃんとしています。

(2)統計学入門 11.4 比例ハザードモデル (link
   比例ハザードモデルの解説。いろんなサイトを見ているとだんだん理解が立体的になってきますよね。

(3)Coxの比例ハザードモデルについて --- 土居正明 (PDF
   一番やさしいレベルの解説かもしれない。最初はこれを読むのがオススメかも。

(4) Rと生存時間分析(link
   今回の発表におけるRでの解析はほとんどこの内容に依拠させていただきました。大変ありがとうございます。

(5)Cox回帰(比例ハザードモデル)--- Action Potentials: 閾値以下 (link
   Rでの解析例としてはここもオススメ。比例ハザード性の検証がきちんとやられてます。

(6)Survival Analysis in R - Statistics(link
   UCLAの講義資料らしい模様。今回のRでの解析ではこれも参考にしました。

オーマイガー:iPhone5を落としてガラスが割れたあとの修理段取りのメモ

こんにちは。林岳彦です。もし「ゆらゆら定食」ってのがあったらそれは食べにくいと思います(揺れてるから)。


さて。

やっちまいました。自宅内でズボンのポケットから取り出そうとしたときに、ポロッと。そしてガチャっと。

いやはや、もうこんなかんじですよ(こんな状態でも操作は可能でした):

ほんと、本格的に強く落ち込みました。ハルクホーガンがリングサイドから登ろうとする猪木にアックスボンバーを喰らわせたとき以来の衝撃でしたよ。


で、実際にiPhoneを破損すると多少なりともパニクるのですが、今後このような悲運に見舞われた方々のための不幸中の一助となりますように、『iPhone5のガラス破損→Appleサポートによる修理』の際の段取りについてメモっておきたいと思います。

(以下、私の環境により「ソフトバンク」の例になっていますが、たぶん手続きは基本的にauでも変わらないのかなあと思われます)

メモ:Appleサポートによる修理の段取り(*2013年3月中旬の事例)

(1) ソフトバンクショップに電話する

まずはiPhone5を購入した店に「落としてガラス割れちゃいました」と電話してみました。そしたら「こちらでは何もできないので、Appleのサポートの方に電話してください。番号はxxx-xxxxです」との返答。とりあえずAppleサポートの電話番号をゲットです。

(2) Appleのサポートに電話する(事前にシリアルナンバーを確認しておこう)

次にAppleサポートへ電話。最初はオペレータ音声での対応となり、5分くらい待たされたのち、Appleサポートの中の人に繋がりました*1

Appleサポートさんに「iPhone5を落としてガラス破損したので修理したい」とこちらの状況を伝えると、とりあえずiPhoneのシリアルナンバーを聞かれました(*なので、Appleサポートに電話する際にはシリアルナンバーを事前に確認しておきましょう*2)。

で、Appleサポートさんの説明によると:

  • ガラス破損の場合には基本的に新品交換となる
  • 私の居住地の場合には「郵送での対応」となる*3
  • 具体的な段取りは『ヤマト運輸が破損したiPhoneを自宅まで引取りに来てくれる』→『Appleの工場での破損確認』→『新品の交換品をヤマト運輸が自宅まで届けくれる』
  • 修理代金(諸々込)は20,801円(←「本体代」だと思えば安いが、「ガラス代」だと思うと高すぎてかなり凹む...)
  • 支払いはクレジット払いまたは代引き*4

私がiPhone5を破損したのは木曜日でしたが、その時点でのヤマト運輸の自宅引取り日時は最短で「2日後(土曜日)から指定可能」ということでしたので、土曜日の夕方の引取り指定にしてもらいました。

(3) iPhoneのバックアップを取る

ヤマト運輸による引取りに際して、Appleサポートさんから言われたことは:

です。何はなくとも、バックアップはしっかりとっておきましょう。あと、このときにバックアップ日時もちゃんとメモしておくと安心です。(ガラス破損の場合には"修理"ではなく"新品交換"となるので、後で中身を復元するためにバックアップを取っておくのは本当に強く大事です!)

(4) ヤマト運輸の人が取りに来てくれるので渡す

Appleサポートさんとの電話での予約時間通りに、破損から2日後(土曜)の夕方にヤマト運輸の方が引取りに来てくれました。

渡すときには「SIMカードなし・ケース類なし」の裸の状態で渡します。

(5) 代替の携帯をソフトバンクショップで借りる

携帯がないと不便ですが、修理中は無料で代替機を借りることができます。

最寄りのソフトバンクショップに行き、「iPhoneが修理中なので代替機をお借りしたいのですが」と伝えればあっさりと無料で貸してもらえます*5

携帯の代替機を借りるときには、以前に取り外したiPhoneのSIMカードを流用することになります(なので代替機でも同じ電話番号を使える)。忘れずにお店に持って行きましょう。

で、貸してもらえる機体はiPhone 4だったりするのですが、iPhone5の場合には特殊なSIM(マイクロSIM)を使用しているので、店のほうでSIM-マイクロSIMアダプターが出払っていて対応できない時もあるようです。なので、代替機を借りに行くときには、事前でお店に電話で問い合わせしておいたほうが良いかと思われます*6

(6) ヤマト運輸の人が届けてくれるので受け取る

土曜の引取りでしたが、3日後(翌週の火曜)の午前中には新品のiPhone5が届きました。

意外と早かった。

(7) 代替の携帯を返す

新品のiPhone5が届いたら、お店に代替として借りていた携帯を返しましょう。

(8) バックアップを復元する

新品のiPhone5が届いたらバックアップを復元しましょう(iOSでのバックアップからの復元方法)。復元の際のバックアップ元としては、引取りの前に行ったバックアップの日時のものを選んでくださいね。

バックアップでの復元でたいていのものは元通りに戻りますが、ソフトバンクのeメールなど一部の設定は再度やり直す必要があります(メールアドレスの設定方法)。

ちなみに:もし保険に入っていたら?

ちなみに私はiPhoneの保険の類には入っていませんでした。今更ながらiPhoneの保険を調べてみると:

あんしん保証パックとAppleCare+って両方入るべき?(費用比較表付き) - たのしいiPhone! AppBank

ベース料金として、Appleの提供する「Apple Care+」が2年で8,800円、ソフトバンクが提供する「あんしん保証パック」が2年で12,000程度(月額約500円)になるようです。

で、今回の私のケースのような、過失での全交換の場合、Apple Care+で4,400円、あんしん保証パックで3,120円ほどの追加料金がかかるようです(詳しくは上記リンク参照)。

なので、もし保険に入っていても今回のケースではどのみち2年総額で13,200円かかる(Apple Care+の場合)わけで、保険なしの場合の20,801円と比べると、壊す確率を考えると、まあけっこうビミョウな感じはしますね。

うーむ。次回はApple Care+入ろうかなぁ。。。どうしようかなぁ。。。

ちなみに2:今回の落下→ガラス破損に関する考察

ちなみに私、一応ケースもつけてたんですよね。これです:

薄くてスタイリッシュなのでけっこう気に入っていたのですが。私のiPhoneを護ってはくれませんでした、ね。

一応構造上も、普通に床に落としたときにガラス面が直接床面に触れるようなことはないように思われるのですが、当たりどころが悪かったのか、周りの金属部フレームへの衝撃が緩衝されきれずにガラス部に伝わってしまったようです。

ぐぬう!

で、今回、泣く泣くケースとガラス面強化グッズを増強しました(この辺りでまた地味に金が出て行くのです...):

実際につけてみると厚くて野暮ったいのは否めませんが、安心感はありました。

ていうか結論はこれですね:

「そもそもiPhoneを落とさないように気をつけましょう」

段取り等のまとめ

まとめます:

  • 手続きは意外と簡単かつスムーズでした(←主観)
  • ガラス破損の修理代は20,801円(というか修理ではなく新品と交換になる)
  • 破損→新品到着までの期間は一週間弱(例:木曜破損→翌週火曜日交換品到着)
  • 修理中の代替の携帯は無料で貸し出してくれる
  • 保険に入るかどうかはビミョウなところ
  • そもそも落とすな


ともあれ、上記のメモがみなさまのお役にたちませんように!(いやiPhone落として壊すとかなり落ち込むし手間と時間もかかるし万札もぴゅーと飛んでいくのでほんと痛いっす...)



.

*1:ちなみに電話をしたのは平日の昼休み時間

*2:シリアルナンバーはiPhone本体の裏側に記載されています

*3:付近に直接持込での修理対応が可能なところがないので

*4:私はクレジット払いを選択しました。多少気持ち悪いですが、電話口でクレジット番号を伝える形になります

*5:Appleサポートの方で修理手続きがちゃんと行われていることがおそらく前提

*6:私の場合、最初に電話したイーアスつくば店では「今アダプターがないので対応できません」と言われたので、研究学園店でお借りしました

(目次の予告)統計的因果推論ノート:「正しいセカイの切り取り方」

どもです。林岳彦です。道に倒れて誰かの名を呼び続けたことはありません。

さて。


自分の頭の中でそろそろ「統計的因果推論に関するエトセトラ」が繋がってきた感がある*1ので、一度棚卸のために(クオリティは未だ低いものになるかもしれませんが)エトセトラのひと通りについて書いてみたいと思いました。

だいたい目次は以下の通りになる予定です:

統計的因果推論ノート:「正しいセカイの切り取り方」(予定目次)

  • 統計的因果推論ノート1 そもそも"因果"って?:Hillの基準、ヒューム、反事実
    • 統計的因果推論ノート1補遺1 よくある確率概念の分類:主観的、客観的、あるいは間主観的な
    • 統計的因果推論ノート1補遺2 "可能性"の集合的理解:ケインズからコルモゴロフ、あるいは可能世界から確率へ
      • 統計的因果推論ノート1補遺2の補遺1 "交換可能性"を想定するということ:可能世界から見るロールズと公共政策
  • 統計的因果推論ノート2 問題設定:統計モデルと「正しいセカイの切り取り方」
  • 統計的因果推論ノート3 All you need is Fisher、あるいは因果推論としての実験計画法
  • 統計的因果推論ノート4 交絡は裏口から忍び入る:バックドア基準
    • 統計的因果推論ノート4補遺1 確率のレイヤーと因果のレイヤー:バックドア基準とAIC、あるいはシンプソンのパラドックス、そしてモデル選択
    • 統計的因果推論ノート4補遺2 異流派交流戦:バックドアに蓋をする合成変数としての傾向スコア
  • 統計的因果推論ノート5 相関関係から因果の向きを取り出す:トリオ・ザ・因果

一年くらいかけてボチボチと書いていけたらなあ、と思ってます。


あと、前回の記事へのコメントで、壇蜜は「つちへん」で檀ふみは「きへん」だということを教えていただきました。おかげで、次回からは両者を見分けることができそうです。ありがとうございました!


.

*1:なのでいま個人的にはワクテカなんすよね