Skip to content

効率的にリサーチするには、現在の「サンプリング調査」が最強だ

統計学が最強の学問である」の中では、ビッグデータについてナナメから意見している様子が見られて、興味深く読みました。



どんな大量のデータでも、どんな計算でもできる技術ができた今、何を計算すべきかと考えると、統計解析以外にはあり得ない。そしてもし「統計解析」という地味な言葉がお題目として魅力的でないのならば、「ビッグデータ」とか「ビジネスインテリジェンス」といった流行り言葉を生み出せばいいのだ。おそらく今、こうした流行り言葉と統計学への注目が高まっているのは、そういう理由なのではないかと私は思う。

データの処理速度が高くなった今、統計解析が進化するのは当たり前で、そのプロセスを注目してもらうために「統計解析」は地味なので、「ビッグデータ」という言葉を作った。そんな冷静な分析です。

もちろん全数調査よりサンプリング調査のほうが精度が低いことは間違いない。だが問題となるのは、それによってどの程度精度が低下するのか、そしてその精度が低下した結果、実際に下すべき判断や取るべき行動にどのような影響があるのかということである。

逆に言えば、判断や行動に影響しないレベルの精度は無意味で、そのためにかけなければいけないコストはムダだ。対処しきれない量のデータが存在する際に、適切なサンプリングさえすれば、必要な情報を得るためのコストが激減するのは80年前だろうが現代だろうが本質的には変わらない。

にもかかわらず、ビッグデータに関心のあるビジネスマンは、しばしばビッグデータをビッグなままで扱うことにしか目が行かないのだ。

ビッグデータに批判的なメッセージを送りつつ、今まで研究が重ねられ、多くの人に鍛えられてきた現在のリサーチ手法、サンプリング調査へ賛辞を送っています。

無理や無駄をそぎ落としていって、効率的な手法として確立させてきた「サンプリング調査」ですが、一部の注目を集めるために「ビッグデータ」ではより多くの情報を取り扱うことに価値を見出そうとしています。

多くの情報に拘ることは、時代を逆行している。と言えるかもしれません。地に足つけて、ベターな調査手法を選択していきましょう。

Photo by Marius B