書評その13:「ビッグデータの正体」
『ビッグデータの正体』
著者:ビクター・マイヤー=ショーンベルガー、ケネス・クキエ
発行日:2013/5/20
評価:★★★★★
所要時間:3時間
読破冊数:13/100冊
■こんな人におすすめ
・ビッグデータ、データマイニングがどんなものか、よくわからない
・AmazonやYouTubeでみかける「あなたへのおすすめ」の仕組みに興味がある
・データでお金を稼ぐヒントがほしい人
■概要
「ビッグデータ」とはその名の通り大規模かつ大量のデータのことです。この言葉自体は昔からあったみたいですが、盛んに使われるようになったのは2010年代に入ってからです。技術の進歩によって、サーバーのひとつやふたつじゃ管理仕切れないような量のデータが世の中に生まれ、この言葉を体現する状況も出てきたってことですね。
この本は、ビッグデータが社会にもたらす変化についてわかりやすく説明しています。それぞれの章で実例を交えつつ語っているし、構成も優れていると言えるかもしれません。しかし個人的には斎藤栄一郎さんの翻訳がわかりやすいこともおすすめポイントのひとつ。訳者のプロフィールに「主に情報通信やビジネス・経営分野の翻訳に従事」とあるので、やはり翻訳も適材適所なんだなぁと思ったり。
筆者は本の中でビッグデータがもたらす価値や意識の変化、そしてGoogleやAmazonなどの企業がそれらをどのように利用しているかの解説、ビッグデータの持つメリットとデメリットなどで語っています。全体として客観的でわかりやすい文章なのでビッグデータの入門書として良書な印象。
ちなみに、筆者は2007年に300エクサバイト(1エクサバイト=10億ギガバイト、つまり3,000億ギガバイト)のデータが記録、伝達されたという学者の調査結果から、2013年にはその4倍の1,200エクサバイトのデータが世界に蓄積されると予想してます。
実際どうなったか。
総務省が出してる情報通信白書(平成26年度版)によれば2011年の時点で1.8ゼタバイト(1,800エクサバイト)と予想を大きく上回ってます。
筆者の予想した1.5倍のデータが、筆者が予想したより早く世の中に生まれているわけです。この本の中で語られているような変化も同じようなスピードで進んでいることになるんじゃないか、と思うとなんか怖いなぁ。
■この本から学んだこと
・今日、世界に存在する情報は1TBのハードディスクが18億台あっても収まらない
・何かの調査でデータを集める場合、全体の縮図となるように割合を調整せずに、無作為に集める方が高い精度になる
・データの相関分析を最初に提唱したフランシス・ゴルトンはダーウィンのいとこ
・データの一部を切り取って分析するのではなく、この世のデータ全てを使った分析が近い将来可能になるかもしれない
・データの分析においては因果関係より相関関係
※ただし、相関関係が見えても、その理由(因果関係)を断定することはできない。
例えば中古車市場を調査した場合、「状態が良い中古車はオレンジ色が多い」という結果がでても、それが「オレンジ色の車を持つ人=車を大切にする人」だとは限らない
≪目次≫
まえがき
1 世界を変えるビッグデータ
When Data Speaks データが語り始めるとき
2 第1の変化「すべてのデータを扱う」
「N=全部」の世界
3 第2の変化「精度は重要ではない」
量は質を凌駕する
4 第3の変化「因果から相関の世界へ」
答えが分かれば、理由は要らない
5 データフィケーション
「すべてのもの」がデータ化され、ビジネスになる時代
6 ただのデータに新たな価値が宿る
ビジネスモデルの大変化 その1
7 データを上手に利用する企業
ビジネスモデルの大変化 その2
8 リスク――ビッグデータのマイナス面
『1984』の悪夢は実現するか
9 情報洪水時代のルール
ビッグデータ時代のガバナンスとは
10 ビッグデータの未来
ここまで述べてきたことの「まとめ」
- 作者: ビクター・マイヤー=ショーンベルガー,ケネス・クキエ,斎藤栄一郎
- 出版社/メーカー: 講談社
- 発売日: 2013/05/21
- メディア: 単行本
- この商品を含むブログ (24件) を見る