ビッグデータの定義は、データの内容や利用法などの観点から様々な説があるが、簡潔に言えば、従来のデータベースインフラでは量的にも質的にも処理しきれないほど「大量かつ多様なデータ」および「その分析と活用」とされている。
身近な例を挙げると、「データ」としては、インターネット上で日々膨大に更新され増え続けるfacebook、twitterなどのソーシャルメディアの更新内容があり、「分析・活用法」としては、予測分析手法を利用したアマゾンの「レコメンド機能」などがある。
多種あるビッグデータに共通する特徴として、単にデータ量が膨大というだけでなく、ユーザーの書き込みのように、情報にリアルタイム性があり、かつ非定型的で多様性を持っているという点が挙げられる。
最近まで量的、内容的に保管・活用しきれなかったこうした“雑多な”データにいち早く注目し、最新の分析手法を用いて解析・活用することで競争優位性を確保して急成長をとげたのが上記アマゾンである。マッキンゼー・アンド・カンパニーの分析によれば、アマゾンの2011年売上高の35%はレコメンド機能による「おすすめ商品」であったという。また、googleや世界最大のオークションサイトeBayなどの大手IT企業では数十ペタバイト(1ペタバイト=1,024テラ(兆)バイト、2012年時点)のデータを保管・分析しているとされる。
このようにビッグデータは、顧客のニーズを分析・察知することで的確な商品やサービスを提供し売上に貢献するだけでなく、例えば東芝では、工場の設備やオフィス機器からリアルタイムデータを収集・集計(ミリ秒単位であがってくるデータを秒単位で集計)したり、そのデータを即時解析処理することで異常を検知・予測し、業務効率を向上させるのに活用している(同社HPより)。
ビッグデータの活用は、企業の競争力を左右するほど重要であるとの認識は浸透しつつある一方、日本における最大の問題点は、・・・
このコンテンツは会員限定です。会員登録(有料)すると続きをお読みいただけます。