ビッグデータ 【カテゴリ:IT】
ビッグデータとは、量(Volume)、速度(Velocity)、多様性(Variety)の3つの要素を持つデータの集まりのことです。
このビッグデータの3つの要素(3つのV)は、2001年にアナリストのダグ・レイニー氏によって、定義されました。
量(volume)というのは、データの量が多いということです。
具体的なデータ量の定義はされていませんが、1,000テラバイト(1ペタバイト)の規模と考えれられます。
速度(velocity)というのは、データが変化する速度が速いということです。
例えば、SNSで常にデータが書き込まれて更新され、絶え間なく変化している状態です。
多様性(variety)というのは、データの種類が多いということです。
これまでデータベースで扱っていた文字列や数値のデータだけではなく、画像や動画や音声などのデータも扱います。
コンピューターのデータ処理速度の向上により、インターネットの普及などで得られた大容量のデジタルデータであるビッグデータですが、データを集めるだけでは意味がありません。
収集したビッグデータの分析結果を活用することで、ビジネスに利用できる「これまでに無かった新しい価値」を創りだすことが可能となります。