ビッグデータの定義や特徴について論じる時によく引き合いに出されるキーワードです。
米国に本拠を置く業界最大規模のアドバイザリー企業「ガートナー」のあるアナリストが2001年頃に、データが成長していく際の課題やチャンスをVolume、Variety、Velocityの3次元でとらえたことが始まりで、ガートナーでは、ビッグデータを説明したりする際に今でも3Vモデルを使用しているようです。即ち、Volume(データの膨大さ)、Variety(データの多種多様性)、Velocity(分析のリアルタイム性)の3要因の組み合わせでビッグデータの課題や価値が決まるということのようです。
インターネットを経由するデータの量は増加の一途を辿っており、IoTの進展によりその行きつくところは計り知れない感があります。桁違いに多量であると同時に、内容は多岐に亘ります。WebやSNSなどネット上の「バーチャルデータ」、現実空間の現象をデジタル化した「リアルデータ」の2種に大別できるようです。
いずれにしても、ハードウェアの性能向上やAIの適用などにより、ビッグデータの分析によるビジネスへの応用が加速されていきそうです。