2020年01月24日 12時00分 公開 [Junko Yoshida,EE Times]
ビッグデータが、コネクテッドデバイスを活性化させる要素であるということに、疑いの余地はない。しかし、さらに重要なのは、どのような方法でビッグデータから質の高い情報を取り出すかという点だ。誰もが悪戦苦闘している課題である。
例として、高性能自動運転車を見てみよう。日に日に増大するセンサーデータ量にも十分対応可能な処理装置は、決して安価ではない。大規模CPU/GPU(注1)の放熱量はかなり多く、機械学習のトレーニングのためにビッグデータをクラウドに上げるのはコストがかかる。これらのコストを低減する一つの方法が、エッジにおけるデータのフィルタリングだ。
ドイツのTerakiは、こうした技術を手掛けている企業だ。同社は、機械学習や、より高精度な物体検知のためにデータをフィルタリングしリサイズするソフトウェアを開発している。
(注1)GPUとは「Graphics Processing Unit」の略で、3Dグラフィックスなどの画像描写を行う際に必要となる計算処理を行う半導体チップ(プロセッサ)のことです。パソコンやサーバーに搭載される半導体チップとしては、それらの頭脳にあたるCPUの方が一般的ですね。これに対してGPUは、3Dグラフィックスなどの画像描写のために使われる、パソコンやサーバーのもう1つの優秀な頭脳といえばわかりやすいでしょうか。3Dグラフィックス描写に関する計算処理については、CPUがGPUに任せてしまうというわけです。
最近では、GPUの高い演算性能を活用して、3Dグラフィックス以外の計算処理も行わせるGPGPU(General-purpose computing on graphics processing units)も数多く登場しています。GPGPUを利用することにより、スーパーコンピューターに勝るとも劣らない性能を持つサーバーを、より安価に構築できるようにもなっています。
※コメント投稿者のブログIDはブログ作成者のみに通知されます