以前、AIと半導体Chip回帰の流れというのを書きましたが近年の自動運転でのAI技術の高まりにも合わせやはりAI実現のためにはクラウドだけでなくエッジ=端末側にAIの機能を持たすべきという方向に向かっているようです。ディープラーニングの手法を活用したAIの実現にあたり、重要なのはクラウドやデータセンターにあるサーバーの処理能力を引き上げることが一つで巨大なデータ(≒ビッグデータ)を読み込ませて学習させる必要がありますが膨大な時間がかかり、下手したら数日or1週間かかる事例も。その学習時間を短くするために、少しでも高速な半導体を供給してほしい——これがAIを開発するソフトウェアベンダーや開発者側からの切実なニーズになるわけです。Intel,NVIDIAなどはその筆頭で並列処理が得意なGPUをAI向けに供給しています。
ただスマートフォンの音声認識などでは待てば許されるのでこういったサーバー処理は許されますが自動運転、ロボットなどで要求される画像認識では画像処理が通信できなかったりしたら下手したら事故になるわけで端末側でいかに最適化処理するということが課題になりそうです。実際自動運転向けにSoCの提供が始まっていますしNVIDIAはトヨタやファナックといったメーカーとも提携が始まっており、今後の発展が期待できそうです。
自分の関わるメモリ分野で言うとデータセンターのストレージは一部、フラッシュメモリに切り替わり始めておりサーバー側の高速化を図ろうとしています。エッジ側ではフラッシュメモリにストレージが置き換わったのはもう過去のこと。AI導入で要求されるのはメモリアクセスへの高速化と低消費電力の両立といったところでしょう。
DRAMのように常にリフレッシュ動作必要なメモリの不揮発化、フラッシュメモリとDRAMの間を埋めて高速処理をアシストするようなメモリ(いわゆるストレージクラスメモリ)が求められるようになるのではと予想です。
ただスマートフォンの音声認識などでは待てば許されるのでこういったサーバー処理は許されますが自動運転、ロボットなどで要求される画像認識では画像処理が通信できなかったりしたら下手したら事故になるわけで端末側でいかに最適化処理するということが課題になりそうです。実際自動運転向けにSoCの提供が始まっていますしNVIDIAはトヨタやファナックといったメーカーとも提携が始まっており、今後の発展が期待できそうです。
自分の関わるメモリ分野で言うとデータセンターのストレージは一部、フラッシュメモリに切り替わり始めておりサーバー側の高速化を図ろうとしています。エッジ側ではフラッシュメモリにストレージが置き換わったのはもう過去のこと。AI導入で要求されるのはメモリアクセスへの高速化と低消費電力の両立といったところでしょう。
DRAMのように常にリフレッシュ動作必要なメモリの不揮発化、フラッシュメモリとDRAMの間を埋めて高速処理をアシストするようなメモリ(いわゆるストレージクラスメモリ)が求められるようになるのではと予想です。
※コメント投稿者のブログIDはブログ作成者のみに通知されます