慶應義塾大学 理工学部 電気情報工学科の吉岡 健太郎 専任講師は、エッジコンピューティングの普及に伴い、より身近なデバイスへの人工知能(AI)応用を促進するため、深層ニューラルネットワーク(DNN)、特にTransformer処理の高効率な推論を実現する高精度かつ省エネルギーなコンピュート・イン・メモリー(CIM)回路を開発した。
同研究では、従来のCIMが抱えていたTransformerの推論に必要な演算精度を実現するために、データ格納、演算、アナログ-デジタル(A/D)変換を1つのメモリーセルに集積した「容量再構成型CIM(CR-CIM)」構造を提案した。
この構造によって、アナログCIMで初めてTransformer処理に必要な演算精度を達成しつつ、消費電力1ワットあたりの処理速度が818TOPS(兆回/秒)と非常に高い電力効率を実現した。
また畳み込みニューラルネットワーク(CNN)処理を行う際は、同等の演算精度を持つ従来技術と比べ10倍のエネルギー効率となる4094TOPS/ワットを達成した。
同研究成果は、エッジコンピューティングやAIの分野で、電力効率と処理速度の両面で効率的なAIハードウエアの開発に貢献する。また将来的にはより多くの人々が大規模言語モデル(LLM)といったAIサービスを利用しやすくなると期待される。<科学技術振興機構(JST)>
同研究では、従来のCIMが抱えていたTransformerの推論に必要な演算精度を実現するために、データ格納、演算、アナログ-デジタル(A/D)変換を1つのメモリーセルに集積した「容量再構成型CIM(CR-CIM)」構造を提案した。
この構造によって、アナログCIMで初めてTransformer処理に必要な演算精度を達成しつつ、消費電力1ワットあたりの処理速度が818TOPS(兆回/秒)と非常に高い電力効率を実現した。
また畳み込みニューラルネットワーク(CNN)処理を行う際は、同等の演算精度を持つ従来技術と比べ10倍のエネルギー効率となる4094TOPS/ワットを達成した。
同研究成果は、エッジコンピューティングやAIの分野で、電力効率と処理速度の両面で効率的なAIハードウエアの開発に貢献する。また将来的にはより多くの人々が大規模言語モデル(LLM)といったAIサービスを利用しやすくなると期待される。<科学技術振興機構(JST)>