慶應義塾大学の吉岡健太郎専任講師は、より身近なデバイスへの人工知能(AI)応用を促進するため、チャットGPTなどに使われる機械学習モデル「Transformer」処理の高効率な推論を実現するコンピュート・イン・メモリ(CIM)回路を開発した。効率的なAIハードウェアの開発に寄与につながりそうだ。
研究では、従来のCIMが抱えていたTransformerの推論に必要な演算精度を実現するためにデータ格納や演算、アナログ-デジタル(A/D)変換を1つのメモリセルに集積した「容量再構成型CIM(CR-CIM)」構造を提案した。
これによって、アナログCIMで初めてTransformer処理に必要な演算精度を達成しつつ、消費電力1ワットあたりの処理速度について高い電力効率を実現した。また畳み込みニューラルネットワーク(CNN)処理を行う際は、同等の演算精度を持つこれまでの技術と比べ10倍のエネルギー効率を達成している。
吉岡講師らは「将来的にはこの回路技術をさらに進化させることで、演算精度とエネルギー効率をより一層高めることが期待される」と紹介している。