日本電信電話(NTT)は、深層学習において過去の学習過程をモデル間で再利用する新たな仕組みとして「学習転移」技術を実現した。再学習コストを削減し、AI技術開発に貢献するとしている。
生成AI技術は追加学習により基盤モデルを設定して活用することが一般的となっている。だが、それには多くのコストがかかっている。
NTT は人工知能の学習過程にある高い対称性に着目。とくに置換変換と呼ばれるニューロンの入れ替えをしても変化がない性質の下で、異なるモデル間のプロセス同士を同一視できることを発見した。過去の学習過程を適切に変換することで、新たなモデルで再利用できる学習転移技術を実証している。
NTTは「深層学習における新たな学習手法の理論を確立し、その応用として基盤モデル更新時のチューニングコストを大幅に低減できる可能性を明らかにした」とし「多様な基盤モデルのコスト削減や次世代のAI技術開発に貢献する」と評価している。