文教速報デジタル版

BUNKYO DIGITAL

文教速報デジタル版

BUNKYO DIGITAL
AIを守る防御手法「敵対的訓練」と特性 東大研究チームが解明 深層よりも幅学習が大切

東京大学の山崎俊彦教授らを中心とする研究チームは4日、平均場理論を基にした新たな数理モデルを用いて、敵対的事例からAIを守る防御手法「敵対的訓練」の特性を明らかにしたと発表した。社会とAIの共存に向けた大きな前進といえそうだ。

この研究では、AI技術の中心である「ニューラルネットワーク」で行われる敵対的訓練を数学的に解析した。分析ツールとして、これまで注目されてこなかった同理論に着目。この理論は、「どのような場合にAIが訓練可能になるのか」など特性を明らかにすることができる。だが、狭い範囲しか見通せず、これまで解析に用いることはできなかった。

研究ではまず、この制限をなくした新たな平均場理論を提案した。これによりネットワーク全体の情報伝達を簡単な式で表現でき、敵対的訓練による変化が解析可能となった。

次にこの理論を利用し、敵対的訓練の様々な特性を明らかにした。興味深い結果として、敵対的訓練が「上手く機能し、高い性能を出す」、すなわち安全なAIを実現するためにはネットワークの幅という構造を広くすることが重要であることを導きだした。

近年のAI技術は「深層学習」と呼ばれる通り、できるだけ層を深く何段もネットワークを直列につなげていくことで優れた性能を発揮する。一方、敵対的攻撃への耐性を獲得するにはその深さではなく、ネットワークの層における入力の並列数を大きくすることが重要であると判明した。

研究グループは「本研究の成果は、敵対的訓練に対する包括的な分析結果を提供しており、より安全なAI開発を進める上での重要な示唆」と評価。「新たな平均場理論は、敵対的訓練の解析にとどまらず、幅広い深層学習手法の解析に応用可能だ」と評価した。