大阪公立大学の井上勝文(いのうえ・かつふみ)准教授らは、人工知能(AI)に手話をする上半身の情報に骨格の情報を加えることで、認識精度が1割程度向上すると発見した。
手話は数千個以上の単語が存在する。覚える動きが多いことが習得を難しくする原因の1つとされている。AIを用いて単語を認識する研究が行われているが、手の形や体との位置関係によって意味が異なり、高精度に認識できないという課題がある。
研究グループは話者の上半身の動きの情報に、手と表情、体との位置関係を加えることでより正確にAIが判断できるという仮説を立てた。深層学習モデルを使って検証すると10%ほど確度を高められたと発表している。
井上准教授は「この技術が聴覚障害者の方々とのコミュニケーション活性化につながる一助となることを期待している」とコメントした。