文教速報デジタル版

BUNKYO DIGITAL

文教速報デジタル版

BUNKYO DIGITAL
X線投資画像と3次元CTデータの高精度な重ね合わせ 東京医大教授らが実現

東京医科大学の吉井雄⼀教授らの研究チームは13日、X線透視画像と3次元CTデータの⾼精度な重ね合わせを実現したと発表した。研究を進めていくことで医療現場などでの活用が期待されている。

研究チームは、術中に用いる撮影カメラの光学中心と画像中の画素を結ぶ直線と、術前にCTスキャンで取得した3次元モデル(CTモデル)との交点でシーン座標を定義し、その座標系で3次元点群とその観測位置(2次元座標)の密な対応関係を自動的に取得可能な手法を考案した。

また、この手法により獲得した対応点情報と深層学習を組み合わせることで、局所画像に対しても高精度な重ね合わせに成功した。

具体的には、X線画像からその対象物体の表面のシーン座標を回帰するモデルを開発した。この特徴は、AIの学習法「畳み込みニューラルネットワーク(CNN)」を用いることで、推定するシーン座標を入力した画像の各画素と対応させる点だ。

先行研究における位置合わせ手法では数箇所の対応しか作れないのに対し、本手法では密な対応が作れる。ここで、シーン座標系は3次元CTデータにおいて定義されているため、X線画像を撮った際に、その画像とCTデータの相対的な関係を求めることができる。

これによって明示的に人体の特徴的部位のアノテーションを行う手間が省かれ、さらに、骨形状が写っている限り対応点が得られるため、ランドマーク点を含まない局所画像についても重ね合わせができるようになる。

実験では、患者のCTデータからシミュレーションで生成したX線画像を使って、シーン座標を回帰する深層学習モデルを学習させた。その際、さまざまな撮影姿勢を設定した他、実際のX線画像のような見た目を再現するモデルDeepDRRを用いた。

その結果、シミュレーション画像でのテストでは、推定された位置姿勢と実際の位置姿勢には平均で3.88ミリメートルの誤差を確認。また、10ミリメートル以下の誤差を重ね合わせの成功基準とした場合、失敗率は平均で11.76%にとどまった。また、シミュレーション画像で学習したモデルを実際のX線画像に適用したところ、画像上の誤差9.65ミリメートルの精度で重ね合わせができた。

研究チームは今後について、「推定したシーン座標の信頼度を工夫して重ね合わせに用いる対応点を絞り込むことで高速化を図り、医療現場での実証実験を進める予定」としている。