[スマートテクノロジーフォーラム]
STF<2017>/「ディープラーニングと画像処理への応用」

電気通信大学 大学院情報理工学研究科 教授 庄野 逸

近年の一般画像物体認識等に於ける画像処理アプローチでは、殆どの手法においてディープコンボリューション(ニューラル)ネット(DCNN)と呼ばれる手法が特徴抽出に用いられるようになってきている。DCNNは、Fukushima のNeocognitron を基本的なネットワークアーキテクチャとしており、階層間の結合様式を局所的な畳み込み演算で記述することで、結合のスパース性を担保している。このような局所的な入力結合による画像の分解表現は、我々の視覚野が持つ性質であり、Fukushimaは、Hubel & Wieselが示した階層仮説をニューラルネットワークに導入することにより、現在のDCNNの基盤部分を構築した。このような局所的な入力空間の記述は、画像や音声と行った連続性を持つようなデータ表現に適していると考えられる。現在のDCNNは、既に200層近くをもつモデルが提案されており、スパース性を持つ結合とはいえ、100万個を超えるようなオーダーの結合数がモデルに内包されており、これらの結合係数を決定する作業にはかなりのデータが必要になる。一般物体認識では、自然画像が用いられるが、ImageNetなどのデータセットの整備により、データ数に関しては、結合のオーダーと同程度の画像は確保出来る状況である。

一方、医用画像のような、診断などに用いられる画像では、データ数が十分に確保できないことは往々にして起こりうる。我々が提供を受けているびまん性肺疾患患者のCT画像はおおよそ200症例程度のデータを集めるのが精一杯の状況である。我々は、このような状況を打破するために、下図に示すような、転移学習的な手法を導入した。この手法では、まず十分なサイズの自然画像データセットをDCNN事前学習に用い、その後、びまん性肺疾患データセットを学習する。十分なサイズの自然画像の学習は、我々の視覚が幼児期に大量の自然画像を学習することによって外界を把握することに対応し、その後のCT画像のような特殊な画像の学習は、青年期に特殊な画像を少数のデータから学習していく過程に対応する。我々は、DCNNに同様の学習過程を辿らせることで、識別能力の向上を狙った。また、このような転移学習において、大量の自然画像を導入することは、中間層のデータ表現において、同じクラスに属するデータを比較的狭い特徴空間に押し込める作用を持つ可能性を示唆した。この作用が全く異質なタスクであるびまん性肺疾患データの分類の役にたっているという仮説を現在提案している。

171204STF発表者3(庄野様)図TransferR