成果信息
本發(fā)明提供一種家居圖像多目標(biāo)識(shí)別方法及裝置,能夠?yàn)榧揖訄D像訓(xùn)練節(jié)省大量訓(xùn)練數(shù)據(jù)、計(jì)算資源和訓(xùn)練時(shí)間,且能夠提高多目標(biāo)識(shí)別的準(zhǔn)確率。所述方法包括: 獲取家居圖像數(shù)據(jù)集作為訓(xùn)練集: 將在目標(biāo)領(lǐng)域圖像數(shù)據(jù)集上訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)模型作為預(yù)訓(xùn)練模型,采用遷移學(xué)習(xí)的方法,保留預(yù)訓(xùn)練模型的卷積層和池化層,通過(guò)保留的卷積層和池化層提取訓(xùn)練集的圖像特征.構(gòu)建第一特征圖和池化特征圖: 對(duì)池化特征圖進(jìn)行三次卷積操作,得到第二特征圖: 對(duì)第一特征圖和第二特征圖依次作全局均值池化、歸一化、反池化、反卷積操作,將反卷積操作后的兩組特征圖進(jìn)行融合;利用 softmax 分類(lèi)器對(duì)融合后的特征圖進(jìn)行分類(lèi)識(shí)別。本發(fā)明涉及深度學(xué)習(xí)領(lǐng)域, )
背景介紹
本發(fā)明提供一種家居圖像多目標(biāo)識(shí)別方法及裝置,能夠?yàn)榧揖訄D像訓(xùn)練節(jié)省大量訓(xùn)練數(shù)據(jù))
應(yīng)用前景
-)