自動實時探測水下魚類目標是評估漁業(yè)資源、制定最優(yōu)生產(chǎn)策略的前提和關(guān)鍵。機器視覺和人工智能技術(shù)為魚類目標探測提供了行之有效的技術(shù)手段。但由于復(fù)雜水下光照環(huán)境、不受控的魚類運動等難題,傳統(tǒng)方法不能滿足真實水下檢測需求。
北京農(nóng)業(yè)信息技術(shù)研究中心周超博士等圍繞上述問題開展了相關(guān)研究,提出了一種新的基于復(fù)合主干網(wǎng)絡(luò)(CBresnet)和增強路徑聚合網(wǎng)絡(luò)(EPANet)的復(fù)合魚類探測框架(Composited FishNet),用于學習由圖像亮度、海底結(jié)構(gòu),以及魚方位、形狀和紋理差異而導(dǎo)致的場景變化信息(源域風格),從而減少了環(huán)境對目標特征的干擾,提高了探測目標特征信息的利用率。此外,還改進并設(shè)計了一種EPANet,解決了線性上采樣方式帶來的語義信息利用不足問題,促進了高低級特征信息的融合。可用于海洋,水產(chǎn)養(yǎng)殖等復(fù)雜水下環(huán)境的魚類檢測與識別。
以上研究已在圖像處理領(lǐng)域國際期刊IEEE Transactions on Image Processing(CCF A類推薦期刊,IF:9.34)上在線發(fā)表(DOI:10.1109/TIP.2021.3074738)。該研究受國家重點研發(fā)計劃課題(2019YFD0901004),北京市自然科學基金項目(6212007),以及北京市農(nóng)林科學院青年基金項目(QNJJ202014)聯(lián)合資助。