首頁?行業  »   正文

英偉達等研究人員開發新方法STEAL,使神經網絡具有更精確的計算機視覺

英偉達等研究人員開發新方法STEAL,使神經網絡具有更精確的計算機視覺

Nvidia,多倫多大學和Vector人工智能研究所的研究人員設計了一種方法,更精確地檢測和預測物體開始和結束位置。這些知識可以改進對現有計算機視覺模型的推理,并為未來的模型標記訓練數據。

在研究人員的實驗中,語義細化邊緣對齊學習(STEAL)能夠將最先進的CASENet語義邊界預測模型的精度提高4%。更精確地識別物體的邊界可以應用于計算機視覺任務,包括圖像生成,三維重建,目標檢測。

STEAL可用于改進現有的CNN或邊界檢測模型,但研究人員還認為它可以更有效地標記或注釋計算機視覺模型的數據。

為證明這一點,STEAL方法用于改進城市景觀,這是2016年在計算機視覺和模式識別(CVPR)會議上首次引入的城市環境數據集。

現在,在GitHub上,STEAL框架以“主動對齊”的方法來學習和預測像素中的對象邊緣。在訓練期間對注釋噪聲進行顯式推理,并為網絡設置水平集,以便最終從錯位標簽中學習,也有助于產生結果。

英偉達等研究人員開發新方法STEAL,使神經網絡具有更精確的計算機視覺

論文中寫道,“我們進一步表明,我們預測的邊界明顯優于最新的DeepLab-v3分割輸出,同時使用更輕量級的架構。”

“我們解決了語義邊界預測問題,其目的是識別屬于對象邊界的像素。我們注意到,相關數據集包含大量的標簽噪聲,反映了這樣一個事實:獲得精確的注釋非常困難,因此注釋器需要權衡質量和效率。”

團隊目標是通過在訓練過程中對注釋噪聲進行顯式推理來學習清晰而精確的語義邊界。他們提出了一個簡單的新層和損耗,可用于現有的基于學習的邊界檢測器。

在訓練期間使用水平集公式進一步推理真實對象邊界,這允許網絡以端到端的方式從錯位標簽中學習。實驗表明,就MF(ODS)而言,結果優于目前所有最先進的方法,包括那些處理對齊的方法。此外,學習網絡可以顯著提高粗分割標簽,使其成為標記新數據的有效方式。

論文:

arxiv.org/abs/1904.07934

Github:

github.com/nv-tlabs/STEAL

歡迎關注ATYUN官方公眾號,商務合作及內容投稿請聯系郵箱:[email protected]

發表評論