国产精品天干天干在线播放,大尺度揉捏胸床戏视频,樱花草www日本在线观看,狠狠躁夜夜躁人人爽天天天天97

Document
拖動(dòng)滑塊完成拼圖
個(gè)人中心

預(yù)訂訂單
服務(wù)訂單
發(fā)布專利 發(fā)布成果 人才入駐 發(fā)布商標(biāo) 發(fā)布需求

在線咨詢

聯(lián)系我們

龍圖騰公眾號(hào)
首頁(yè) 專利交易 科技果 科技人才 科技服務(wù) 國(guó)際服務(wù) 商標(biāo)交易 會(huì)員權(quán)益 IP管家助手 需求市場(chǎng) 關(guān)于龍圖騰
 /  免費(fèi)注冊(cè)
到頂部 到底部
清空 搜索
  • 我要求購(gòu)
  • 我要出售
當(dāng)前位置 : 首頁(yè) > 專利喜報(bào) > 恭喜浙江工業(yè)大學(xué)王萬(wàn)良獲國(guó)家專利權(quán)

恭喜浙江工業(yè)大學(xué)王萬(wàn)良獲國(guó)家專利權(quán)

買專利賣專利找龍圖騰,真高效! 查專利查商標(biāo)用IPTOP,全免費(fèi)!專利年費(fèi)監(jiān)控用IP管家,真方便!

龍圖騰網(wǎng)恭喜浙江工業(yè)大學(xué)申請(qǐng)的專利一種基于多階段神經(jīng)網(wǎng)絡(luò)的透明物體深度圖像修復(fù)方法獲國(guó)家發(fā)明授權(quán)專利權(quán),本發(fā)明授權(quán)專利權(quán)由國(guó)家知識(shí)產(chǎn)權(quán)局授予,授權(quán)公告號(hào)為:CN114943654B

龍圖騰網(wǎng)通過(guò)國(guó)家知識(shí)產(chǎn)權(quán)局官網(wǎng)在2025-06-10發(fā)布的發(fā)明授權(quán)授權(quán)公告中獲悉:該發(fā)明授權(quán)的專利申請(qǐng)?zhí)?專利號(hào)為:202210546060.8,技術(shù)領(lǐng)域涉及:G06T5/77;該發(fā)明授權(quán)一種基于多階段神經(jīng)網(wǎng)絡(luò)的透明物體深度圖像修復(fù)方法是由王萬(wàn)良;胡宇韜;趙燕偉;陳嘉誠(chéng);潘杰;錢(qián)宇彤設(shè)計(jì)研發(fā)完成,并于2022-05-17向國(guó)家知識(shí)產(chǎn)權(quán)局提交的專利申請(qǐng)。

一種基于多階段神經(jīng)網(wǎng)絡(luò)的透明物體深度圖像修復(fù)方法在說(shuō)明書(shū)摘要公布了:一種基于多階段神經(jīng)網(wǎng)絡(luò)的透明物體深度圖像修復(fù)方法,包括:讀取輸入圖像進(jìn)行放縮;預(yù)測(cè)分割圖像;去除深度圖像中的噪聲;使用動(dòng)態(tài)卷積初步提取特征;提取第一階段特征;生成第一階段不同分支的空間注意力圖;生成第一階段不同分支的修復(fù)圖像;融合第一階段預(yù)測(cè)結(jié)果;提取第二階段特征;生成第二階段修復(fù)圖像;提取第三階段特征;生成第三階段修復(fù)圖像;融合三個(gè)階段預(yù)測(cè)結(jié)果,得到修復(fù)后的深度圖像。本發(fā)明提升了推理速度,提高了模型精度,脫離了外部環(huán)境依賴性,提升了方法的泛化性。

本發(fā)明授權(quán)一種基于多階段神經(jīng)網(wǎng)絡(luò)的透明物體深度圖像修復(fù)方法在權(quán)利要求書(shū)中公布了:1.一種基于多階段神經(jīng)網(wǎng)絡(luò)的透明物體深度圖像修復(fù)方法,包括以下步驟:S1.讀取需要輸入的彩色RGB圖像Irgb,相對(duì)應(yīng)的深度圖像Idep;S2.對(duì)讀取的圖片進(jìn)行放縮處理,使用雙線性插值將圖像分辨率調(diào)整為網(wǎng)絡(luò)所需要的分辨率height×width;hright表示圖像縱向的分辨率,width表示圖像橫向的分辨率;S3.使用Deeplabv3+網(wǎng)絡(luò)模型獲得分割圖像Iseg,公式如下:Iseg=DeeplabIrgb1其中,Deeplab表示Deeplabv3+網(wǎng)絡(luò)模型;S4:去除深度圖像中的噪聲;使用預(yù)測(cè)出的分割圖像Iseg,將深度圖像中Idep屬于透明物體像素的深度值修改為0,從而去除深度圖像中的噪聲;公式如下: 其中表示分割圖像中位于i行、j列的像素,表示深度圖像位于i行、j列的像素;S5.使用動(dòng)態(tài)卷積層初步提取圖像特征,公式如下: 其中Convdynamic表示動(dòng)態(tài)卷積層,F(xiàn)rgb0表示對(duì)Irgb提取到的初始特征,F(xiàn)dep0表示對(duì)Idep提取到的初始特征;S6.使用編解碼器架構(gòu)提取第一階段的特征;公式如下: 其中UNet表示編解碼器架構(gòu)的UNet子網(wǎng)絡(luò)模型;Frgb1表示對(duì)Frgb0進(jìn)行特征提取得到的特征,F(xiàn)dep1表示對(duì)Fdep0進(jìn)行特征提取得到的特征;S7.生成空間注意力圖;公式如下: 其中SAB表示空間注意力模塊,SArgb表示對(duì)Frgb1進(jìn)行解碼得到的空間注意力圖,SAdep表示對(duì)Fdep1進(jìn)行解碼得到的空間注意力圖;S8.生成第一階段修復(fù)圖像Outrgb與Outdep;公式如下: 其中Dec表示解碼模塊,用來(lái)輸出修復(fù)后的結(jié)果;Outrgb表示對(duì)Frgb1解碼得到的結(jié)果,Outdep表示對(duì)Fdep1解碼得到的結(jié)果;S9.對(duì)預(yù)測(cè)結(jié)果進(jìn)行融合得到第一階段的輸出結(jié)果Out1;公式如下:Out1=SArgb·Outrgb+SAdep·Outdep7S10.將Frgb1與Fdep1相加得到融合特征F1,輸入第二階段的子網(wǎng)絡(luò)提取特征;公式如下: 其中F2表示第二階段網(wǎng)絡(luò)提取到的特征;S11.使用解碼模塊對(duì)特征F2解碼,得到第二階段的輸出結(jié)果Out2;S12.將特征F2輸入第三階段的網(wǎng)絡(luò)得到特征F3;公式如下:P3=ORNetF29其中ORNet表示帶有空間注意力的尺度不變網(wǎng)絡(luò);S13.使用解碼模塊對(duì)特征F3解碼,得到第三階段的輸出結(jié)果Out3;S14.使用空間注意力模塊預(yù)測(cè)輸出結(jié)果Out1的空間注意力圖SA1,輸出結(jié)果Out2的空間注意力圖SA2,輸出結(jié)果Out3的空間注意力圖SA3;S15.對(duì)各階段的輸出結(jié)果進(jìn)行融合即可得到修復(fù)后的深度圖像Iout;公式如下:Iout=SA1·Out1+SA2·Out2+SA3·OUt310。

如需購(gòu)買、轉(zhuǎn)讓、實(shí)施、許可或投資類似專利技術(shù),可聯(lián)系本專利的申請(qǐng)人或?qū)@麢?quán)人浙江工業(yè)大學(xué),其通訊地址為:310014 浙江省杭州市拱墅區(qū)潮王路18號(hào);或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。

免責(zé)聲明
1、本報(bào)告根據(jù)公開(kāi)、合法渠道獲得相關(guān)數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準(zhǔn)確性。
2、報(bào)告中的分析和結(jié)論僅反映本公司于發(fā)布本報(bào)告當(dāng)日的職業(yè)理解,僅供參考使用,不能作為本公司承擔(dān)任何法律責(zé)任的依據(jù)或者憑證。
主站蜘蛛池模板: 武功县| 伊金霍洛旗| 北辰区| 夹江县| 霍邱县| 香河县| 锦屏县| 桐乡市| 东山县| 江津市| 色达县| 班戈县| 北京市| 临西县| 黄骅市| 香港| 蒙山县| 临猗县| 固安县| 页游| 彰化县| 甘德县| 嵩明县| 房产| 祥云县| 古浪县| 阆中市| 岱山县| 浑源县| 两当县| 澄迈县| 郎溪县| 达拉特旗| 西盟| 富宁县| 项城市| 扎兰屯市| 桑日县| 松江区| 元朗区| 连州市|