恭喜南京大學胡雪梅獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監(jiān)控用IP管家,真方便!
龍圖騰網(wǎng)恭喜南京大學申請的專利一種費舍信息量引導的可學習飛行時間成像方法及系統(tǒng)獲國家發(fā)明授權專利權,本發(fā)明授權專利權由國家知識產(chǎn)權局授予,授權公告號為:CN115201852B 。
龍圖騰網(wǎng)通過國家知識產(chǎn)權局官網(wǎng)在2025-05-06發(fā)布的發(fā)明授權授權公告中獲悉:該發(fā)明授權的專利申請?zhí)?專利號為:202210669847.3,技術領域涉及:G01S17/894;該發(fā)明授權一種費舍信息量引導的可學習飛行時間成像方法及系統(tǒng)是由胡雪梅;李家渠;岳濤設計研發(fā)完成,并于2022-06-14向國家知識產(chǎn)權局提交的專利申請。
本一種費舍信息量引導的可學習飛行時間成像方法及系統(tǒng)在說明書摘要公布了:本發(fā)明公開了一種費舍信息量引導的可學習飛行時間成像方法及系統(tǒng)。其方法的步驟為:構造數(shù)據(jù)庫;建立可微分的物理成像模型,加入實際場景的物理約束,并設置編碼函數(shù)為可學習的參數(shù),輸入數(shù)據(jù)得到無噪聲的多次測量值;建模實際的多次測量值,推導飛行時間成像測量值的費舍信息量,并把帶噪聲的測量值輸入雙支路的深度重建網(wǎng)絡;使用費舍信息量作為損失函數(shù),并結合多次測量差異性損失函數(shù)和深度保真度損失函數(shù),聯(lián)合訓練編碼函數(shù)和深度重建網(wǎng)絡;將測試數(shù)據(jù)輸入已訓練的編碼函數(shù)和重建網(wǎng)絡中,重建測試場景深度圖;搭建飛行時間成像的硬件原型系統(tǒng),使用優(yōu)化得到的編碼函數(shù)和重建網(wǎng)絡來重建實際場景高質(zhì)量的深度圖。
本發(fā)明授權一種費舍信息量引導的可學習飛行時間成像方法及系統(tǒng)在權利要求書中公布了:1.一種費舍信息量引導的可學習飛行時間成像方法,其特征在于,包括以下步驟:步驟1,構造數(shù)據(jù)庫,包括訓練集和測試集;步驟2,建立可微分的物理成像模型來模擬飛行時間成像過程,并加入實際場景的物理約束,將編碼函數(shù)設置成可學習的參數(shù);將所述訓練集中的數(shù)據(jù),輸入所述可微分的物理成像模型中,得到無噪聲的多次測量值;步驟3,建模飛行時間成像實際的測量值,得到帶噪聲的多次測量值,并推導出飛行時間成像的費舍信息量,作為費舍信息量引導對編碼函數(shù)的優(yōu)化;步驟4,將所述帶噪聲的多次測量值輸入給雙支路的深度重建神經(jīng)網(wǎng)絡;將雙支路輸出的深度圖通過注意力模塊得到的注意力圖加權,輸出重建的深度圖;步驟5,構建所述編碼函數(shù)和深度重建神經(jīng)網(wǎng)絡的損失函數(shù),包括費舍信息引導損失函數(shù)、多次測量差異性損失函數(shù)以及深度保真度損失函數(shù);對所述編碼函數(shù)和深度重建神經(jīng)網(wǎng)絡進行端到端框架的聯(lián)合訓練優(yōu)化;步驟6,在測試階段,使用優(yōu)化得到的編碼函數(shù)對測試集的樣本進行成像過程模擬,得到帶噪聲的測量圖,并傳輸給已訓練的深度重建神經(jīng)網(wǎng)絡,最終得到測試場景的深度圖;步驟7,搭建飛行時間成像的硬件原型系統(tǒng),將并利用優(yōu)化得到的編碼函數(shù)作為所述硬件原型系統(tǒng)的光源調(diào)制和傳感器解調(diào)函數(shù),采集真實場景的測量值,輸入給優(yōu)化得到的深度重建神經(jīng)網(wǎng)絡,最終重建出真實場景的深度圖,完成飛行時間成像。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯(lián)系本專利的申請人或專利權人南京大學,其通訊地址為:210046 江蘇省南京市棲霞區(qū)仙林大道163號;或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。
1、本報告根據(jù)公開、合法渠道獲得相關數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發(fā)布本報告當日的職業(yè)理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據(jù)或者憑證。