恭喜北京理工大學;北京理工大學重慶創(chuàng)新中心;北京理工大學前沿技術研究院董錫超獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監(jiān)控用IP管家,真方便!
龍圖騰網(wǎng)恭喜北京理工大學;北京理工大學重慶創(chuàng)新中心;北京理工大學前沿技術研究院申請的專利相似性約束下GEO星機雙基SAR動目標智能成像方法獲國家發(fā)明授權專利權,本發(fā)明授權專利權由國家知識產(chǎn)權局授予,授權公告號為:CN114910905B 。
龍圖騰網(wǎng)通過國家知識產(chǎn)權局官網(wǎng)在2025-05-20發(fā)布的發(fā)明授權授權公告中獲悉:該發(fā)明授權的專利申請?zhí)?專利號為:202210427304.0,技術領域涉及:G01S13/90;該發(fā)明授權相似性約束下GEO星機雙基SAR動目標智能成像方法是由董錫超;崔暢;胡程;李元昊;王裕沛設計研發(fā)完成,并于2022-04-22向國家知識產(chǎn)權局提交的專利申請。
本相似性約束下GEO星機雙基SAR動目標智能成像方法在說明書摘要公布了:本發(fā)明提供一種相似性約束下GEO星機雙基SAR動目標智能成像方法,包括:通過GEOSA?BSAR系統(tǒng)采集含有運動目標的回波數(shù)據(jù),并對回波數(shù)據(jù)進行距離壓縮、方位維FFT和雜波抑制處理,獲取運動目標的距離?多普勒域信號;對距離?多普勒域信號進行距離維FFT處理、相位補償和2D?IFFT處理,獲取運動目標散焦信號;構建基于相似性約束的深度神經(jīng)網(wǎng)絡模型,深度神經(jīng)網(wǎng)絡模型的網(wǎng)絡結構由若干個殘差塊搭建,并通過優(yōu)化含相似性度量的損失函數(shù)對深度神經(jīng)網(wǎng)絡進行訓練,得到深度神經(jīng)網(wǎng)絡模型參數(shù);將運動目標散焦信號輸入訓練后的深度神經(jīng)網(wǎng)絡模型,輸出得到聚焦的運動目標圖像。本發(fā)明能夠快速準確地對運動目標進行成像。
本發(fā)明授權相似性約束下GEO星機雙基SAR動目標智能成像方法在權利要求書中公布了:1.一種相似性約束下GEO星機雙基SAR動目標智能成像方法,其特征在于,包括以下步驟:通過GEOSA-BSAR系統(tǒng)采集含有運動目標的回波數(shù)據(jù),并對回波數(shù)據(jù)進行距離壓縮、方位維FFT和雜波抑制處理,獲取運動目標的距離-多普勒域信號,包括:通過GEOSA-BSAR系統(tǒng)采集含有運動目標的回波數(shù)據(jù),并對回波數(shù)據(jù)進行距離壓縮,得到第一信號為: 其中,r為距離,ta為慢時間,c為光速,σt,k和Rt,kta分別為第k個散射點的散射系數(shù)和雙程斜距歷程,λ為波長,cr,ta為靜止雜波信號,nr,ta為噪聲;將第一信號經(jīng)過方位維FFT變換到距離-多普勒域,獲取第二信號為: 其中,fa為方位頻率,Wa,kfa和ψkfa分別為第k個散射點的斜距頻域表達、方位向包絡和距離-多普勒域信號相位;cr,fa和nr,fa分別為雜波和噪聲的距離-多普勒域信號;通過多普勒濾波或空時自適應處理方法對所述第二信號進行雜波抑制,獲取距離-多普勒域信號為: 對所述距離-多普勒域信號進行距離維FFT處理、相位補償和2D-IFFT處理,獲取運動目標散焦信號,包括:對所述距離-多普勒域信號進行距離維FFT處理,得到二維頻域信號,表示為: 其中,fr為距離頻率,Wkfr,fa和分別為第k個散射點的二維頻域信號包絡和相位,其中,第k個散射點的二維頻域信號相位近似為: 其中,R0,k、k1,k、k2,k、k3,k和k4,k分別為第k個散射點的雙程斜距歷程Rt,kta對慢時間ta進行泰勒展開后常數(shù)項、第一至第四階項系數(shù);f0為雷達工作頻率;對所述二維頻域信號進行相位補償和2D-IFFT處理,獲取運動目標散焦信號,即:sder,ta=IFFT2D[st,ffr,fahcomfr,fa];其中,IFFT2D[st,ffr,fahcomfr,fa]表示2D-IFFT處理,補償?shù)膮⒖己瘮?shù)hcomfr,fa是根據(jù)靜止場景中心點信號二維頻譜的高階相位構建的,其表達式為: 其中,k10、k20、k30和k40分別為靜止場景的中心點雙程斜距歷程對慢時間進行泰勒展開后的第一至第四階項系數(shù);構建基于相似性約束的深度神經(jīng)網(wǎng)絡模型,所述深度神經(jīng)網(wǎng)絡模型的網(wǎng)絡結構由若干個殘差塊搭建,并通過優(yōu)化含相似性度量的損失函數(shù)對深度神經(jīng)網(wǎng)絡進行訓練,得到深度神經(jīng)網(wǎng)絡模型參數(shù),所述損失函數(shù)為: 其中,I為輸入數(shù)據(jù),O為標簽數(shù)據(jù),CI為基于相似性約束的深度神經(jīng)網(wǎng)絡模型的處理結果,[CI]xy表示CI在x,y位置的像素值,Oxy表示O在x,y位置的像素值,Na為信號的方位向點數(shù),Nr為信號的距離向點數(shù);將所述運動目標散焦信號輸入訓練后的深度神經(jīng)網(wǎng)絡模型,輸出得到聚焦的運動目標圖像。
如需購買、轉(zhuǎn)讓、實施、許可或投資類似專利技術,可聯(lián)系本專利的申請人或?qū)@麢嗳?a target="_blank" rel="noopener noreferrer nofollow" >北京理工大學;北京理工大學重慶創(chuàng)新中心;北京理工大學前沿技術研究院,其通訊地址為:100081 北京市海淀區(qū)中關村南大街5號;或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。
1、本報告根據(jù)公開、合法渠道獲得相關數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發(fā)布本報告當日的職業(yè)理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據(jù)或者憑證。