国产精品天干天干在线播放,大尺度揉捏胸床戏视频,樱花草www日本在线观看,狠狠躁夜夜躁人人爽天天天天97

Document
拖動(dòng)滑塊完成拼圖
個(gè)人中心

預(yù)訂訂單
服務(wù)訂單
發(fā)布專利 發(fā)布成果 人才入駐 發(fā)布商標(biāo) 發(fā)布需求

在線咨詢

聯(lián)系我們

龍圖騰公眾號(hào)
首頁 專利交易 科技果 科技人才 科技服務(wù) 國際服務(wù) 商標(biāo)交易 會(huì)員權(quán)益 IP管家助手 需求市場(chǎng) 關(guān)于龍圖騰
 /  免費(fèi)注冊(cè)
到頂部 到底部
清空 搜索
當(dāng)前位置 : 首頁 > 專利喜報(bào) > 恭喜福州大學(xué)李蒙蒙獲國家專利權(quán)

恭喜福州大學(xué)李蒙蒙獲國家專利權(quán)

買專利賣專利找龍圖騰,真高效! 查專利查商標(biāo)用IPTOP,全免費(fèi)!專利年費(fèi)監(jiān)控用IP管家,真方便!

龍圖騰網(wǎng)恭喜福州大學(xué)申請(qǐng)的專利一種基于孿生圖神經(jīng)網(wǎng)絡(luò)的城市場(chǎng)景變化檢測(cè)方法獲國家發(fā)明授權(quán)專利權(quán),本發(fā)明授權(quán)專利權(quán)由國家知識(shí)產(chǎn)權(quán)局授予,授權(quán)公告號(hào)為:CN117173575B

龍圖騰網(wǎng)通過國家知識(shí)產(chǎn)權(quán)局官網(wǎng)在2025-05-20發(fā)布的發(fā)明授權(quán)授權(quán)公告中獲悉:該發(fā)明授權(quán)的專利申請(qǐng)?zhí)?專利號(hào)為:202311196705.0,技術(shù)領(lǐng)域涉及:G06V20/10;該發(fā)明授權(quán)一種基于孿生圖神經(jīng)網(wǎng)絡(luò)的城市場(chǎng)景變化檢測(cè)方法是由李蒙蒙;樓康凱;汪小欽設(shè)計(jì)研發(fā)完成,并于2023-09-16向國家知識(shí)產(chǎn)權(quán)局提交的專利申請(qǐng)。

一種基于孿生圖神經(jīng)網(wǎng)絡(luò)的城市場(chǎng)景變化檢測(cè)方法在說明書摘要公布了:本發(fā)明提供了一種基于孿生圖神經(jīng)網(wǎng)絡(luò)的城市場(chǎng)景變化檢測(cè)方法。場(chǎng)景變化檢測(cè)是以場(chǎng)景作為基本分析粒度檢測(cè)雙時(shí)相影像中的變化區(qū)域的方法,而本方法的核心是利用圖神經(jīng)網(wǎng)絡(luò)優(yōu)越的信息聚合能力和結(jié)構(gòu)特征抽象能力,融合圖節(jié)點(diǎn)的屬性信息的并挖掘場(chǎng)景深層結(jié)構(gòu)特征,解決傳統(tǒng)方法無法充分利用影像結(jié)構(gòu)信息的問題;此外還集成了注意力機(jī)制、節(jié)點(diǎn)特征交互模塊和圖特征交互模塊,對(duì)提取的圖級(jí)別信息做相似性建模的同時(shí)補(bǔ)充節(jié)點(diǎn)級(jí)的細(xì)粒度信息,減少了漏檢和誤檢現(xiàn)象。本發(fā)明提出的孿生圖神經(jīng)網(wǎng)絡(luò)擴(kuò)展性較強(qiáng),可以自由替換結(jié)構(gòu)特征提取網(wǎng)絡(luò),同時(shí)支持不同屬性特征的輸入和比較,為高效獲取遙感影像中的城市土地利用變化信息提供技術(shù)支撐。

本發(fā)明授權(quán)一種基于孿生圖神經(jīng)網(wǎng)絡(luò)的城市場(chǎng)景變化檢測(cè)方法在權(quán)利要求書中公布了:1.一種基于孿生圖神經(jīng)網(wǎng)絡(luò)的城市場(chǎng)景變化檢測(cè)方法,其特征在于基于孿生圖神經(jīng)網(wǎng)絡(luò)和特征交互模塊,包括以下步驟:步驟S1:獲取研究區(qū)雙時(shí)相高分辨率遙感影像,對(duì)影像進(jìn)行預(yù)處理,包括輻射校正、正射校正、大氣校正、影像融合、影像配準(zhǔn)和影像重采樣操作;步驟S2:對(duì)經(jīng)過預(yù)處理的影像做滑窗裁剪,獲得指定大小的場(chǎng)景樣本;選擇影像分割算法對(duì)場(chǎng)景樣本做超像素分割獲得場(chǎng)景超像素分割結(jié)果;基于超像素分割結(jié)果對(duì)場(chǎng)景樣本進(jìn)行圖結(jié)構(gòu)構(gòu)建;步驟S3:基于步驟S2中構(gòu)建的圖結(jié)構(gòu),結(jié)合原始場(chǎng)景影像提取每個(gè)節(jié)點(diǎn)的屬性特征;將雙時(shí)相的節(jié)點(diǎn)的屬性特征和圖結(jié)構(gòu)作為輸入,利用孿生圖神經(jīng)融合節(jié)點(diǎn)的屬性信息,提取場(chǎng)景的深層結(jié)構(gòu)特征;步驟S4:基于步驟S3中提取的圖節(jié)點(diǎn)的結(jié)構(gòu)特征進(jìn)行圖相似性建模和節(jié)點(diǎn)特征交互;具體地,圖相似性建模通過基于內(nèi)積的注意力機(jī)制先對(duì)節(jié)點(diǎn)特征進(jìn)行圖池化輸出圖向量表征,利用神經(jīng)張量網(wǎng)絡(luò)NeuralTensorNetwork建模雙時(shí)相圖向量表征的相似性得到圖級(jí)交互結(jié)果;節(jié)點(diǎn)交互操作通過逐節(jié)點(diǎn)計(jì)算雙時(shí)相節(jié)點(diǎn)特征內(nèi)積構(gòu)造節(jié)點(diǎn)特征交互矩陣,統(tǒng)計(jì)其直方圖特征得到節(jié)點(diǎn)交互結(jié)果;拼接節(jié)點(diǎn)級(jí)交互結(jié)果和圖級(jí)交互結(jié)果用于檢測(cè)變化;步驟S5:結(jié)合真實(shí)場(chǎng)景樣本標(biāo)簽訓(xùn)練模型,使用二分類交叉熵?fù)p失函數(shù)計(jì)算模型預(yù)測(cè)結(jié)果與標(biāo)簽的差異指導(dǎo)模型參數(shù)調(diào)優(yōu);步驟S6:將訓(xùn)練得到的模型權(quán)重用于步驟S2獲取的場(chǎng)景樣本變化檢測(cè),拼接檢測(cè)結(jié)果完成整個(gè)區(qū)域的檢測(cè);步驟S2中具體包括以下步驟:步驟S21:利用滑窗裁剪將研究區(qū)域的遙感影像裁剪為固定大小的場(chǎng)景圖片,選擇影像分割算法對(duì)場(chǎng)景圖片進(jìn)行超像素分割,通過參數(shù)調(diào)整獲得較為理想的分割結(jié)果;步驟S22:基于超像素分割結(jié)果,將場(chǎng)景中每個(gè)超像素對(duì)象視為圖節(jié)點(diǎn),構(gòu)建區(qū)域鄰接圖,具體地,對(duì)于空間上相鄰的超像素對(duì)象,其鄰接關(guān)系定義為1,不相鄰的對(duì)象之間的鄰接關(guān)系定義為0,鄰接矩陣計(jì)算公式表述如下: 式中,Aij表示對(duì)象i和對(duì)象j的鄰接關(guān)系;步驟S3中具體包括以下步驟:步驟S31:結(jié)合雙時(shí)相場(chǎng)景原始影像,提取圖節(jié)點(diǎn)的屬性特征作為孿生圖神經(jīng)網(wǎng)絡(luò)的特征輸入;屬性特征提取通過特征工程和深度學(xué)習(xí)兩種方法,其中特征工程法指利用專家知識(shí)人工設(shè)計(jì)圖像特征以及HOG低層級(jí)視覺特征,專家知識(shí)人工設(shè)計(jì)圖像特征包括光譜、紋理、幾何特征,HOG低層級(jí)視覺特征包括尺度不變特征SIFT、方向梯度直方圖特征;而深度學(xué)習(xí)法主要基于一個(gè)預(yù)訓(xùn)練后的深度神經(jīng)網(wǎng)絡(luò)自動(dòng)的提取高層級(jí)語義特征;步驟S32:以圖采樣和聚合網(wǎng)絡(luò)GraphSAGE作為信息傳遞更新和結(jié)構(gòu)特征提取的主干網(wǎng)絡(luò),構(gòu)建一個(gè)具有兩個(gè)共享權(quán)重分支的結(jié)構(gòu)特征編碼器,每個(gè)編碼器中堆疊有多層圖神經(jīng)結(jié)構(gòu),將步驟S31提取的屬性特征輸入結(jié)構(gòu)特征編碼器中提取場(chǎng)景深層結(jié)構(gòu)特征;步驟S4中具體包括以下步驟:步驟S41:節(jié)點(diǎn)交互模塊首先計(jì)算兩個(gè)矩陣的乘積,并對(duì)計(jì)算結(jié)果做Sigmoid映射,得到節(jié)點(diǎn)特征交互矩陣,其中每一個(gè)元素代表了對(duì)應(yīng)節(jié)點(diǎn)的相似性,指定區(qū)間數(shù)后,統(tǒng)計(jì)其直方圖特征作為節(jié)點(diǎn)特征交互結(jié)果;步驟S42:先利用基于內(nèi)積的注意力機(jī)制對(duì)圖節(jié)點(diǎn)特征進(jìn)行圖池化輸出圖向量表征,具體地,分別計(jì)算雙時(shí)相節(jié)點(diǎn)特征均值,并逐節(jié)點(diǎn)計(jì)算與特征均值的內(nèi)積,對(duì)計(jì)算結(jié)果做Sigmoid映射,用映射結(jié)果代表每個(gè)節(jié)點(diǎn)特征與均值的相似性;映射結(jié)果越接近1,相關(guān)性越高,反之越低;步驟S43:利用神經(jīng)張量網(wǎng)絡(luò)對(duì)步驟S42獲得的圖向量表征進(jìn)行相關(guān)性建模,神經(jīng)張量網(wǎng)絡(luò)的計(jì)算公式為: 式中,e1和e2分別表示雙時(shí)相圖向量表征,g表示雙時(shí)相圖向量表征的相似性建模結(jié)果,f為激活函數(shù),W為張量切片,用于建模e1和e2的相似性,K為超參數(shù),用于設(shè)置張量切片的數(shù)量,V是權(quán)重矩陣,b為偏置向量;步驟S44:拼接步驟S41和步驟S43的交互結(jié)果用于后續(xù)變化檢測(cè)。

如需購買、轉(zhuǎn)讓、實(shí)施、許可或投資類似專利技術(shù),可聯(lián)系本專利的申請(qǐng)人或?qū)@麢?quán)人福州大學(xué),其通訊地址為:350108 福建省福州市閩侯縣福州大學(xué)城烏龍江北大道2號(hào)福州大學(xué);或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。

免責(zé)聲明
1、本報(bào)告根據(jù)公開、合法渠道獲得相關(guān)數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準(zhǔn)確性。
2、報(bào)告中的分析和結(jié)論僅反映本公司于發(fā)布本報(bào)告當(dāng)日的職業(yè)理解,僅供參考使用,不能作為本公司承擔(dān)任何法律責(zé)任的依據(jù)或者憑證。
主站蜘蛛池模板: 永登县| 阳信县| 德州市| 普格县| 象州县| 兴海县| 浦城县| 平凉市| 邵武市| 渑池县| 惠来县| 湘西| 嘉兴市| 洱源县| 滕州市| 盐津县| 昆明市| 芜湖县| 招远市| 太康县| 襄垣县| 海盐县| 罗田县| 汾阳市| 兴和县| 遂昌县| 收藏| 沿河| 新安县| 马山县| 施秉县| 黄平县| 独山县| 炎陵县| 庆安县| 济阳县| 南阳市| 建德市| 株洲市| 信阳市| 舟山市|