国产精品天干天干在线播放,大尺度揉捏胸床戏视频,樱花草www日本在线观看,狠狠躁夜夜躁人人爽天天天天97

Document
拖動(dòng)滑塊完成拼圖
個(gè)人中心

預(yù)訂訂單
服務(wù)訂單
發(fā)布專利 發(fā)布成果 人才入駐 發(fā)布商標(biāo) 發(fā)布需求

在線咨詢

聯(lián)系我們

龍圖騰公眾號(hào)
首頁 專利交易 科技果 科技人才 科技服務(wù) 國(guó)際服務(wù) 商標(biāo)交易 會(huì)員權(quán)益 IP管家助手 需求市場(chǎng) 關(guān)于龍圖騰
 /  免費(fèi)注冊(cè)
到頂部 到底部
清空 搜索
  • 我要求購(gòu)
  • 我要出售
當(dāng)前位置 : 首頁 > 專利喜報(bào) > 恭喜安徽大學(xué)屈磊獲國(guó)家專利權(quán)

恭喜安徽大學(xué)屈磊獲國(guó)家專利權(quán)

買專利賣專利找龍圖騰,真高效! 查專利查商標(biāo)用IPTOP,全免費(fèi)!專利年費(fèi)監(jiān)控用IP管家,真方便!

龍圖騰網(wǎng)恭喜安徽大學(xué)申請(qǐng)的專利一種基于深度自校準(zhǔn)的遞進(jìn)式三維生物醫(yī)學(xué)圖像配準(zhǔn)方法獲國(guó)家發(fā)明授權(quán)專利權(quán),本發(fā)明授權(quán)專利權(quán)由國(guó)家知識(shí)產(chǎn)權(quán)局授予,授權(quán)公告號(hào)為:CN114708308B

龍圖騰網(wǎng)通過國(guó)家知識(shí)產(chǎn)權(quán)局官網(wǎng)在2025-05-27發(fā)布的發(fā)明授權(quán)授權(quán)公告中獲悉:該發(fā)明授權(quán)的專利申請(qǐng)?zhí)?專利號(hào)為:202210042043.0,技術(shù)領(lǐng)域涉及:G06T7/30;該發(fā)明授權(quán)一種基于深度自校準(zhǔn)的遞進(jìn)式三維生物醫(yī)學(xué)圖像配準(zhǔn)方法是由屈磊;孫銳;吳軍;苗永春;韓婷婷;李圓圓設(shè)計(jì)研發(fā)完成,并于2022-01-14向國(guó)家知識(shí)產(chǎn)權(quán)局提交的專利申請(qǐng)。

一種基于深度自校準(zhǔn)的遞進(jìn)式三維生物醫(yī)學(xué)圖像配準(zhǔn)方法在說明書摘要公布了:本發(fā)明涉及一種基于深度自校準(zhǔn)的遞進(jìn)式三維生物醫(yī)學(xué)圖像配準(zhǔn)方法,與現(xiàn)有技術(shù)相比解決了遞歸級(jí)聯(lián)配準(zhǔn)策略中存在的信息泄露問題以及one?shot配準(zhǔn)策略中對(duì)位移場(chǎng)的平滑約束導(dǎo)致配準(zhǔn)精度受限的缺陷。本發(fā)明包括以下步驟:三維生物醫(yī)學(xué)圖像數(shù)據(jù)集的獲取和預(yù)處理;配準(zhǔn)模型的構(gòu)建;配準(zhǔn)模型的訓(xùn)練;待配準(zhǔn)圖像與模板圖像的獲取與預(yù)處理;三維生物醫(yī)學(xué)圖像配準(zhǔn)結(jié)果的獲得。本發(fā)明通過將前次配準(zhǔn)結(jié)果遞歸輸入網(wǎng)絡(luò)進(jìn)行自校準(zhǔn)優(yōu)化并記錄與整合每次遞歸產(chǎn)生的位移場(chǎng),將空間中的大位移通過遞歸網(wǎng)絡(luò)分段完成從而在無信息泄露的前提下提高了三維生物醫(yī)學(xué)圖像的配準(zhǔn)精度,并有效的節(jié)省了GPU資源。

本發(fā)明授權(quán)一種基于深度自校準(zhǔn)的遞進(jìn)式三維生物醫(yī)學(xué)圖像配準(zhǔn)方法在權(quán)利要求書中公布了:1.一種基于深度自校準(zhǔn)的遞進(jìn)式三維生物醫(yī)學(xué)圖像配準(zhǔn)方法,其特征在于,包括以下步驟:11三維生物醫(yī)學(xué)圖像數(shù)據(jù)集的獲取和預(yù)處理:獲取單模態(tài)三維生物醫(yī)學(xué)圖像數(shù)據(jù)集,將其所有圖像的尺寸采樣到相同大小、像素值歸一化到0-255,并將所有圖像仿射預(yù)配準(zhǔn)到同一個(gè)腦模板上,作為三維生物醫(yī)學(xué)圖像訓(xùn)練集;12配準(zhǔn)模型的構(gòu)建:利用python語言分別搭建低尺度卷積神經(jīng)網(wǎng)絡(luò)與原尺度卷積神經(jīng)網(wǎng)絡(luò)并將二者建立級(jí)聯(lián)作為配準(zhǔn)模型,設(shè)定低尺度卷積神經(jīng)網(wǎng)絡(luò)與原尺度卷積神經(jīng)網(wǎng)絡(luò)的損失函數(shù);13配準(zhǔn)模型的訓(xùn)練:設(shè)定配準(zhǔn)模型訓(xùn)練的迭代次數(shù)以及分別設(shè)定低尺度卷積神經(jīng)網(wǎng)絡(luò)與原尺度卷積神經(jīng)網(wǎng)絡(luò)的遞歸次數(shù),利用三維生物醫(yī)學(xué)圖像訓(xùn)練集對(duì)配準(zhǔn)模型進(jìn)行訓(xùn)練;所述配準(zhǔn)模型的訓(xùn)練包括以下步驟:131設(shè)定模型訓(xùn)練的迭代次數(shù)為N_iter,即每次迭代都從三維生物醫(yī)學(xué)圖像訓(xùn)練集中隨機(jī)選取兩張圖像作為待配準(zhǔn)圖像與目標(biāo)圖像輸入到配準(zhǔn)模型中進(jìn)行訓(xùn)練;132設(shè)定低尺度訓(xùn)練遞歸的次數(shù)為N_low,N_low=0,原尺度訓(xùn)練遞歸的次數(shù)為N_original、N_original=0;33低尺度網(wǎng)絡(luò)第一次遞歸:將待配準(zhǔn)圖像、目標(biāo)圖像下采樣兩倍后進(jìn)行級(jí)聯(lián)輸入低尺度卷積神經(jīng)網(wǎng)絡(luò),得到第一次輸出的位移場(chǎng),并保存第一次輸出的位移場(chǎng);134低尺度網(wǎng)絡(luò)第二次遞歸,假設(shè)設(shè)定的N_low1:將第一次的配準(zhǔn)結(jié)果作為新的待配準(zhǔn)圖像與原目標(biāo)圖像再次級(jí)聯(lián)輸入到低尺度卷積神經(jīng)網(wǎng)絡(luò)中,得到第二次輸出的位移場(chǎng),保存第二次輸出的位移場(chǎng);135利用位移場(chǎng)整合方法,將保存卷積神經(jīng)網(wǎng)絡(luò)模型第二次輸出的位移場(chǎng)與第一次輸出的位移場(chǎng)整合為一個(gè)總位移場(chǎng),利用總位移場(chǎng)將原始待配準(zhǔn)圖像經(jīng)過一次形變插值操作得到第二次遞歸的配準(zhǔn)結(jié)果,將此配準(zhǔn)結(jié)果作為新的待配準(zhǔn)圖像再次與目標(biāo)圖像級(jí)聯(lián)輸入卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行優(yōu)化;若設(shè)定的N_low2,則在遞歸二次的基礎(chǔ)上重復(fù)134-135步驟,即將每次遞歸輸出的位移場(chǎng)與之前輸出的位移場(chǎng)進(jìn)行整合通過一次形變插值得到本次的配準(zhǔn)結(jié)果,直至遞歸N_low次;136保存低尺度遞歸N_low次得到的總位移場(chǎng)作為先驗(yàn)信息與此次迭代訓(xùn)練未降采樣的待配準(zhǔn)圖像與目標(biāo)圖像一并輸入原尺度卷積神經(jīng)網(wǎng)絡(luò);137利用低尺度遞歸N_low次得到的總位移場(chǎng)上采樣兩倍并數(shù)值擴(kuò)大兩倍得到的新位移場(chǎng)形變插值原尺寸的原待配準(zhǔn)圖像進(jìn)行預(yù)形變,并將經(jīng)過預(yù)形變的圖像作為原尺寸的初次待配準(zhǔn)圖像;138原尺度網(wǎng)絡(luò)第一次遞歸:將經(jīng)過預(yù)形變的原尺度待配準(zhǔn)圖像與原尺寸的原目標(biāo)圖像進(jìn)行級(jí)聯(lián)輸入到原尺度的卷積神經(jīng)網(wǎng)絡(luò)模型,輸出原尺度下的第一次位移場(chǎng),并保存第一次輸出的位移場(chǎng);139原尺度網(wǎng)絡(luò)第二次遞歸,假設(shè)設(shè)定的N_original1:將第一次的配準(zhǔn)結(jié)果作為新的待配準(zhǔn)圖像與原目標(biāo)圖像再次級(jí)聯(lián)輸入到卷積神經(jīng)網(wǎng)絡(luò)模型中,得到第二次輸出的位移場(chǎng),保存第二次輸出的位移場(chǎng);1310利用位移場(chǎng)整合方法,將保存卷積神經(jīng)網(wǎng)絡(luò)第二次輸出的位移場(chǎng)與第一次輸出的位移場(chǎng)整合為一個(gè)總位移場(chǎng),利用總位移場(chǎng)將原始待配準(zhǔn)圖像經(jīng)過一次形變插值操作得到第二次遞歸的配準(zhǔn)結(jié)果,將此配準(zhǔn)結(jié)果作為新的待配準(zhǔn)圖像再次與目標(biāo)圖像級(jí)聯(lián)輸入卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行優(yōu)化;若設(shè)定的N_original2,則在遞歸二次的基礎(chǔ)上重復(fù)139-1310步驟,即將每次遞歸輸出的位移場(chǎng)與之前輸出的位移場(chǎng)進(jìn)行整合通過一次形變插值得到本次的配準(zhǔn)結(jié)果,直至遞歸N_original次;311在三維生物醫(yī)學(xué)圖像訓(xùn)練集中再隨機(jī)選取兩張圖像作為待配準(zhǔn)圖像與目標(biāo)圖像,重復(fù)131-1310步驟,直至配準(zhǔn)模型訓(xùn)練結(jié)束;14待配準(zhǔn)圖像與模板圖像的獲取與預(yù)處理:獲取單模態(tài)三維生物醫(yī)學(xué)待配準(zhǔn)圖像與模板圖像,并進(jìn)行預(yù)處理;15三維生物醫(yī)學(xué)圖像配準(zhǔn)結(jié)果的獲得:將預(yù)處理后的待配準(zhǔn)圖像對(duì)輸入訓(xùn)練后的配準(zhǔn)模型,得到配準(zhǔn)后的結(jié)果。

如需購(gòu)買、轉(zhuǎn)讓、實(shí)施、許可或投資類似專利技術(shù),可聯(lián)系本專利的申請(qǐng)人或?qū)@麢?quán)人安徽大學(xué),其通訊地址為:230601 安徽省合肥市經(jīng)濟(jì)技術(shù)開發(fā)區(qū)九龍路111號(hào);或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。

免責(zé)聲明
1、本報(bào)告根據(jù)公開、合法渠道獲得相關(guān)數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準(zhǔn)確性。
2、報(bào)告中的分析和結(jié)論僅反映本公司于發(fā)布本報(bào)告當(dāng)日的職業(yè)理解,僅供參考使用,不能作為本公司承擔(dān)任何法律責(zé)任的依據(jù)或者憑證。
主站蜘蛛池模板: 福鼎市| 南江县| 海兴县| 出国| 大洼县| 贵德县| 资中县| 河北区| 北流市| 海门市| 瓦房店市| 黑龙江省| 恩施市| 黄浦区| 盘锦市| 天水市| 乐亭县| 贵阳市| 涪陵区| 湘乡市| 灵宝市| 云和县| 庆安县| 高碑店市| 武川县| 海安县| 吉隆县| 卢氏县| 山西省| 高要市| 闽侯县| 靖宇县| 融水| 石渠县| 微山县| 五台县| 壤塘县| 北流市| 南阳市| 龙陵县| 内丘县|