恭喜浙江大學何賽靈獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!
龍圖騰網恭喜浙江大學申請的專利基于殘差卷積神經網絡的LDCT圖像超分辨增強方法及裝置獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN114255168B 。
龍圖騰網通過國家知識產權局官網在2025-05-13發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202111510075.0,技術領域涉及:G06F17/40;該發明授權基于殘差卷積神經網絡的LDCT圖像超分辨增強方法及裝置是由何賽靈;公大偉設計研發完成,并于2021-12-10向國家知識產權局提交的專利申請。
本基于殘差卷積神經網絡的LDCT圖像超分辨增強方法及裝置在說明書摘要公布了:本發明公開了基于殘差卷積神經網絡的LDCT圖像超分辨增強方法及裝置。該方法首先設計了一種改進混合級聯任務卷積神經網絡(以U?Net為例)的網絡結構,接著按照該設計網絡結構,提供大量LDCT低分辨率圖像與真值高分辨率圖像進行網絡訓練,網絡訓練過程由改進混合級聯任務U?Net進行特征提取、誤差計算、誤差反向傳播構成,誤差值進行反向傳播。指定學習率大小為0.0001,優化器為ADAM,學習率采用階段下降策略,不斷減小超分辨率CT圖像與真值高分辨率圖像之間的損失。該方法能適應于醫學領域一次性對胸部LDCT掃描實現三大疾病(肺結節、慢阻肺、冠心病)及脊柱的篩查、檢測與分析,而不需要對空間分辨率要求更高的胸部某局部進行額外的高精度CT掃描。
本發明授權基于殘差卷積神經網絡的LDCT圖像超分辨增強方法及裝置在權利要求書中公布了:1.一種基于殘差卷積神經網絡的LDCT圖像超分辨增強方法,其特征在于,包括以下步驟:步驟1)制作訓練集與測試集;步驟2)LDCT初始圖像預處理;步驟3)訓練是否的判斷,如果是則進入步驟4),如果否則進入步驟8);步驟4)改進混合級聯任務U-Net進行特征提取;步驟5)誤差計算;步驟6)誤差反向傳播;步驟7)誤差是否滿足要求判斷,如果是則進入步驟8),如果否則返回到步驟4);步驟8)輸出圖像超分辨模型;步驟9)生成超分辨率CT圖像;步驟10)結束;所述的步驟4)改進混合級聯任務U-Net進行特征提取,構建空間上下文分支網絡的步驟如下:步驟4-1-1)將原始特征圖輸入到卷積核大小為3×3,輸入輸出通道數為64,步長為2,填充為1的卷積層,經過3層這樣的卷積層后,每層輸出相對于輸入特征圖分辨率減少一半的特征圖;4個特征圖分別經過卷積核大小為1×1,輸入輸出通道數為64的卷積層后,低分辨率的特征圖分別經過卷積核大小為2×2、4×4、8×8,輸入輸出通道數為64,步長為2、4、8的反卷積層進行上采樣,輸出與原始特征圖分辨率大小相同的特征圖;步驟4-1-2)將得到的4個分辨率大小相同的特征圖進行元素級相加輸出一個特征圖,隨后經過4個深度可分離卷積提取特征得到特征圖;每個深度可分離卷積由卷積層大小為3×3,輸入輸出通道數為64,組數為64,填充為1的卷積層和卷積層大小為1×1,輸入輸出通道數為64的點卷積層構成;步驟4-1-3)將得到的特征圖輸入卷積核大小為1×1,輸入輸出通道數為64的卷積層后,得到空間上下文分支特征圖;所述的步驟4)改進混合級聯任務U-Net進行特征提取,構建傅里葉通道注意力殘差模塊的步驟如下:步驟4-2-1)原始特征圖經過2個深度可分離卷積層與Swish激活層得到新的特征圖;其中深度可分離卷積層由卷積層大小為3×3,輸入輸出通道數為64,組數為64,填充為1的卷積層和卷積層大小為1×1,輸入輸出通道數為64的點卷積層構成;步驟4-2-2)新的特征圖輸入到傅里葉注意力模塊得到注意力特征,傅里葉注意力模塊內部依次為快速傅里葉變換,下采樣層,全局平均池化層,上采樣層,深度可分離卷積層,Sigmoid層;其中下采樣層包含卷積核大小為1×1,輸入通道數為64,輸出通道數為16的卷積層和Swish激活函數層,上采樣層包含卷積核大小為1×1,輸入通道數為16,輸出通道數為64的卷積層和Swish激活函數層,得到的64個特征圖經過Sigmoid層計算每個通道的注意力值,將注意力值與分別與輸入的特征圖的每個通道相乘得到注意力特征圖;步驟4-2-3)將得到的注意力特征圖作為殘差,與原始特征圖進行元素級相加得到注意力殘差特征圖;所述的步驟4)改進混合級聯任務U-Net進行特征提取,構建基于傅里葉通道注意力殘差模塊的U-Net網絡結構的步驟如下:步驟4-3-1)基于傅里葉通道注意力殘差模塊的U-Net網絡結構包含2個下采樣層與2個上采樣層;原始特征圖在下采樣層由傅里葉通道注意力殘差模塊提取特征,然后經過卷積核大小為3×3,輸入通道數為64,輸出通道數為128,步長為2,填充為1的卷積層后,經過Swish激活函數層與深度可分離卷積層,得到下采樣特征圖,其中深度可分離卷積層由卷積層大小為3×3,輸入輸出通道數為128,組數為128,填充為1的卷積層和卷積層大小為1×1,輸入輸出通道數為128的點卷積層構成;步驟4-3-2)下采樣特征圖再進行下采樣操作,由傅里葉通道注意力殘差模塊提取特征,然后經過卷積核大小為3×3,輸入通道數為128,輸出通道數為256,步長為2,填充為1的卷積層后,經過Swish激活函數層與深度可分離卷積層,得到新的下采樣特征圖;其中深度可分離卷積層由卷積層大小為3×3,輸入輸出通道數為256,組數為256,填充為1的卷積層和卷積層大小為1×1,輸入輸出通道數為256的點卷積層構成;步驟4-3-3)新的下采樣特征圖依次經過2個上采樣層提高特征圖分辨率;上采樣由傅里葉通道注意力殘差模塊提取特征后,經過卷積核大小為3×3,輸入通道數為256,輸出通道數為1024的卷積層,然后經過PixelShuffle層將通道數轉換為256,同時特征圖的長寬值都變為原來的2倍;然后經過Swish激活函數層,再經過卷積核大小為3×3,輸入通道數為256,輸出通道數為128的卷積層后,與原始特征圖第一次下采樣層后得到的128個特征圖進行拼接,得到256個通道的特征圖;步驟4-3-4)128個通道的特征圖由傅里葉通道注意力殘差模塊提取特征后,經過卷積核大小為3×3,輸入通道數為256,輸出通道數為1024的卷積層,然后經過PixelShuffle層將通道數轉換為256,同時特征圖的長寬值都變為原來的2倍;然后經過Swish激活函數層,再經過卷積核大小為3×3,輸入通道數為256,輸出通道數為64的卷積層后,與64個通道的原始特征圖進行拼接,得到128個通道的特征圖后;再經過卷積核大小為3×3,輸入通道數為128,輸出通道數為64的卷積層,輸出64個通道的U-Net特征圖;所述的步驟4)改進混合級聯任務U-Net進行特征提取,構建基于U-Net的特征精煉模塊的步驟如下:步驟4-4)基于U-Net的特征精煉模塊內部依次為通道級拼接、卷積層和U-Net;其中通道級拼接將64個通道的U-Net特征圖與64個通道的原始特征圖進行拼接,得到128個通道的特征圖;然后經過卷積核大小為3×3,輸入通道數為128,輸出通道數為64的卷積層,再經過基于傅里葉通道注意力殘差模塊的U-Net網絡得到精煉特征圖;所述的步驟4)改進混合級聯任務U-Net進行特征提取,構建基于改進混合級聯任務的網絡結構步驟如下:步驟4-5)U-Net特征圖依次輸入3個特征精煉模塊得到3個不同級別的精煉特征圖,特征圖由粗糙到精細;同時原始特征圖分別輸入到3個特征精煉模塊進行通道級拼接;同時空間上下文特征圖與3個不同級別的精煉特征圖輸入到像素分支網絡中生成超分辨率CT圖像,其中像素分支網絡包含元素級相加,4個連續的深度可分離卷積層和重建層;像素分支網絡是一個殘差網絡,輸入為空間上下文特征圖、精煉特征圖和上一個像素分支網絡的殘差輸出特診圖;輸入經過元素級相加得到64個特征圖,然后經過4個卷積層大小為3×3,輸入輸出通道數為64,組數為64,填充為1的卷積層和卷積層大小為1×1,輸入輸出通道數為64的點卷積層,得到帶重建特征圖;帶重建特征圖作為殘差輸入到下一個像素分支網絡,同時經過卷積層大小為3×3,輸入通道數為64,輸出通道數1的卷積層后,經過反標準化得到超分辨率CT圖像;3個像素分支輸出3個不同精細程度的超分辨率CT圖像;所述的步驟5)誤差計算的步驟如下:步驟5)真值高分辨率圖像經過雙三次下采樣4倍與雙三次上采樣4倍后與第一個超分辨率CT圖像計算均方誤差與結構相似性誤差作為第一階段誤差,其中結構相似性誤差乘以系數0.1;真值高分辨率圖像經過雙三次下采樣2倍與雙三次上采2倍后與第二個超分辨率CT圖像計算均方誤差與結構相似性誤差作為第二階段誤差,其中結構相似性誤差乘以系數0.1;真值高分辨率圖像與第三個超分辨率CT圖像計算均方誤差與結構相似性誤差作為第三階段誤差,其中結構相似性誤差乘以系數0.1;前兩個階段的誤差乘以0.3并與最后階段的誤差相加得到最終的誤差值;所述的步驟6)誤差反向傳播的步驟如下:步驟6)誤差值進行反向傳播,指定學習率大小為0.0001,優化器為ADAM,學習率采用階段下降策略,不斷減小超分辨率CT圖像與真值高分辨率圖像之間的損失。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人浙江大學,其通訊地址為:310058 浙江省杭州市西湖區余杭塘路866號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。