恭喜北京航空航天大學;北京大學第三醫院(北京大學第三臨床醫學院)劉曦獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!
龍圖騰網恭喜北京航空航天大學;北京大學第三醫院(北京大學第三臨床醫學院)申請的專利一種基于深度學習的多模態圖像合成方法與系統獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN117474784B 。
龍圖騰網通過國家知識產權局官網在2025-04-01發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202311544597.1,技術領域涉及:G06T5/50;該發明授權一種基于深度學習的多模態圖像合成方法與系統是由劉曦;耿立升;楊瑞杰設計研發完成,并于2023-11-20向國家知識產權局提交的專利申請。
本一種基于深度學習的多模態圖像合成方法與系統在說明書摘要公布了:本發明涉及基于深度學習的多模態圖像合成方法,該方法包括:S1、數據收集:收集宮頸癌患者的CBCT圖像和對應的計劃CT圖像;S2、圖像預處理:將計劃CT圖像配準到CBCT圖像,并將非解剖結構去除;鄰域插值并裁剪圖像至同一尺寸;調整窗寬,并將CT值轉化為線性衰減系數;S3、構建深度學習模型框架;S4、分層訓練:采用分層訓練策略訓練所述的深度學習模型,首先訓練粗分辨率的殘差U?Net;然后以前一階段為起點,繼續用更高分辨率的圖像訓練所述的深度學習模型,以幫助深度學習模型學習更復雜的圖像特征并捕獲更精細的圖像細節;S5、模型測試驗證:使用分層訓練好的深度學習模型直接從原始CBCT圖像生成偽CT圖像。
本發明授權一種基于深度學習的多模態圖像合成方法與系統在權利要求書中公布了:1.一種基于深度學習的多模態圖像合成方法,其特征在于,所述的基于深度學習的多模態圖像合成方法包括以下步驟:S1、數據收集:收集宮頸癌患者的CBCT圖像和對應的計劃CT圖像;S2、圖像預處理:將計劃CT圖像配準到CBCT圖像,并將非解剖結構去除;鄰域插值并裁剪圖像至同一尺寸;調整窗寬,并將CT值轉化為線性衰減系數;S3、構建深度學習模型框架:所述的深度學習模型基于編碼器-解碼器的架構,采用U-Net作為基礎模型,并將殘差學習集成到基礎模型中;該深度學習模型由1個常規卷積塊、4個殘差卷積塊、4個上采樣殘差卷積塊和1個輸出層組成;S4、分層訓練:采用分層訓練策略訓練所述的深度學習模型,首先訓練粗分辨率的殘差U-Net,旨在訓練所述的深度學習模型學習基本的圖像內容表示和普通的圖像特征;然后以前一階段為起點,繼續用更高分辨率的圖像訓練所述的深度學習模型,以幫助深度學習模型學習更復雜的圖像特征并捕獲更精細的圖像細節;總訓練層次設置為3;S5、模型測試驗證:使用分層訓練好的深度學習模型直接從原始CBCT圖像生成偽CT圖像;在步驟S4中,使用不同的損失函數組成完整的損失函數對深度學習模型進行訓練;所述的不同的損失函數包括加權平均絕對誤差、多尺度結構相似性損失和梯度差異損失;加權平均絕對誤差的計算公式如下: ;其中,N表示高CT值區域的像素總數;M表示除了高CT值區域以外的區域的像素總數;y高值,i是真實圖像的高CT值區域中的第i個像素的值;?高值,i是輸出圖像的高CT值區域中的第i個像素的值;y其余,i表示真實圖像的除高CT值區域以外的其余區域中的第i個像素的值;?其余,i表示輸出圖像的除高CT值區域以外的其余區域中的第i個像素的值;區分高CT值區域和其余區域的分界閾值為500HU;ω為常數,設置為5;多尺度結構相似性損失計算公式如下: ;其中K表示總的計算尺度數;SSIMi表示第i個尺度下的結構相似性指數;表示第i個尺度的權重,用于加權平均不同尺度的結構相似性指數;梯度差異損失,用于在優化過程中保持原始圖像的強梯度并增強組織的邊緣銳度,梯度差異損失的定義如下: ;其中Y表示真實圖像,?表示合成的偽CT圖像;x表示沿x方向,y表示沿y方向;表示梯度運算符表示L2范數;完整的損失函數如下: 其中,分別設置為1,3和2。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人北京航空航天大學;北京大學第三醫院(北京大學第三臨床醫學院),其通訊地址為:100191 北京市海淀區學院路37號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。