恭喜美眾(天津)科技有限公司車宏圖獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!
龍圖騰網恭喜美眾(天津)科技有限公司申請的專利一種融合Transformer架構與LoRA訓練的虛擬換發型方法及系統獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN119251344B 。
龍圖騰網通過國家知識產權局官網在2025-05-02發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202411764605.8,技術領域涉及:G06T11/00;該發明授權一種融合Transformer架構與LoRA訓練的虛擬換發型方法及系統是由車宏圖設計研發完成,并于2024-12-04向國家知識產權局提交的專利申請。
本一種融合Transformer架構與LoRA訓練的虛擬換發型方法及系統在說明書摘要公布了:本發明公開了一種融合Transformer架構與LoRA訓練的虛擬換發型方法及系統,涉及虛擬換發型技術領域。本發明的技術要點包括:獲取有頭發的源圖片和發型參考圖片;提取發型參考圖片的發型描述詞;對源圖片和發型參考圖片進行處理,利用發型生成模型生成第一階段換發型圖片;對第一階段換發型圖片和源圖片進行處理,獲取遮擋發型圖片;對遮擋發型圖片和發型參考圖片的發型描述詞進行處理,利用發型重繪DIT模型生成最終的換發型圖片;其中發型重繪DIT模型包含多個串聯的基于Transformer架構的擴散模型,且引入了針對每一款發型的LoRA訓練,使得在生成比較復雜的發型時更加精細。本發明為用戶提供了一種高效便捷的虛擬換發型方案,同時也為美發行業帶來一種創新的服務模式。
本發明授權一種融合Transformer架構與LoRA訓練的虛擬換發型方法及系統在權利要求書中公布了:1.一種融合Transformer架構與LoRA訓練的虛擬換發型方法,其特征在于,包括:獲取有頭發的源圖片和發型參考圖片;提取發型參考圖片的發型描述詞;對源圖片和發型參考圖片進行處理,利用發型生成模型生成第一階段換發型圖片;所述發型生成模型包含多個串聯的基于Transformer架構的擴散模型;對第一階段換發型圖片和源圖片進行處理,獲取遮擋發型圖片;對遮擋發型圖片和發型參考圖片的發型描述詞進行處理,利用發型重繪DIT模型生成最終的換發型圖片;其中,所述發型重繪DIT模型包含多個串聯的基于Transformer架構的擴散模型;包括:對發型描述詞進行文本編碼,獲得文本編碼;將遮擋發型圖片輸入到VAE編碼器中,獲得重繪背景隱編碼;生成隱空間隨機高斯噪聲,將重繪背景隱編碼、隱空間隨機高斯噪聲和擴張之后的發型二值掩碼沿通道進行拼接,得到多通道輸入矩陣;將多通道輸入矩陣進行分塊化處理,再經過線性層處理,并將處理得到的特征圖和文本編碼一同輸入到多個串聯的基于Transformer架構的擴散模型中進行循環去噪;得到的輸出經過多層感知機處理后,再進行反分塊化處理還原回輸入的遮擋發型圖片大小;將反分塊化處理后的結果輸入VAE解碼器中,獲得最終的換發型圖片;其中,所述發型生成模型和所述發型重繪DIT模型均是預先訓練好的模型,所述發型生成模型訓練過程中的損失函數如下所示: ;式中,表示高斯噪聲;表示VAE編碼器;表示發型生成模型中基于Transformer架構的擴散模型;表示發型參考網絡;分別表示發型參考圖片和禿頂圖片;表示隱空間編碼;t表示時間步;表示分布下期望;在所述發型重繪DIT模型的推理過程中利用訓練好的低秩適應微調模型對發型重繪DIT模型中基于Transformer架構的擴散模型的權重參數進行微調,微調公式為: ;式中,表示微調后的權重;表示基于Transformer架構的擴散模型的原始權重參數,表示低秩適應微調模型的參數,為分解得到的兩個矩陣;所述低秩適應微調模型訓練過程中的損失函數如下所示: ;式中,表示低秩適應微調模型中基于Transformer架構的擴散模型;表示文本編碼;表示分布下期望。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人美眾(天津)科技有限公司,其通訊地址為:301727 天津市武清區曹子里鎮花城中路55號昊宇商務中心116室-8(集中辦公區);或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。