国产精品天干天干在线播放,大尺度揉捏胸床戏视频,樱花草www日本在线观看,狠狠躁夜夜躁人人爽天天天天97

Document
拖動(dòng)滑塊完成拼圖
個(gè)人中心

預(yù)訂訂單
服務(wù)訂單
發(fā)布專利 發(fā)布成果 人才入駐 發(fā)布商標(biāo) 發(fā)布需求

在線咨詢

聯(lián)系我們

龍圖騰公眾號(hào)
首頁(yè) 專利交易 科技果 科技人才 科技服務(wù) 國(guó)際服務(wù) 商標(biāo)交易 會(huì)員權(quán)益 IP管家助手 需求市場(chǎng) 關(guān)于龍圖騰
 /  免費(fèi)注冊(cè)
到頂部 到底部
清空 搜索
  • 我要求購(gòu)
  • 我要出售
當(dāng)前位置 : 首頁(yè) > 專利喜報(bào) > 恭喜杭州電子科技大學(xué)匡振中獲國(guó)家專利權(quán)

恭喜杭州電子科技大學(xué)匡振中獲國(guó)家專利權(quán)

買專利賣專利找龍圖騰,真高效! 查專利查商標(biāo)用IPTOP,全免費(fèi)!專利年費(fèi)監(jiān)控用IP管家,真方便!

龍圖騰網(wǎng)恭喜杭州電子科技大學(xué)申請(qǐng)的專利一種可用性一致的差分隱私人體匿名合成方法獲國(guó)家發(fā)明授權(quán)專利權(quán),本發(fā)明授權(quán)專利權(quán)由國(guó)家知識(shí)產(chǎn)權(quán)局授予,授權(quán)公告號(hào)為:CN114332945B

龍圖騰網(wǎng)通過(guò)國(guó)家知識(shí)產(chǎn)權(quán)局官網(wǎng)在2025-05-30發(fā)布的發(fā)明授權(quán)授權(quán)公告中獲悉:該發(fā)明授權(quán)的專利申請(qǐng)?zhí)?專利號(hào)為:202111670708.4,技術(shù)領(lǐng)域涉及:G06T11/60;該發(fā)明授權(quán)一種可用性一致的差分隱私人體匿名合成方法是由匡振中;滕龍斌;李忠金;俞俊設(shè)計(jì)研發(fā)完成,并于2021-12-31向國(guó)家知識(shí)產(chǎn)權(quán)局提交的專利申請(qǐng)。

一種可用性一致的差分隱私人體匿名合成方法在說(shuō)明書摘要公布了:本發(fā)明公開了一種可用性一致的差分隱私人體匿名合成方法。本發(fā)明特征在于將源人體數(shù)據(jù)集通過(guò)委派人體數(shù)據(jù)集與可用性保持姿勢(shì)轉(zhuǎn)換網(wǎng)絡(luò)得到匿名人體數(shù)據(jù)集;具體步驟:步驟1:預(yù)處理;步驟2:分配委派身份;步驟3:構(gòu)建可用性保持姿勢(shì)轉(zhuǎn)換網(wǎng)絡(luò);步驟4:訓(xùn)練約束;步驟5:模型訓(xùn)練及測(cè)試。本發(fā)明可以生成新的匿名人體圖像,避免隱私數(shù)據(jù)被收集以及濫用,而且匿名圖像可以保持原始數(shù)據(jù)的可用性。此外,本發(fā)明可以在不同的隱私級(jí)別下生成自然的圖像,并保持人體隱私以及數(shù)據(jù)可用性。

本發(fā)明授權(quán)一種可用性一致的差分隱私人體匿名合成方法在權(quán)利要求書中公布了:1.一種可用性一致的差分隱私人體匿名合成方法,其特征在于將源人體數(shù)據(jù)集通過(guò)委派人體數(shù)據(jù)集與可用性保持姿勢(shì)轉(zhuǎn)換網(wǎng)絡(luò)得到匿名人體數(shù)據(jù)集具體實(shí)現(xiàn)步驟如下:步驟1:預(yù)處理;步驟2:分配委派身份;步驟3:構(gòu)建可用性保持姿勢(shì)轉(zhuǎn)換網(wǎng)絡(luò);步驟4:訓(xùn)練約束;步驟5:模型訓(xùn)練及測(cè)試;步驟1預(yù)處理,具體步驟如下:1-1.委派人體數(shù)據(jù)集采集,使用公開數(shù)據(jù)集或合成的數(shù)據(jù)集作為委派人體數(shù)據(jù)集1-2.圖像標(biāo)記,對(duì)委派人體數(shù)據(jù)集中的人體圖像標(biāo)記所需的非敏感屬性;1-3.使用姿態(tài)解析器解析委派人體數(shù)據(jù)集中的人體圖像,得到人體關(guān)鍵點(diǎn);1-4.使用實(shí)例分割模型對(duì)人體圖像分割,得到人體區(qū)域掩碼圖像;步驟2分配委派身份,具體步驟如下:2-1.構(gòu)建屬性一致候選集;采用預(yù)訓(xùn)練的屬性分類器對(duì)原始人體圖像Ix的屬性Ax進(jìn)行預(yù)測(cè);屬性一致候選集Sx從委派人體數(shù)據(jù)集中挑選屬性與Ax一致的委派身份構(gòu)建得到,挑選的屬性均為非敏感的,且通過(guò)最大化屬性一致挑選方法進(jìn)行挑選;采用預(yù)訓(xùn)練的屬性分類器對(duì)源人體數(shù)據(jù)集中原始圖像Ix的屬性Ax進(jìn)行預(yù)測(cè);從委派人體數(shù)據(jù)集中挑選屬性與非敏感屬性Ax一致的圖像,從而構(gòu)建得到屬性一致候選集Sx;其中屬性分類器在原始圖像Ix上第i個(gè)非敏感屬性的預(yù)測(cè)結(jié)果為表示相應(yīng)的非敏感屬性的softmax分?jǐn)?shù),m表示對(duì)應(yīng)的非敏感屬性數(shù)量;令當(dāng)ρx,d=m時(shí)委派人體圖像sd和原始圖像Ix為全匹配,其中為委派人體圖像sd的第i個(gè)屬性標(biāo)簽;當(dāng)全匹配委派人體圖像數(shù)量n小于預(yù)設(shè)的閾值t時(shí),t-n個(gè)額外的圖像將會(huì)被添加到屬性一致候選集Sx,其規(guī)則為從委派人體數(shù)據(jù)集挑選最大化屬性一致性的委派人體圖像sd,屬性一致性表示為2-2.差分隱私身份委派為了找到合適的委派人體圖像sd,引入圖像級(jí)的差分隨機(jī)身份映射φ,對(duì)于隨機(jī)機(jī)制K,如果其對(duì)于任意的鄰接映射φ1和φ2以及所有的可能輸出O,滿足:Pr[Kφ1∈O]≤e∈Pr[Kφ2∈O]則稱隨機(jī)機(jī)制K滿足∈-差分隱私;采用指數(shù)機(jī)制實(shí)現(xiàn)∈-差分隱私,其定義如下:當(dāng)隨機(jī)算法Kφ,u,R以正比于exp∈uφ,r2Δu的概率挑選并輸出一個(gè)元素則K滿足∈-差分隱私;其中表示從源人體數(shù)據(jù)集第x張圖像映射到委派人體數(shù)據(jù)集第d張圖像的可用性,k表示源人體數(shù)據(jù)集第x張圖像在委派人體數(shù)據(jù)集上所有可能的映射圖像的索引,并且ξk,x=|fsk-fIx|2,f是預(yù)訓(xùn)練的人體特征提取器,sk是委派人體數(shù)據(jù)集第k張圖像;最終以的概率執(zhí)行隨機(jī)采樣挑選身份委派;由于Pr[φ|x→d]正比于exp∈uφ,r2Δu,所以身份委派方式滿足指數(shù)機(jī)制,即滿足∈-差分隱私;步驟3構(gòu)建可用性保持姿勢(shì)轉(zhuǎn)換網(wǎng)絡(luò),具體步驟如下:對(duì)于給定的原始人體圖像首先采用步驟2分配委派身份對(duì)應(yīng)的委派人體圖像然后使用UPT網(wǎng)絡(luò)替換原始人體圖像Ix中的人體,得到匿名目標(biāo)圖像UPT網(wǎng)絡(luò)如下所示:3-1.構(gòu)建生成器;生成器由數(shù)個(gè)編碼器和一個(gè)解碼器構(gòu)成,包括編碼器Ex、Ep、Ea、Ef和一個(gè)解碼器其中Ex和Ep由3個(gè)卷積層構(gòu)成,Ef由2個(gè)卷積層構(gòu)成,Ea由7個(gè)全連接層構(gòu)成,由漸進(jìn)式姿態(tài)遷移模型構(gòu)成;3-2.構(gòu)建鑒別器;UPT網(wǎng)絡(luò)采用兩個(gè)鑒別器Dp和Dt對(duì)抗性的訓(xùn)練生成器;鑒別器Dp重點(diǎn)在于判斷目標(biāo)圖像的姿勢(shì)是否對(duì)應(yīng)到源人體的姿勢(shì),采用多個(gè)卷積層和殘差塊構(gòu)成;鑒別器Dt使用和編碼器Ea一樣的7層全連接層來(lái)判別生成人體圖像的真實(shí)性和屬性一致性;3-3.背景恢復(fù)模塊;將原始人體圖像Ix的背景貼到生成人體圖像上再輸入到鑒別器Dp和Dt中,通過(guò)這種方式能夠很好的恢復(fù)原始背景;所述的生成器有六個(gè)輸入:委派人體圖像sd、Ix的關(guān)鍵點(diǎn)熱力圖Px、sd的關(guān)鍵點(diǎn)熱力圖非敏感屬性Ax、背景Bx以及人體區(qū)域掩碼Mx;Px和在堆疊輸入Ep輸出姿勢(shì)特征Ep,非敏感屬性Ax輸入Ea輸出屬性特征Fa,Bx和sd再堆疊輸入Ex輸出圖像特征Fx,屬性特征Fa和圖像特征Fx堆疊輸入Ef輸出融合特征Ff,姿勢(shì)特征Fp和融合特征Ff堆疊輸入得到I′x,最終人體區(qū)域掩碼Mx、背景Bx和I′x輸入背景恢復(fù)模塊得到匿名圖像Tx;所述的鑒別器Dt有著2個(gè)輸入:匿名圖像Tx和非敏感屬性Ax;鑒別器Dt首先使用7個(gè)全連接層編碼Ax,然后使用2個(gè)卷積層編碼Tx,最后將Ax與Tx的編碼結(jié)果堆疊輸入2個(gè)卷積層、3個(gè)殘差塊以及1個(gè)sigmoid層輸出得到判別分?jǐn)?shù)鑒別器Dp有兩個(gè)輸入:源圖像Ix的關(guān)鍵點(diǎn)熱力圖Px和匿名圖像Tx;Px和Tx堆疊輸入2個(gè)卷積層、3個(gè)ResNet殘差塊以及1個(gè)sigmoid層輸出得到判別分?jǐn)?shù)步驟4訓(xùn)練約束,具體步驟如下:4-1.UPT的完整目標(biāo)函數(shù)定義為: 其中LGD是生成器和鑒別器間的對(duì)抗損失,Ls是身份交換損失,Lr是重構(gòu)損失,λ1、λ2和λ3是平衡不同損失重要性的參數(shù);4-2.對(duì)抗損失LGD;對(duì)抗損失表述如下: 其中Ax和Px是從真實(shí)數(shù)據(jù)中采樣得到的屬性與姿態(tài)熱力圖,Mx是原始人體圖像Ix中人體區(qū)域掩碼,是委派人體圖像sd的姿態(tài)熱力圖;4-3.身份交換損失;當(dāng)原始人體圖像Ix的身份和委派人體圖像sd的身份來(lái)自訓(xùn)練樣本中的不同人體時(shí),我們定義身份交換損失: 其中和分別表示原始人體圖像Ix對(duì)應(yīng)的源身份和委派人體圖像sd對(duì)應(yīng)的委派身份,HTx,sd是松弛的身份特征約束,定義為:HTx,sd=max{|fsd-fTx|1-α,0}4其中,f是預(yù)訓(xùn)練的人體特征提取器;在姿勢(shì)轉(zhuǎn)化過(guò)程中,使用邊距α0能夠防止完全的身份轉(zhuǎn)移;4-4.重構(gòu)損失;當(dāng)源身份和委派身份來(lái)自訓(xùn)練樣本中的同一人體時(shí),將重構(gòu)損失Lr定義為特征級(jí)和像素級(jí)的l1距離: 其中特征級(jí)l1距離UTx,Ix=|fTx-fIx|1,像素級(jí)l1距離VTx,Ix=|Tx-Ix|1,β是平衡特征和像素l1距離的參數(shù)。

如需購(gòu)買、轉(zhuǎn)讓、實(shí)施、許可或投資類似專利技術(shù),可聯(lián)系本專利的申請(qǐng)人或?qū)@麢?quán)人杭州電子科技大學(xué),其通訊地址為:310018 浙江省杭州市下沙高教園區(qū)2號(hào)大街;或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。

免責(zé)聲明
1、本報(bào)告根據(jù)公開、合法渠道獲得相關(guān)數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準(zhǔn)確性。
2、報(bào)告中的分析和結(jié)論僅反映本公司于發(fā)布本報(bào)告當(dāng)日的職業(yè)理解,僅供參考使用,不能作為本公司承擔(dān)任何法律責(zé)任的依據(jù)或者憑證。
主站蜘蛛池模板: 永修县| 伊川县| 秦皇岛市| 乐安县| 霞浦县| 佛教| 阿鲁科尔沁旗| 大理市| 建德市| 广昌县| 平顶山市| 广州市| 东城区| 正安县| 宁陕县| 万州区| 石棉县| 邵东县| 增城市| 晴隆县| 遂宁市| 翼城县| 柳州市| 榆树市| 宁陕县| 临城县| 嘉峪关市| 凌海市| 阆中市| 高安市| 龙山县| 伊春市| 安庆市| 工布江达县| 土默特右旗| 沁阳市| 江永县| 诏安县| 阜平县| 门源| 峨眉山市|