恭喜河海大學章振宇獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!
龍圖騰網恭喜河海大學申請的專利一種基于1bit壓縮感知的無線聯邦學習方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN113962400B 。
龍圖騰網通過國家知識產權局官網在2025-05-06發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202111136679.3,技術領域涉及:H04W28/06;該發明授權一種基于1bit壓縮感知的無線聯邦學習方法是由章振宇;譚國平;周思源設計研發完成,并于2021-09-27向國家知識產權局提交的專利申請。
本一種基于1bit壓縮感知的無線聯邦學習方法在說明書摘要公布了:本發明公開了一種基于1bit壓縮感知的無線聯邦學習方法,包括:基站下發全局模型給各個用戶端;用戶端在本地提供數據進行訓練;用戶端將本地模型與下發的全局模型進行對比;用戶端記錄本輪本地模型更新的幅度和更新的趨勢;用戶端根據本地模型更新的幅度,動態選定稀疏度以及用于稀疏化的閾值;用戶端根據閾值對本地模型更新的趨勢進行稀疏化;用戶端通過1?bit壓縮感知的方法進行壓縮;基站通過BIHT算法和接收到的稀疏度將觀測信號重構;基站通過接收到的閾值和重構的更新的稀疏趨勢恢復用戶端的本地模型;基站更新全局模型;基站下發新的全局模型給各個用戶端進行一輪新的訓練直到達到收斂。本發明降低了用戶端的傳輸能耗。
本發明授權一種基于1bit壓縮感知的無線聯邦學習方法在權利要求書中公布了:1.一種基于1bit壓縮感知的無線聯邦學習方法,其特征在于,包括以下步驟:步驟1、初始化迭代次數t=1,基站初始化全局模型為Gω0,并下發Gω0給各個用戶端;步驟2、基站將第t-1次學習訓練得到的全局模型Gωt-1發給各個用戶端,各個用戶端在本地利用本地數據進行第t次學習訓練,得到更新后的本地模型;步驟3、第t次學習訓練時,各個用戶端將更新后的本地模型Giωt表示為一維列向量的形式;步驟4、第t次學習訓練時,每個參與訓練的用戶端對比Gωt-1和Giωt,獲得第t次學習訓練時第i個用戶端的本地模型更新的幅度Diωt、第t次學習訓練時第i個用戶端的本地模型更新的趨勢Siωt;步驟5、第t次學習訓練時,第i個用戶端動態選定對Siωt進行稀疏化的稀疏度Ki,t以及閾值thi,t;步驟6、第t次學習訓練時,第i個用戶端根據選定的閾值thi,t對本地模型更新的趨勢Siωt進行稀疏化,得到本地模型更新的稀疏趨勢步驟7、第t次學習訓練時,各個用戶端選擇高斯隨機測量矩陣A作為傳感矩陣,通過1bit壓縮感知方法壓縮得到觀測信號yiωt;步驟8、第t次學習訓練時,各個用戶端將觀測信號yiωt、稀疏度Ki,t和閾值thi,t發送給基站;步驟9、第t次學習訓練時,基站根據接收到的觀測信號yiωt、選擇傳感矩陣A和稀疏度Ki,t,使用BIHT算法對觀測信號yiωt進行信號重構,得到重構的本地模型更新的稀疏趨勢基站與用戶端共享矩陣A;步驟10、第t次學習訓練時,基站根據重構的本地模型更新的稀疏趨勢Gωt-1和閾值thi,t恢復用戶端第t次學習訓練后的本地模型,得到恢復后的本地模型G′iωt;步驟11、第t次學習訓練時,基站得到所有用戶端的恢復后的本地模型G′iωt之后,將這些恢復后的本地模型取平均,得到第t次學習訓練的全局模型Gωt;步驟12、基站將新的全局模型Gωt下發給用戶端進行一輪新的學習訓練,令t=t+1,返回步驟2,直到學習訓練過程達到收斂;步驟5的方法如下:設置參數αt∈0.4,0.8,將稀疏化參數分別設置為第一稀疏化參數p1∈4%,6%,第二稀疏化參數p2∈9%,11%,記Diωt中含有N個數據,則令第t次學習訓練時的第一稀疏度第二稀疏度記錄Diωt內N個數據中數值大小為第大的數值為數值大小為第大的數值為若設置閾值稀疏度否則設置閾值為稀疏度其中[·]表示取整;步驟10中,恢復方法如下:讀取中的每一個數值,如果中的第n個數值為1,則將Gωt-1中的第n個數值加上thi,t;如果中的第n個數值為-1,則將Gωt-1中的第n個數值減上thi,t;如果中的第n個數值為0,則不對Gωt-1中的第n個數值進行操作。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人河海大學,其通訊地址為:211100 江蘇省南京市江寧開發區佛城西路8號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。