国产精品天干天干在线播放,大尺度揉捏胸床戏视频,樱花草www日本在线观看,狠狠躁夜夜躁人人爽天天天天97

Document
拖動滑塊完成拼圖
個人中心

預訂訂單
服務訂單
發布專利 發布成果 人才入駐 發布商標 發布需求

在線咨詢

聯系我們

龍圖騰公眾號
首頁 專利交易 科技果 科技人才 科技服務 國際服務 商標交易 會員權益 IP管家助手 需求市場 關于龍圖騰
 /  免費注冊
到頂部 到底部
清空 搜索
當前位置 : 首頁 > 專利喜報 > 恭喜浙江工業大學錢麗萍獲國家專利權

恭喜浙江工業大學錢麗萍獲國家專利權

買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!

龍圖騰網恭喜浙江工業大學申請的專利一種基于深度學習的中文文本語義壓縮方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN114925701B

龍圖騰網通過國家知識產權局官網在2025-05-06發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202210608472.X,技術領域涉及:G06F40/30;該發明授權一種基于深度學習的中文文本語義壓縮方法是由錢麗萍;錢江;王寅生;吳灣灣;王倩設計研發完成,并于2022-05-31向國家知識產權局提交的專利申請。

一種基于深度學習的中文文本語義壓縮方法在說明書摘要公布了:一種基于深度學習的中文文本語義壓縮方法,對于輸入的一篇中文文本,經過系統模型,能夠最大程度上壓縮其語義。本發明結合了雙向長短期記憶網絡Bi?LSTM以及自注意力機制Self?Attention優勢,極大程度上改善了無線通信網絡中發送端的文本語義壓縮效果,有效地節省無線通信傳輸所需要的帶寬資源,從而使得接收端信息處理效率進一步提升。

本發明授權一種基于深度學習的中文文本語義壓縮方法在權利要求書中公布了:1.一種基于深度學習的中文文本語義壓縮方法,其特征在于,所述方法包括以下步驟:1首先對輸入文本進行預處理,操作如下:將所要傳輸的句子s標準化為詞數個數為n,參數n可以自行設定;然后利用Jieba中文分詞工具進行去除停用詞以及分詞處理,得到w1,w2,w3,···,wn,接著運用Word2Vec中文預訓練模型輸出每一個單詞w1,w2,w3,···,wn所對應的詞向量,用c1,c2,c3,···,cn表示,詞向量組c1,c2,c3,···,cn記作C;2將詞向量組c1,c2,c3,···,cn輸入至編碼器,編碼器共有相同兩層,在編碼器第一層中,詞向量組首先進入自注意力機制,計算過程如下:qi=Wq×C,i∈[1,n]1ki=Wk×C2vi=Wv×C3其中,Wq,Wk,Wv為維數為256的可訓練參數方陣;3對于每一個qi,i∈[1,n],都令其與每一個ki進行向量點乘運算,i∈[1,n],對于q1分別得到α1,1,α1,2,α1,3,···,α1,n,將α1,1,α1,2,α1,3,···,α1,n進行Softmax歸一化操作,得到其中: 再將分別與各自對應的v1,v2,v3,···,vn相乘,將所得結果累加得到向量a1;將上述操作進行n次,得到向量a1,a2,a3,···,an,公式如下: 至此,完成第一次自注意力機制操作;將自注意力機制操作生成的向量稱為注意力向量,即a1,a2,a3,···,an;4將注意力向量a1,a2,a3,···,an分別輸入雙向長短期記憶神經網絡Bi-LSTM層,分別得到向量b1,b2,b3,···,bn,維數與a1,a2,a3,···,an相同;5向量b1,b2,b3,···,bn進入編碼器第二層,首先重復進行第一層中的自注意力操作,輸出的注意力向量再經過雙向長短期記憶神經網絡輸出向量組e1,e2,e3,···,en,將e1,e2,e3,···,en分別乘以維數為256的可訓練參數方陣分別得到向量i∈[1,n];6進入解碼器部分,解碼器共有相同兩層,第一層中,首先將由一個維數為256的初始詞向量CLS輸入至解碼器開始進行解碼操作;7由第一個目標單詞詞向量作為解碼器第二次解碼的輸入,同理將第一個目標單詞的詞向量乘以維數為256的方陣得到對應向量nq,nk,nv保留以進行后續操作;8第二個目標單詞作為解碼器第三次解碼的輸入,后續重復上述解碼操作步驟,直至輸出所有目標單詞,從而得到預測語義9通過最小化負對數損失函數來訓練模型參數,模型參數包括矩陣元素與神經網絡權重;所述步驟6中,初始詞向量CLS將進行自注意力機制操作,所得注意力向量記為m;下一步進入Decoder-EncoderAttention層進行注意力機制操作,過程如下:將向量m乘以維數為256的方陣得到向量qm,將向量qm分別與向量進行點乘操作,i∈[1,n],得到i∈[1,n],公式如下: 其中,為向量ei與方陣相乘所得向量,qm為向量m與方陣相乘所得向量;對進行Softmax歸一化操作得到i∈[1,n],再將分別與各自對應的相乘,i∈[1,n],所得結果相加得到注意力向量r1,向量r1再經過前饋神經網絡FFNN層得到向量向量進入解碼器第二層,第二層中重復第一層的操作,最后經過Softmax層輸出概率向量,概率值最大的維度對應為第一個目標單詞。

如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人浙江工業大學,其通訊地址為:310014 浙江省杭州市拱墅區潮王路18號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。

免責聲明
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。
主站蜘蛛池模板: 万源市| 镇坪县| 昭苏县| 永丰县| 宜都市| 佛冈县| 浏阳市| 麻栗坡县| 宜宾市| 汽车| 三河市| 福清市| 商丘市| 湘乡市| 龙游县| 江西省| 芦溪县| 宁阳县| 峡江县| 石楼县| 灵石县| 东丽区| 台中市| 久治县| 师宗县| 杭州市| 土默特右旗| 前郭尔| 日土县| 凭祥市| 衡山县| 霍林郭勒市| 寻甸| 瓮安县| 南漳县| 娄烦县| 高雄市| 常德市| 河北省| 唐河县| 凉城县|