国产精品天干天干在线播放,大尺度揉捏胸床戏视频,樱花草www日本在线观看,狠狠躁夜夜躁人人爽天天天天97

Document
拖動滑塊完成拼圖
個人中心

預(yù)訂訂單
服務(wù)訂單
發(fā)布專利 發(fā)布成果 人才入駐 發(fā)布商標(biāo) 發(fā)布需求

在線咨詢

聯(lián)系我們

龍圖騰公眾號
首頁 專利交易 科技果 科技人才 科技服務(wù) 國際服務(wù) 商標(biāo)交易 會員權(quán)益 IP管家助手 需求市場 關(guān)于龍圖騰
 /  免費注冊
到頂部 到底部
清空 搜索
當(dāng)前位置 : 首頁 > 專利喜報 > 恭喜南京超級頭腦信息技術(shù)有限責(zé)任公司張澤偉獲國家專利權(quán)

恭喜南京超級頭腦信息技術(shù)有限責(zé)任公司張澤偉獲國家專利權(quán)

買專利賣專利找龍圖騰,真高效! 查專利查商標(biāo)用IPTOP,全免費!專利年費監(jiān)控用IP管家,真方便!

龍圖騰網(wǎng)恭喜南京超級頭腦信息技術(shù)有限責(zé)任公司申請的專利一種多模式擬人生態(tài)重建系統(tǒng)及其方法獲國家發(fā)明授權(quán)專利權(quán),本發(fā)明授權(quán)專利權(quán)由國家知識產(chǎn)權(quán)局授予,授權(quán)公告號為:CN119150911B

龍圖騰網(wǎng)通過國家知識產(chǎn)權(quán)局官網(wǎng)在2025-05-23發(fā)布的發(fā)明授權(quán)授權(quán)公告中獲悉:該發(fā)明授權(quán)的專利申請?zhí)?專利號為:202411284305.X,技術(shù)領(lǐng)域涉及:G06N3/006;該發(fā)明授權(quán)一種多模式擬人生態(tài)重建系統(tǒng)及其方法是由張澤偉;徐欣;毛宇鈞設(shè)計研發(fā)完成,并于2024-09-13向國家知識產(chǎn)權(quán)局提交的專利申請。

一種多模式擬人生態(tài)重建系統(tǒng)及其方法在說明書摘要公布了:本發(fā)明公開了一種多模式擬人生態(tài)重建系統(tǒng)及其方法,具體涉及擬人生態(tài)管理技術(shù)領(lǐng)域,用于解決多模式擬人生態(tài)管理狀態(tài)差的問題;本發(fā)明通過高效整合視覺、聽覺和文本數(shù)據(jù),并應(yīng)用多頭注意力模型與多模態(tài)情緒神經(jīng)網(wǎng)絡(luò),提高了數(shù)字人格系統(tǒng)的情緒識別與響應(yīng)能力,然后,采用生成對抗網(wǎng)絡(luò)動態(tài)生成并調(diào)整數(shù)字人格,以適應(yīng)不同交互情境,從而增強用戶的沉浸感和滿意度,使得擬人生態(tài)構(gòu)建時能夠更精確地理解復(fù)雜用戶輸入。此外,根據(jù)在進行實時匹配分析過程中生成的匹配適應(yīng)信息自動調(diào)整反應(yīng)策略,通過自動生成信號并據(jù)此進行模式策略的自動管理,進一步提高了操作效率和智能化擬人生態(tài)重建效率,顯著減少了人工干預(yù)的需求。

本發(fā)明授權(quán)一種多模式擬人生態(tài)重建系統(tǒng)及其方法在權(quán)利要求書中公布了:1.一種多模式擬人生態(tài)重建方法,其特征在于,包括如下步驟:進行數(shù)據(jù)源識別,確定擬人生態(tài)的多模態(tài)數(shù)據(jù)的數(shù)據(jù)類型和來源,多模態(tài)數(shù)據(jù)包括視覺數(shù)據(jù)、聽覺數(shù)據(jù)以及文本數(shù)據(jù);對視覺數(shù)據(jù)、聽覺數(shù)據(jù)以及文本數(shù)據(jù)進行預(yù)處理,將預(yù)處理后的多模態(tài)數(shù)據(jù)輸入到多頭注意力模型中進行數(shù)據(jù)整合;使用多模態(tài)情緒神經(jīng)網(wǎng)絡(luò)對整合后數(shù)據(jù)進行情緒狀態(tài)解析,并生成相應(yīng)的情感反應(yīng),根據(jù)生成對抗網(wǎng)絡(luò)生成不同情境下的數(shù)字人格,對生成的數(shù)字人格的反應(yīng)與用戶當(dāng)前情境的相匹配情況進行分析;獲取在進行數(shù)字人格反應(yīng)與用戶當(dāng)前情境匹配過程中產(chǎn)生的匹配適應(yīng)信息,根據(jù)匹配適應(yīng)信息確定匹配情況并生成信號,根據(jù)生成的信號進行對應(yīng)的模式策略管理;獲取在進行數(shù)字人格的反應(yīng)與用戶當(dāng)前情境匹配過程中產(chǎn)生的匹配適應(yīng)信息,具體過程如下:匹配適應(yīng)信息包括多模情景信息、情景適應(yīng)信息;多模情景信息包括多模數(shù)據(jù)適配指數(shù),情景適應(yīng)信息包括多層次情景適應(yīng)指數(shù);將獲取到多模數(shù)據(jù)適配指數(shù)、多層次情景適應(yīng)指數(shù)進行聯(lián)立計算得到模式匹配穩(wěn)定系數(shù);匹配穩(wěn)定系數(shù)用于選擇生成擬人生態(tài)穩(wěn)定信號或進行擬人生態(tài)的重建調(diào)整;多模數(shù)據(jù)適配指數(shù)的獲取方式如下:在用戶的面部視頻中提取面部表情特征,計算面部表情匹配度:,其中,點乘?表示兩個向量的標(biāo)量乘積,表示生成表情特征向量的歐氏范數(shù),表示面部表情特征向量的歐氏范數(shù);獲取交互中兩個相鄰聲波峰值之間的時間間隔,計算在時間間隔內(nèi)所有采樣時間音頻信號的能量,計算表達(dá)式為:,式中,xn表示第n個樣本的幅度,N是采樣的樣本的總數(shù);從用戶交互中收集文本輸入與數(shù)字人格對這些輸入的文本響應(yīng),獲取用戶文本的情感分?jǐn)?shù)與數(shù)字人格響應(yīng)的情感分?jǐn)?shù),計算情感符合度值:,計算多模數(shù)據(jù)適配指數(shù),計算表達(dá)式為:;多層次情景適應(yīng)指數(shù)的獲取方式如下:收集數(shù)字人格與用戶之間的歷史交互數(shù)據(jù),獲取總交互次數(shù)ZT,與響應(yīng)交互次數(shù)T,計算響應(yīng)適應(yīng)值:AS=TZT,計算時間序列值,計算表達(dá)式為:,式中,e為常數(shù),取值2.71,λ是衰減系數(shù),ASt是第t次交互的適應(yīng)值;獲取數(shù)字人格在實時交互響應(yīng)過程中響應(yīng)用戶輸入的速度,確定每次響應(yīng)用戶輸入的響應(yīng)時間SJ,并獲取響應(yīng)時間在預(yù)設(shè)接受范圍內(nèi)的交互次數(shù)CI,計算響應(yīng)效率值:XL=CIZT,獲取響應(yīng)效率平均值XLavg,計算交互動態(tài)適應(yīng)值:,式中,是第j次交互的響應(yīng)效率值,計算多層次情景適應(yīng)指數(shù),計算表達(dá)式為:。

如需購買、轉(zhuǎn)讓、實施、許可或投資類似專利技術(shù),可聯(lián)系本專利的申請人或?qū)@麢?quán)人南京超級頭腦信息技術(shù)有限責(zé)任公司,其通訊地址為:210000 江蘇省南京市江北新區(qū)麗景路51號02幢1222室;或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。

免責(zé)聲明
1、本報告根據(jù)公開、合法渠道獲得相關(guān)數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準(zhǔn)確性。
2、報告中的分析和結(jié)論僅反映本公司于發(fā)布本報告當(dāng)日的職業(yè)理解,僅供參考使用,不能作為本公司承擔(dān)任何法律責(zé)任的依據(jù)或者憑證。
主站蜘蛛池模板: 社会| 抚顺市| 孟州市| 永城市| 嘉义市| 曲松县| 乌鲁木齐市| 兴文县| 石门县| 林西县| 闽侯县| 红河县| 开鲁县| 固始县| 定陶县| 永善县| 南召县| 甘肃省| 密云县| 张北县| 台安县| 定边县| 精河县| 灵璧县| 绥宁县| 仁布县| 邢台市| 巴楚县| 莱西市| 南丹县| 仁寿县| 冀州市| 新竹市| 隆昌县| 泗洪县| 平顺县| 白朗县| 丰都县| 金寨县| 麻江县| 临海市|