国产精品天干天干在线播放,大尺度揉捏胸床戏视频,樱花草www日本在线观看,狠狠躁夜夜躁人人爽天天天天97

Document
拖動滑塊完成拼圖
個人中心

預訂訂單
服務訂單
發(fā)布專利 發(fā)布成果 人才入駐 發(fā)布商標 發(fā)布需求

在線咨詢

聯(lián)系我們

龍圖騰公眾號
首頁 專利交易 科技果 科技人才 科技服務 國際服務 商標交易 會員權(quán)益 IP管家助手 需求市場 關(guān)于龍圖騰
 /  免費注冊
到頂部 到底部
清空 搜索
當前位置 : 首頁 > 專利喜報 > 恭喜復旦大學王冀獲國家專利權(quán)

恭喜復旦大學王冀獲國家專利權(quán)

買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監(jiān)控用IP管家,真方便!

龍圖騰網(wǎng)恭喜復旦大學申請的專利一種基于模仿學習的群體無人機自主運動規(guī)劃方法獲國家發(fā)明授權(quán)專利權(quán),本發(fā)明授權(quán)專利權(quán)由國家知識產(chǎn)權(quán)局授予,授權(quán)公告號為:CN115164890B

龍圖騰網(wǎng)通過國家知識產(chǎn)權(quán)局官網(wǎng)在2025-04-01發(fā)布的發(fā)明授權(quán)授權(quán)公告中獲悉:該發(fā)明授權(quán)的專利申請?zhí)?專利號為:202210651734.0,技術(shù)領(lǐng)域涉及:G01C21/20;該發(fā)明授權(quán)一種基于模仿學習的群體無人機自主運動規(guī)劃方法是由王冀;李偉;甘中學;候梓越;張隆源;劉子昂設計研發(fā)完成,并于2022-06-09向國家知識產(chǎn)權(quán)局提交的專利申請。

一種基于模仿學習的群體無人機自主運動規(guī)劃方法在說明書摘要公布了:本發(fā)明涉及一種基于模仿學習的群體無人機自主運動規(guī)劃方法,該方法包括:構(gòu)建專家系統(tǒng):獲取用于模仿學習的數(shù)據(jù)集,包括實時環(huán)境感知、無人機自身狀態(tài)、群體中其他無人機信息、無人機自身實時預測軌跡;構(gòu)建學生系統(tǒng):包括通過模仿學習進行無人機軌跡預測的神經(jīng)網(wǎng)絡推理模塊,神經(jīng)網(wǎng)絡推理模塊通過專家系統(tǒng)獲取的數(shù)據(jù)集進行訓練;對群體中的每個無人機分別配置訓練過的學生系統(tǒng),通過學生系統(tǒng)進行無人機軌跡預測,完成自主運動規(guī)劃。與現(xiàn)有技術(shù)相比,本發(fā)明采用了模仿學習,無需設計有限狀態(tài)機決策過程,完全依靠神經(jīng)網(wǎng)絡的學習進行決策,融合了自主規(guī)劃與決策過程,節(jié)約了時間。

本發(fā)明授權(quán)一種基于模仿學習的群體無人機自主運動規(guī)劃方法在權(quán)利要求書中公布了:1.一種基于模仿學習的群體無人機自主運動規(guī)劃方法,其特征在于,該方法包括:構(gòu)建專家系統(tǒng):獲取用于模仿學習的數(shù)據(jù)集,包括實時環(huán)境感知、無人機自身狀態(tài)、群體中其他無人機信息、無人機自身實時預測軌跡;構(gòu)建學生系統(tǒng):包括通過模仿學習進行無人機軌跡預測的神經(jīng)網(wǎng)絡推理模塊,所述的神經(jīng)網(wǎng)絡推理模塊通過所述的專家系統(tǒng)獲取的數(shù)據(jù)集進行訓練,所述的神經(jīng)網(wǎng)絡推理模塊的輸入包括實時環(huán)境感知、無人機自身狀態(tài)、群體中其他無人機信息,所述的神經(jīng)網(wǎng)絡推理模塊的輸出包括無人機自身實時預測軌跡;對群體中的每個無人機分別配置訓練過的學生系統(tǒng),通過學生系統(tǒng)進行無人機軌跡預測,完成自主運動規(guī)劃;所述的學生系統(tǒng)還包括:環(huán)境感知模塊:用于獲取實時環(huán)境感知、無人機自身狀態(tài)、群體中其他無人機信息,并將獲取的輸入至所述的神經(jīng)網(wǎng)絡推理模塊;控制執(zhí)行模塊:獲取所述的神經(jīng)網(wǎng)絡推理模塊輸出的無人機自身實時預測軌跡,控制無人機運行;所述神經(jīng)網(wǎng)絡推理模塊具有兩個分支結(jié)構(gòu)組成,這兩個分支把屬性分成了兩個部分,分別產(chǎn)生深度視覺、無人機的姿態(tài)及位置信息的潛在編碼,并提取群體中其他無人機預測軌跡的特征,輸出三條經(jīng)過神經(jīng)網(wǎng)絡前向傳播的預測軌跡;對于第一個分支結(jié)構(gòu),使用預先訓練好的MobileNet-V3架構(gòu)從獲取的深度圖像中提取特征,然后通過一維卷積處理這些特征,以生成大小為32的多特征的視覺向量;對于第二個分支結(jié)構(gòu),把當前平臺的速度和姿態(tài)所需的參考方向串聯(lián)在一起,由具有[64,32,32,32]個隱藏節(jié)點和以LeakyReLU為激活函數(shù)的四層感知器進行處理,再次使用一維卷積為該屬性創(chuàng)建32維的狀態(tài)特征向量;然后,把這兩個視覺向量和狀態(tài)特征向量分別經(jīng)過一維卷積并且結(jié)合在一起后,再加入群體中其他無人機預測軌跡屬性向量,最終通過另一個具有[64,128,128]個隱藏節(jié)點和LeakyReLU激活的四層感知器處理,得到的輸出是三條預測軌跡點序列,尺寸為[2,3,60],其中維度2代表每批次數(shù)據(jù)量的大小,維度3代表三條軌跡,60代表著預測軌跡的長度20與三維坐標的位置分量;訓練所述的神經(jīng)網(wǎng)絡推理模塊時的損失函數(shù)包括三個部分,分別是標簽與神經(jīng)網(wǎng)絡推理模塊輸出的無人機自身實時預測軌跡之間的對比損失、無人機自身實時預測軌跡與環(huán)境中障礙物的碰撞損失、無人機自身實時預測軌跡與其他無人機的預測軌跡碰撞損失。

如需購買、轉(zhuǎn)讓、實施、許可或投資類似專利技術(shù),可聯(lián)系本專利的申請人或?qū)@麢?quán)人復旦大學,其通訊地址為:200433 上海市楊浦區(qū)邯鄲路220號;或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。

免責聲明
1、本報告根據(jù)公開、合法渠道獲得相關(guān)數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準確性。
2、報告中的分析和結(jié)論僅反映本公司于發(fā)布本報告當日的職業(yè)理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據(jù)或者憑證。
主站蜘蛛池模板: 轮台县| 闽侯县| 荣成市| 石渠县| 汉川市| 根河市| 彭泽县| 班玛县| 申扎县| 茌平县| 剑阁县| 普洱| 马公市| 东乌珠穆沁旗| 申扎县| 赤水市| 华蓥市| 龙州县| 建水县| 石泉县| 灵台县| 贞丰县| 景洪市| 获嘉县| 湖口县| 乐亭县| 综艺| 沙洋县| 来凤县| 盐边县| 凭祥市| 资溪县| 新乐市| 梁平县| 瑞昌市| 神农架林区| 茌平县| 贡觉县| 临猗县| 天等县| 房产|