国产精品天干天干在线播放,大尺度揉捏胸床戏视频,樱花草www日本在线观看,狠狠躁夜夜躁人人爽天天天天97

Document
拖動滑塊完成拼圖
個人中心

預訂訂單
服務訂單
發布專利 發布成果 人才入駐 發布商標 發布需求

在線咨詢

聯系我們

龍圖騰公眾號
首頁 專利交易 IP管家助手 科技果 科技人才 科技服務 國際服務 商標交易 會員權益 需求市場 關于龍圖騰
 /  免費注冊
到頂部 到底部
清空 搜索
當前位置 : 首頁 > 專利喜報 > 重慶交通大學尹燕莉獲國家專利權

重慶交通大學尹燕莉獲國家專利權

買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!

龍圖騰網獲悉重慶交通大學申請的專利基于DQN算法的混合動力汽車再生制動控制方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN114643963B

龍圖騰網通過國家知識產權局官網在2025-03-21發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202210376157.9,技術領域涉及:B60T8/17;該發明授權基于DQN算法的混合動力汽車再生制動控制方法是由尹燕莉;張鑫新;馬什鵬;黃學江;王福振設計研發完成,并于2022-04-11向國家知識產權局提交的專利申請。

基于DQN算法的混合動力汽車再生制動控制方法在說明書摘要公布了:本發明提供的一種基于DQN算法的混合動力汽車再生制動控制方法,包括:S1.確定混合動力汽車的制動分配系數;S2.構建基于深度Q學習的再生制動控制的多目標優化模型;S3.確定混合動力汽車的狀態參數以及動作參數;S4.將混合動力汽車的狀態參數及動作參數輸入至深度Q學習網絡中進行離線訓練;S5.再實時采集混合動力汽車的狀態參數輸入至完成訓練的深度Q學習網絡中在線優化,然后深度Q學習網絡輸出優化后的前軸制動力矩比例系數β和電機制動力矩比例系數α;能夠使得混合動力汽車的再生制動分配合理,從而有效提升混合動力汽車能量回收效率以及制動的穩定性。

本發明授權基于DQN算法的混合動力汽車再生制動控制方法在權利要求書中公布了:1.一種基于DQN算法的混合動力汽車再生制動控制方法,其特征在于:包括以下步驟:S1.確定混合動力汽車的制動分配系數,包括前軸制動力矩比例系數β和電機制動力矩比例系數α;S2.構建基于深度Q學習的再生制動控制的多目標優化模型;S3.確定混合動力汽車的狀態參數以及動作參數;其中,狀態參數包括制動需求功率以及電池SOC值,動作參數包括前軸制動力矩比例系數β、電機制動力矩比例系數α、制動能量回收效率權重系數ω1、前輪制動穩定性權重系數ω2以及后輪制動穩定性權重系數ω3;S4.將混合動力汽車的狀態參數及動作參數輸入至深度Q學習網絡中進行離線訓練;S5.再實時采集混合動力汽車的狀態參數輸入至完成訓練的深度Q學習網絡中在線優化,然后深度Q學習網絡輸出優化后的前軸制動力矩比例系數β和電機制動力矩比例系數α;步驟S1中,前軸制動力矩比例系數β和電機制動力矩比例系數α通過如下方法確定: 其中:Tf為前軸總的制動力矩,Tr為后軸總的制動力矩,Tre為電機制動力矩;步驟S2中,深度Q學習的再生制動控制的多目標優化模型具體為:目標函數為: 其中,Qs,a為最優的狀態-動作函數,γt為折扣因子且γt∈[0,1],rst,at為在狀態為st且動作為at時的回報函數,t表示時刻;其中,回報函數具體表達式為: 其中:ω1為制動能量回收效率權重系數,ω2為前輪制動穩定性權重系數,ω3為后輪制動穩定性權重系數,φf為前軸利用附著系數,φr為后軸利用附著系數,z為制動強度;能量回收評價指數K通過如下方法確定: 其中,Tm為電機的轉矩,nm為電機的轉速,ηm為電機的效率,m為整車質量,v0為車輛制動初速度,vt為車輛制動中速度,f為滾動阻尼系數,CD為空氣阻尼系數,A為車輛的迎風面積,v為車輛的速度,g為重力加速度;且目標函數和回報函數的約束條件如下: 其中,La為整車重心與前軸的距離,Lb為整車重心與后軸的距離,hg為整車重心的高度,L表示混合動力汽車的軸距;Tm_max為電機的最大轉矩,Tm為電機的轉矩,Pchg_max為電池的最大充電功率,nm為電機的轉速,ηm為電機的效率;對深度Q學習網絡進行訓練具體包括:S41.確定隨機樣本數量nb,迭代次數n、折扣因子γt以及探索率ε,并初始化深度Q學習網絡的權重值θ;S42.將車輛制動過程中的需求功率Preq和電池SOC值作為狀態變量,將前軸制動力矩比例系數β、電機制動力矩比例系數α、制動能量回收效率權重系數ω1、前輪制動穩定性權重系數ω2以及后輪制動穩定性權重系數ω3作為動作變量;S43.選取動作變量樣本,并采用ε-greedy策略確定深度Q學習網絡的最優Q值所對應的動作,計算回報值,并儲存當前狀態st下的動作at、回報值以及下一時刻的狀態st+1至經驗池et,其中:et=st,at,rt,st+1;確定最優Q值所對應的動作具體為: 其中,πa|s為最優Q值所對應的動作策略,ε為探索率,As表示當前狀態s下可行動作的總個數;S44.當經驗池et的樣本存儲量達到設定值,從經驗池中選取nb個樣本對深度Q學習網絡進行訓練;S45.構建損失函數:Lθ=E{[r+γtminQst+1,at+1;θ--Qst,at;θ]2};利用梯度下降法反向更新深度Q學習網絡中的權重值θ;S46.每個設定步長C將評價網絡參數中的評價網絡參數復制給深度Q學習網絡的目標網絡;S47.判斷循環迭代次數是否達到最大值,如是,則進入步驟S48,如否,則重復步驟S43-S46直至迭代次數達到最大值;S48.判斷相鄰迭代次數的累計預測Q值之間的差值是否小于設定閾值,如是,則迭代結束,并將此時Q值對應的動作作為最優動作,如否,則返回步驟S43。

如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人重慶交通大學,其通訊地址為:402247 重慶市江津區雙福新區福星大道1號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。

免責聲明
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。
主站蜘蛛池模板: 武乡县| 遂昌县| 浦城县| 达州市| 泗阳县| 吐鲁番市| 普安县| 汨罗市| 翁源县| 沁水县| 信阳市| 安泽县| 昆明市| 怀安县| 连城县| 嘉善县| 团风县| 阳曲县| 鹤岗市| 马鞍山市| 醴陵市| 盐边县| 墨玉县| 承德市| 吉木乃县| 广平县| 新巴尔虎左旗| 玉屏| 清徐县| 定西市| 榆中县| 黄大仙区| 静海县| 台中市| 田东县| 彭州市| 荆门市| 郸城县| 永清县| 沿河| 洛阳市|