重慶交通大學尹燕莉獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!
龍圖騰網獲悉重慶交通大學申請的專利基于DQN算法的混合動力汽車再生制動控制方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN114643963B 。
龍圖騰網通過國家知識產權局官網在2025-03-21發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202210376157.9,技術領域涉及:B60T8/17;該發明授權基于DQN算法的混合動力汽車再生制動控制方法是由尹燕莉;張鑫新;馬什鵬;黃學江;王福振設計研發完成,并于2022-04-11向國家知識產權局提交的專利申請。
本基于DQN算法的混合動力汽車再生制動控制方法在說明書摘要公布了:本發明提供的一種基于DQN算法的混合動力汽車再生制動控制方法,包括:S1.確定混合動力汽車的制動分配系數;S2.構建基于深度Q學習的再生制動控制的多目標優化模型;S3.確定混合動力汽車的狀態參數以及動作參數;S4.將混合動力汽車的狀態參數及動作參數輸入至深度Q學習網絡中進行離線訓練;S5.再實時采集混合動力汽車的狀態參數輸入至完成訓練的深度Q學習網絡中在線優化,然后深度Q學習網絡輸出優化后的前軸制動力矩比例系數β和電機制動力矩比例系數α;能夠使得混合動力汽車的再生制動分配合理,從而有效提升混合動力汽車能量回收效率以及制動的穩定性。
本發明授權基于DQN算法的混合動力汽車再生制動控制方法在權利要求書中公布了:1.一種基于DQN算法的混合動力汽車再生制動控制方法,其特征在于:包括以下步驟:S1.確定混合動力汽車的制動分配系數,包括前軸制動力矩比例系數β和電機制動力矩比例系數α;S2.構建基于深度Q學習的再生制動控制的多目標優化模型;S3.確定混合動力汽車的狀態參數以及動作參數;其中,狀態參數包括制動需求功率以及電池SOC值,動作參數包括前軸制動力矩比例系數β、電機制動力矩比例系數α、制動能量回收效率權重系數ω1、前輪制動穩定性權重系數ω2以及后輪制動穩定性權重系數ω3;S4.將混合動力汽車的狀態參數及動作參數輸入至深度Q學習網絡中進行離線訓練;S5.再實時采集混合動力汽車的狀態參數輸入至完成訓練的深度Q學習網絡中在線優化,然后深度Q學習網絡輸出優化后的前軸制動力矩比例系數β和電機制動力矩比例系數α;步驟S1中,前軸制動力矩比例系數β和電機制動力矩比例系數α通過如下方法確定: 其中:Tf為前軸總的制動力矩,Tr為后軸總的制動力矩,Tre為電機制動力矩;步驟S2中,深度Q學習的再生制動控制的多目標優化模型具體為:目標函數為: 其中,Qs,a為最優的狀態-動作函數,γt為折扣因子且γt∈[0,1],rst,at為在狀態為st且動作為at時的回報函數,t表示時刻;其中,回報函數具體表達式為: 其中:ω1為制動能量回收效率權重系數,ω2為前輪制動穩定性權重系數,ω3為后輪制動穩定性權重系數,φf為前軸利用附著系數,φr為后軸利用附著系數,z為制動強度;能量回收評價指數K通過如下方法確定: 其中,Tm為電機的轉矩,nm為電機的轉速,ηm為電機的效率,m為整車質量,v0為車輛制動初速度,vt為車輛制動中速度,f為滾動阻尼系數,CD為空氣阻尼系數,A為車輛的迎風面積,v為車輛的速度,g為重力加速度;且目標函數和回報函數的約束條件如下: 其中,La為整車重心與前軸的距離,Lb為整車重心與后軸的距離,hg為整車重心的高度,L表示混合動力汽車的軸距;Tm_max為電機的最大轉矩,Tm為電機的轉矩,Pchg_max為電池的最大充電功率,nm為電機的轉速,ηm為電機的效率;對深度Q學習網絡進行訓練具體包括:S41.確定隨機樣本數量nb,迭代次數n、折扣因子γt以及探索率ε,并初始化深度Q學習網絡的權重值θ;S42.將車輛制動過程中的需求功率Preq和電池SOC值作為狀態變量,將前軸制動力矩比例系數β、電機制動力矩比例系數α、制動能量回收效率權重系數ω1、前輪制動穩定性權重系數ω2以及后輪制動穩定性權重系數ω3作為動作變量;S43.選取動作變量樣本,并采用ε-greedy策略確定深度Q學習網絡的最優Q值所對應的動作,計算回報值,并儲存當前狀態st下的動作at、回報值以及下一時刻的狀態st+1至經驗池et,其中:et=st,at,rt,st+1;確定最優Q值所對應的動作具體為: 其中,πa|s為最優Q值所對應的動作策略,ε為探索率,As表示當前狀態s下可行動作的總個數;S44.當經驗池et的樣本存儲量達到設定值,從經驗池中選取nb個樣本對深度Q學習網絡進行訓練;S45.構建損失函數:Lθ=E{[r+γtminQst+1,at+1;θ--Qst,at;θ]2};利用梯度下降法反向更新深度Q學習網絡中的權重值θ;S46.每個設定步長C將評價網絡參數中的評價網絡參數復制給深度Q學習網絡的目標網絡;S47.判斷循環迭代次數是否達到最大值,如是,則進入步驟S48,如否,則重復步驟S43-S46直至迭代次數達到最大值;S48.判斷相鄰迭代次數的累計預測Q值之間的差值是否小于設定閾值,如是,則迭代結束,并將此時Q值對應的動作作為最優動作,如否,則返回步驟S43。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人重慶交通大學,其通訊地址為:402247 重慶市江津區雙福新區福星大道1號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。