恭喜大連理工大學劉行健獲國家專利權(quán)
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監(jiān)控用IP管家,真方便!
龍圖騰網(wǎng)恭喜大連理工大學申請的專利一種機器人三維視覺測量系統(tǒng)的空間運動鏈參數(shù)在線校準方法獲國家發(fā)明授權(quán)專利權(quán),本發(fā)明授權(quán)專利權(quán)由國家知識產(chǎn)權(quán)局授予,授權(quán)公告號為:CN115468587B 。
龍圖騰網(wǎng)通過國家知識產(chǎn)權(quán)局官網(wǎng)在2025-05-16發(fā)布的發(fā)明授權(quán)授權(quán)公告中獲悉:該發(fā)明授權(quán)的專利申請?zhí)?專利號為:202211188276.8,技術(shù)領(lǐng)域涉及:G01C25/00;該發(fā)明授權(quán)一種機器人三維視覺測量系統(tǒng)的空間運動鏈參數(shù)在線校準方法是由劉行健;張明康;宋潞杭;歐陽駿;李特;劉海波;王永青設(shè)計研發(fā)完成,并于2022-09-28向國家知識產(chǎn)權(quán)局提交的專利申請。
本一種機器人三維視覺測量系統(tǒng)的空間運動鏈參數(shù)在線校準方法在說明書摘要公布了:一種機器人三維視覺測量系統(tǒng)的空間運動鏈參數(shù)在線校準方法,屬于智能機器人技術(shù)領(lǐng)域,其包括S1:構(gòu)建基于虛擬末端的空間運動鏈模型;S2:利用PnP算法計算機器人基座坐標系相對于被測目標坐標系的位置與方向,得到基于虛擬末端的空間運動鏈統(tǒng)一模型下的運動鏈參數(shù)S3:以步驟S1中構(gòu)建的基于虛擬末端的空間運動鏈統(tǒng)一模型和步驟S2中求解的由被測目標坐標系到機器人基座坐標系運動鏈參數(shù)作為基礎(chǔ),構(gòu)建新的優(yōu)化函數(shù),使用非線性迭代優(yōu)化法來優(yōu)化基于虛擬末端的空間運動鏈統(tǒng)一模型的參數(shù)。本發(fā)明方法基于AX=XB傳統(tǒng)手眼標定運動學模型,利用新的基于虛擬末端的空間運動鏈統(tǒng)一模型,實現(xiàn)機器人三維視覺測量系統(tǒng)的空間運動鏈參數(shù)在線校準,該模型可在實際工程中應(yīng)用。
本發(fā)明授權(quán)一種機器人三維視覺測量系統(tǒng)的空間運動鏈參數(shù)在線校準方法在權(quán)利要求書中公布了:1.一種機器人三維視覺測量系統(tǒng)的空間運動鏈參數(shù)在線校準方法,其特征在于,包括如下步驟:步驟S1:在現(xiàn)有的AX=XB傳統(tǒng)運動學模型基礎(chǔ)上,構(gòu)建新的基于虛擬末端的空間運動鏈模型;S2:計算S1構(gòu)建的基于虛擬末端的空間運動鏈模型下的運動鏈參數(shù)其中,運動鏈參數(shù)指的是由被測目標坐標系到機器人基座坐標系的旋轉(zhuǎn)平移關(guān)系;S3:以步驟S1中構(gòu)建的基于虛擬末端的空間運動鏈模型和步驟S2中求解的由被測目標坐標系到機器人基座坐標系運動鏈參數(shù)作為基礎(chǔ),構(gòu)建新的優(yōu)化函數(shù),使用非線性迭代優(yōu)化法來優(yōu)化基于虛擬末端的空間運動鏈模型的參數(shù);具體步驟如下:步驟S1:構(gòu)建新的基于虛擬末端的空間運動鏈模型,具體如下:完整的基于虛擬末端的空間運動鏈模型包括機器人基座、四軸機器人連桿1-連桿4、三維視覺測量傳感器、被測目標、虛擬末端及其虛擬臂;空間運動鏈模型在空間中有機器人基座坐標系、機器人關(guān)鍵關(guān)節(jié)坐標系、三維視覺測量傳感器坐標系、被測目標坐標系、虛擬末端坐標系;虛擬末端通過虛擬臂連桿,分別與機器人關(guān)鍵關(guān)節(jié)、三維視覺測量傳感器連接,位置和方向由機器人關(guān)鍵關(guān)節(jié)坐標系的Z軸與三維視覺測量傳感器坐標系的Z軸的相對幾何關(guān)系確定,進而完成基于虛擬末端的空間運動鏈模型的構(gòu)建;S2:計算S1構(gòu)建的基于虛擬末端的空間運動鏈模型下的運動鏈參數(shù)具體如下:S2.1:計算從被測目標坐標系到機器人基座坐標系的位置關(guān)系機器人關(guān)節(jié)J1作為機器人唯一變量旋轉(zhuǎn)任意n個不同的角度,n3,其他所有關(guān)節(jié)角度保持固定,保證被測目標始終完全位于三維視覺測量傳感器的掃描視場內(nèi);將機器人關(guān)節(jié)J1旋轉(zhuǎn)任意n個不同的角度,得到n個不同姿勢;基于n個不同姿勢下三維視覺測量傳感器捕獲的被測目標圖像,利用PnP算法計算從被測目標坐標系到機器人基座坐標系的位置關(guān)系;S2.2:確定機器人基座坐標系相對于被測目標坐標系的方向?qū)C器人關(guān)節(jié)J1旋轉(zhuǎn)角固定在0°,機器人關(guān)節(jié)J2作為機器人唯一變量旋轉(zhuǎn)任意m個不同的角度,m3,其他所有關(guān)節(jié)角度保持固定,保證被測目標始終完全位于三維視覺測量傳感器的掃描視場內(nèi);將機器人關(guān)節(jié)J2旋轉(zhuǎn)任意m個不同的角度,得到m個不同姿勢;每一個姿勢下虛擬末端的位置都是基于被測目標坐標系與三維視覺測量傳感器捕獲的被測目標圖像,通過PnP算法反向計算求得的;由此確定機器人基座坐標系相對于被測目標坐標系的方向;S2.3:基于已獲得的機器人基座坐標系相對于被測目標坐標系的位置和方向,得到基于虛擬末端的空間運動鏈模型下的運動鏈參數(shù)S3:以步驟S1中構(gòu)建的基于虛擬末端的空間運動鏈模型和步驟S2中求解的由被測目標坐標系到機器人基座坐標系運動鏈參數(shù)作為基礎(chǔ),構(gòu)建新的優(yōu)化函數(shù),使用非線性迭代優(yōu)化法來優(yōu)化基于虛擬末端的空間運動鏈模型的參數(shù),具體如下:在步驟S2.1中,機器人關(guān)節(jié)J1旋轉(zhuǎn)任意n個不同的角度,得到n個不同姿勢,同時三維視覺測量傳感器捕獲被測目標的n個不同視圖;對于機器人的第i個姿勢,i=1,2……,n,定義為由PnP算法求得的從三維視覺測量傳感器坐標系到被測目標坐標系的位姿轉(zhuǎn)換關(guān)系;定義為機器人基座坐標系到三維視覺測量傳感器坐標系的位姿轉(zhuǎn)換關(guān)系;定義為從機器人基座坐標系到被測目標坐標系的位姿轉(zhuǎn)換關(guān)系;有公式: 定義為從機器人基座坐標系到被測目標坐標系的位姿轉(zhuǎn)換關(guān)系的旋轉(zhuǎn)分量;為從機器人基座坐標系到被測目標坐標系的位姿轉(zhuǎn)換關(guān)系的平移分量;Rz為被測目標坐標系到機器人基座坐標系的運動鏈參數(shù)的旋轉(zhuǎn)分量;tz為被測目標坐標系到機器人基座坐標系的運動鏈參數(shù)的平移分量;利用羅德里格斯的旋轉(zhuǎn)公式RodriguesR,對于n個不同姿勢,基于虛擬末端的空間運動鏈模型的位置誤差PError和方向誤差OError為: 則基于虛擬末端的空間運動鏈模型參數(shù)的優(yōu)化函數(shù)是: 其中,al,dl,αl,θl分別對應(yīng)基于虛擬末端的空間運動鏈模型中第l個連桿的鏈路長度、鏈接偏移、鏈路扭曲和關(guān)節(jié)角,其中,l=1、2、3、4、5中:1-3分別表示連桿1,連桿2,連桿3;4,5分別表示虛擬臂4’,虛擬臂5’;基于步驟S3中已求解的優(yōu)化函數(shù),使用非線性迭代優(yōu)化法優(yōu)化基于虛擬末端的空間運動鏈模型參數(shù)后,三維視覺測量傳感器重新掃描被測對象后得到優(yōu)化后數(shù)據(jù),使用優(yōu)化后數(shù)據(jù)作為初始值進行重新優(yōu)化;設(shè)定虛擬末端的空間運動鏈模型運動學參數(shù)中的最大預(yù)期偏差閾值為ea,ed,eα,eθ,使用非線性迭代優(yōu)化法重復(fù)優(yōu)化過程至|al|ea,|dl|ed,|αl|eα,|θl|eθ時,基于虛擬末端的空間運動鏈模型的參數(shù)優(yōu)化完成;若一直無法優(yōu)化至閾值以下,需返回到步驟S2重新計算基于虛擬末端的空間運動鏈模型下的運動鏈參數(shù)并進行優(yōu)化。
如需購買、轉(zhuǎn)讓、實施、許可或投資類似專利技術(shù),可聯(lián)系本專利的申請人或?qū)@麢?quán)人大連理工大學,其通訊地址為:116024 遼寧省大連市甘井子區(qū)凌工路2號;或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。
1、本報告根據(jù)公開、合法渠道獲得相關(guān)數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準確性。
2、報告中的分析和結(jié)論僅反映本公司于發(fā)布本報告當日的職業(yè)理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據(jù)或者憑證。