近二十年來(lái),機器人在工業(yè)生產(chǎn)中得到了越來(lái)越廣泛的應用,并逐步進(jìn)入人們的日常生活。機器人朝著(zhù)智能化、小型化、數字化方向發(fā)展。所謂智能化,直觀(guān)地說(shuō)就是具有適應外部環(huán)境變化的能力。計算機視覺(jué)由于信息量大,在智能機器人領(lǐng)域得到了廣泛的應用。 機器人視覺(jué)伺服系統起源于80年代初,隨著(zhù)計算機技術(shù)、圖像處理技術(shù)、控制理論的發(fā)展取得了長(cháng)足的進(jìn)步。近幾年來(lái),為了克服機器人手/眼關(guān)系和攝像機模型參數標定的困難,提出了手眼關(guān)系無(wú)標定視覺(jué)伺服的發(fā)展方向。但是這方面的研究尚處于起步階段,還未形成統一的理論體系。目前提出的基于圖像雅可比矩陣的無(wú)標定控制方法僅限于視覺(jué)定位問(wèn)題或跟蹤低速運動(dòng)目標(注意:攝像機和目標不能同時(shí)運動(dòng)),控制效果也不盡如人意。 在總結了目前機器人視覺(jué)伺服系統發(fā)展狀況的基礎上,Yoguai機器人通過(guò)非線(xiàn)性視覺(jué)映射模型將圖像特征空間與機器人運動(dòng)空間緊密地聯(lián)系起來(lái),并提出了一套完整的理論體系。該體系把機器人視覺(jué)跟蹤問(wèn)題與視覺(jué)定位問(wèn)題統一起來(lái);把平面視覺(jué)跟蹤問(wèn)題與全自由度視覺(jué)跟蹤問(wèn)題統一起來(lái);把眼固定構形與眼在手上構形機器人視覺(jué)跟蹤問(wèn)題統一起來(lái)。具體工作有以下幾方面: (1)介紹了目前主要的手眼無(wú)標定視覺(jué)伺服方法——圖像雅可比矩陣方法(包括神經(jīng)網(wǎng)絡(luò )方法)的基本原理,分析了該方法存在的問(wèn)題和適用范圍。以眼在手上構型視覺(jué)定位問(wèn)題為例,導出了圖像雅可比矩陣的近似解析表達式,在此基礎上,提出了圖像雅可比矩陣與人工神經(jīng)網(wǎng)絡(luò )相結合的視覺(jué)控制方法,有效地改善了系統性能,擴大了機器人工作范圍。 (2)針對眼固定情況下平面視覺(jué)跟蹤問(wèn)題,提出了基于非線(xiàn)性視覺(jué)映射模型的跟蹤控制策略,并利用人工神經(jīng)網(wǎng)絡(luò )加以實(shí)現,取得了良好的效果。進(jìn)一步,將CMAC應用于視覺(jué)跟蹤問(wèn)題,通過(guò)自學(xué)習算法在線(xiàn)修正神經(jīng)網(wǎng)絡(luò )權值,使得控制系統具有適應環(huán)境變化的能力。 (3)針對眼固定構形,進(jìn)一步將視覺(jué)跟蹤策略推廣到三維空間中去。提出了基于立體視覺(jué)(多攝像機)和基于目標幾何模型(單攝像機)的跟蹤方法。分析了攝像機位姿相互關(guān)系對跟蹤精度的影響,提出了圖像特征的選取原則。仿真結果表明該方法具有較強的適應性。 (4)針對眼在手上機器人手眼無(wú)標定平面視覺(jué)跟蹤問(wèn)題,指出圖像雅可比矩陣方法無(wú)法應用(即無(wú)法跟蹤運動(dòng)目標)。在此基礎上,提出了基于圖像特征加速度的視覺(jué)映射模型,并設計了相應的控制策略。首次解決了真正意義上的手眼無(wú)標定平面視覺(jué)跟蹤問(wèn)題,并取得了較好的跟蹤效果。進(jìn)一步將平面視覺(jué)跟蹤策略推廣到三維視覺(jué)跟蹤問(wèn)題中去,解決了多攝像機信息融合的難題。 (5)研究了眼在手上機器人全自由度視覺(jué)跟蹤問(wèn)題。分析了Full-6-DOF跟蹤問(wèn)題的難點(diǎn),提出了相應的視覺(jué)映射模型和跟蹤控制方案。創(chuàng )造性地提出了坐標變換方法,克服了旋轉與平移運動(dòng)在圖像特征空間中的耦合問(wèn)題。利用新的模糊神經(jīng)網(wǎng)絡(luò ),有效得解決了視覺(jué)映射模型的實(shí)現問(wèn)題。仿真結果表明,以上方法是行之有效的。 (6)分析了視覺(jué)跟蹤系統性能,并提出了改進(jìn)措施。分別針對眼固定構形和眼在手上構形平面視覺(jué)跟蹤問(wèn)題,首次在圖像特征空間中建立了系統離散域模型。在此基礎上,分析了控制系統跟蹤誤差和穩定性間的關(guān)系。進(jìn)而提出了利用圖像特征速度、加速度前饋信號減小跟蹤誤差的控制算法。最后,對眼固定構形和眼在手上構形進(jìn)行了比較。仿真結果證實(shí)了以上方法的有效性。 (7)針對眼在手上機器人低速視覺(jué)跟蹤問(wèn)題進(jìn)行了實(shí)驗研究。提出了一系列的改進(jìn)措施,以降低圖像噪聲對跟蹤效果的影響。實(shí)驗結果表明本文提出的無(wú)標定視覺(jué)跟蹤方法是有效的。 ---------------- Yoguai機器人提出一種基于運動(dòng)選擇的機器人在線(xiàn)手眼標定方法,首先設定機器人手爪前后兩次運動(dòng)的旋轉軸之間夾角的最小閾值α、機器人手爪每次運動(dòng)的旋轉角的最小閾值β和機器人手爪每次運動(dòng)的平移分量的模的最大閾值d,然后從第一次手眼采樣運動(dòng)開(kāi)始,依次選擇出兩個(gè)符合要求的手眼運動(dòng)對,最后以選擇出的兩個(gè)手眼運動(dòng)對利用Andreff線(xiàn)性算法計算得到手眼變換關(guān)系矩陣,完成一次手眼標定。繼續下一次標定時(shí),將上次標定的第二個(gè)運動(dòng)對作為第一個(gè)運動(dòng)對,并從后續采樣運動(dòng)數據中搜索選擇另一個(gè)運動(dòng)對,然后進(jìn)行標定計算。如此循環(huán)往復,可連續不斷地進(jìn)行機器人的在線(xiàn)手眼標定操作。本發(fā)明可廣泛應用于機器人三維視覺(jué)測量、視覺(jué)伺服和觸覺(jué)感知等實(shí)際工作中。 ------------------- 載荷:5.5-110公斤 重量:34公斤 選項:防護類(lèi)別IP54/65 作用半徑:800毫米 安放位置:臺面安放 潔凈度10 軸:3-5 輸入/輸出:最多44/42 重復精度:0.02毫米 總線(xiàn)系統 |