用視覺(jué)讓你的機器手智能化

發(fā)布時(shí)間:2011-10-21 14:13    發(fā)布者:yoguai
關(guān)鍵詞: 機器手 , 視覺(jué)
近二十年來(lái),機器人在工業(yè)生產(chǎn)中得到了越來(lái)越廣泛的應用,并逐步進(jìn)入人們的日常生活。機器人朝著(zhù)智能化、小型化、數字化方向發(fā)展。所謂智能化,直觀(guān)地說(shuō)就是具有適應外部環(huán)境變化的能力。計算機視覺(jué)由于信息量大,在智能機器人領(lǐng)域得到了廣泛的應用。
   
機器人視覺(jué)伺服系統起源于80年代初,隨著(zhù)計算機技術(shù)、圖像處理技術(shù)、控制理論的發(fā)展取得了長(cháng)足的進(jìn)步。近幾年來(lái),為了克服機器人手/眼關(guān)系和攝像機模型參數標定的困難,提出了手眼關(guān)系無(wú)標定視覺(jué)伺服的發(fā)展方向。但是這方面的研究尚處于起步階段,還未形成統一的理論體系。目前提出的基于圖像雅可比矩陣的無(wú)標定控制方法僅限于視覺(jué)定位問(wèn)題或跟蹤低速運動(dòng)目標(注意:攝像機和目標不能同時(shí)運動(dòng)),控制效果也不盡如人意。
     
在總結了目前機器人視覺(jué)伺服系統發(fā)展狀況的基礎上,Yoguai機器人通過(guò)非線(xiàn)性視覺(jué)映射模型將圖像特征空間與機器人運動(dòng)空間緊密地聯(lián)系起來(lái),并提出了一套完整的理論體系。該體系把機器人視覺(jué)跟蹤問(wèn)題與視覺(jué)定位問(wèn)題統一起來(lái);把平面視覺(jué)跟蹤問(wèn)題與全自由度視覺(jué)跟蹤問(wèn)題統一起來(lái);把眼固定構形與眼在手上構形機器人視覺(jué)跟蹤問(wèn)題統一起來(lái)。具體工作有以下幾方面:

(1)介紹了目前主要的手眼無(wú)標定視覺(jué)伺服方法——圖像雅可比矩陣方法(包括神經(jīng)網(wǎng)絡(luò )方法)的基本原理,分析了該方法存在的問(wèn)題和適用范圍。以眼在手上構型視覺(jué)定位問(wèn)題為例,導出了圖像雅可比矩陣的近似解析表達式,在此基礎上,提出了圖像雅可比矩陣與人工神經(jīng)網(wǎng)絡(luò )相結合的視覺(jué)控制方法,有效地改善了系統性能,擴大了機器人工作范圍。
      
(2)針對眼固定情況下平面視覺(jué)跟蹤問(wèn)題,提出了基于非線(xiàn)性視覺(jué)映射模型的跟蹤控制策略,并利用人工神經(jīng)網(wǎng)絡(luò )加以實(shí)現,取得了良好的效果。進(jìn)一步,將CMAC應用于視覺(jué)跟蹤問(wèn)題,通過(guò)自學(xué)習算法在線(xiàn)修正神經(jīng)網(wǎng)絡(luò )權值,使得控制系統具有適應環(huán)境變化的能力。
      
(3)針對眼固定構形,進(jìn)一步將視覺(jué)跟蹤策略推廣到三維空間中去。提出了基于立體視覺(jué)(多攝像機)和基于目標幾何模型(單攝像機)的跟蹤方法。分析了攝像機位姿相互關(guān)系對跟蹤精度的影響,提出了圖像特征的選取原則。仿真結果表明該方法具有較強的適應性。
      
(4)針對眼在手上機器人手眼無(wú)標定平面視覺(jué)跟蹤問(wèn)題,指出圖像雅可比矩陣方法無(wú)法應用(即無(wú)法跟蹤運動(dòng)目標)。在此基礎上,提出了基于圖像特征加速度的視覺(jué)映射模型,并設計了相應的控制策略。首次解決了真正意義上的手眼無(wú)標定平面視覺(jué)跟蹤問(wèn)題,并取得了較好的跟蹤效果。進(jìn)一步將平面視覺(jué)跟蹤策略推廣到三維視覺(jué)跟蹤問(wèn)題中去,解決了多攝像機信息融合的難題。
      
(5)研究了眼在手上機器人全自由度視覺(jué)跟蹤問(wèn)題。分析了Full-6-DOF跟蹤問(wèn)題的難點(diǎn),提出了相應的視覺(jué)映射模型和跟蹤控制方案。創(chuàng )造性地提出了坐標變換方法,克服了旋轉與平移運動(dòng)在圖像特征空間中的耦合問(wèn)題。利用新的模糊神經(jīng)網(wǎng)絡(luò ),有效得解決了視覺(jué)映射模型的實(shí)現問(wèn)題。仿真結果表明,以上方法是行之有效的。
      
(6)分析了視覺(jué)跟蹤系統性能,并提出了改進(jìn)措施。分別針對眼固定構形和眼在手上構形平面視覺(jué)跟蹤問(wèn)題,首次在圖像特征空間中建立了系統離散域模型。在此基礎上,分析了控制系統跟蹤誤差和穩定性間的關(guān)系。進(jìn)而提出了利用圖像特征速度、加速度前饋信號減小跟蹤誤差的控制算法。最后,對眼固定構形和眼在手上構形進(jìn)行了比較。仿真結果證實(shí)了以上方法的有效性。
      
(7)針對眼在手上機器人低速視覺(jué)跟蹤問(wèn)題進(jìn)行了實(shí)驗研究。提出了一系列的改進(jìn)措施,以降低圖像噪聲對跟蹤效果的影響。實(shí)驗結果表明本文提出的無(wú)標定視覺(jué)跟蹤方法是有效的。

----------------
    Yoguai機器人提出一種基于運動(dòng)選擇的機器人在線(xiàn)手眼標定方法,首先設定機器人手爪前后兩次運動(dòng)的旋轉軸之間夾角的最小閾值α、機器人手爪每次運動(dòng)的旋轉角的最小閾值β和機器人手爪每次運動(dòng)的平移分量的模的最大閾值d,然后從第一次手眼采樣運動(dòng)開(kāi)始,依次選擇出兩個(gè)符合要求的手眼運動(dòng)對,最后以選擇出的兩個(gè)手眼運動(dòng)對利用Andreff線(xiàn)性算法計算得到手眼變換關(guān)系矩陣,完成一次手眼標定。繼續下一次標定時(shí),將上次標定的第二個(gè)運動(dòng)對作為第一個(gè)運動(dòng)對,并從后續采樣運動(dòng)數據中搜索選擇另一個(gè)運動(dòng)對,然后進(jìn)行標定計算。如此循環(huán)往復,可連續不斷地進(jìn)行機器人的在線(xiàn)手眼標定操作。本發(fā)明可廣泛應用于機器人三維視覺(jué)測量、視覺(jué)伺服和觸覺(jué)感知等實(shí)際工作中。
-------------------

載荷:5.5-110公斤
重量:34公斤
選項:防護類(lèi)別IP54/65
作用半徑:800毫米
安放位置:臺面安放
潔凈度10
軸:3-5
輸入/輸出:最多44/42
重復精度:0.02毫米
總線(xiàn)系統
本文地址:http://selenalain.com/thread-77997-1-1.html     【打印本頁(yè)】

本站部分文章為轉載或網(wǎng)友發(fā)布,目的在于傳遞和分享信息,并不代表本網(wǎng)贊同其觀(guān)點(diǎn)和對其真實(shí)性負責;文章版權歸原作者及原出處所有,如涉及作品內容、版權和其它問(wèn)題,我們將根據著(zhù)作權人的要求,第一時(shí)間更正或刪除。
luowuhui 發(fā)表于 2011-10-22 19:55:17
都國產(chǎn)的嗎?還是拼湊的
您需要登錄后才可以發(fā)表評論 登錄 | 立即注冊

相關(guān)視頻

關(guān)于我們  -  服務(wù)條款  -  使用指南  -  站點(diǎn)地圖  -  友情鏈接  -  聯(lián)系我們
電子工程網(wǎng) © 版權所有   京ICP備16069177號 | 京公網(wǎng)安備11010502021702
快速回復 返回頂部 返回列表
午夜高清国产拍精品福利|亚洲色精品88色婷婷七月丁香|91久久精品无码一区|99久久国语露脸精品|动漫卡通亚洲综合专区48页