視頻圖像中的車(chē)輛檢測跟蹤和分類(lèi)

發(fā)布時(shí)間:2010-9-1 09:08    發(fā)布者:techshare
關(guān)鍵詞: 車(chē)輛檢測 , 跟蹤 , 視頻圖像
在現代交通管理和道路規劃中,交通流量和通行車(chē)輛的類(lèi)型、速度是重要的參數。自動(dòng)獲取這些數據的方法大致可以分為兩類(lèi):一類(lèi)是利用壓電、紅外、環(huán)形磁感應線(xiàn)圈等傳感器獲得車(chē)輛本身的參數,這類(lèi)方法跟蹤識別率較高,但是容易損壞,安裝也不方便;還有一類(lèi)就是基于圖像處理和模式識別的方法,克服了前面一類(lèi)方法的局限,由于圖像處理識別技術(shù)的進(jìn)步和硬件性?xún)r(jià)比的大幅提高,有一定實(shí)用價(jià)值的系統已經(jīng)出現。這些系統的使用證明:圖像處理識別車(chē)型的方法日趨成熟,環(huán)境適應能力較強,能長(cháng)期穩定工作,但是計算量大,識別正確率不如感應線(xiàn)圈、激光讀卡等方法高。本文的研究屬于后者,利用安裝在高處的單個(gè)靜止攝像頭監視路面,利用運動(dòng)分割與模型匹配的方法,檢測并統計多車(chē)道的車(chē)流信息。

整個(gè)識別過(guò)程分三步:分割、跟蹤和車(chē)型判定。運動(dòng)目標的分割常采用幀差法。在監控場(chǎng)合,攝像頭大多是固定的,背景基本沒(méi)有變化或者變化緩慢,可以從圖像序列中逐漸取出背景圖像,然后利用幀差法檢測出目標區域,同時(shí)還可以檢測靜止目標。由于識別過(guò)程中利用二值邊緣圖像,所以本文在圖像分割中對輸入圖像進(jìn)行了梯度二值化處理。三維空間和二維圖像平面之間映射關(guān)系的確定,采用基于針孔模型的攝像機定標來(lái)計算。對目標區域的跟蹤,采用了區域特征向量的匹配跟蹤方法,減小了運算量。由于圖像處理的方法很難提取輪數、軸距等車(chē)輛本身參數,所以在圖像車(chē)型識別中一般都采用三維模型在圖像上投影和車(chē)輛邊緣相匹配的方法。  

1 背景重建和圖像分割

由于攝像頭固定,背景變化緩慢,因此,可以利用圖像序列逐漸恢復出背景圖像。其基本原理是:對每一個(gè)像素進(jìn)行監控,如果在較長(cháng)時(shí)間內灰度不發(fā)生明顯變化,則認為該像素屬于背景區域,將該像素灰度值復制到背景緩沖區,否則屬于前景區域。由于光照以及車(chē)輛陰影等影響,采用這種方法恢復出來(lái)的背景圖像存在較大噪聲。因此在實(shí)驗中對原始輸入圖像進(jìn)行了梯度二值化處理,然后進(jìn)行背景重建。這樣可以減小陰影的干擾,加快背景重建速度。由于識別是利用邊緣信息,所以梯度化對后面的識別過(guò)程沒(méi)有影響。

在得到背景邊界圖像后,利用幀差法可以分割出感興趣的目標。但是,如果目標區域和背景邊界重合(值都為"1"),相減之后該目標區域被錯誤判定為背景區域 (值為"0")。為了減小錯誤判決區域,本文在分割時(shí)參考了相鄰兩幀的二值化幀差fdmask,判決準則如下:如果fdmask中某像素為"0",則輸入圖像和背景圖像相應像素相減;否則直接復制輸入圖像中相應的像素值。分割結果經(jīng)過(guò)噪聲消除、形態(tài)學(xué)平滑邊界、種子填充、區域標記等后續處理,就分離出了目標。  

2 攝像機定標

在模型匹配中,需要從二維圖像恢復目標三維信息,同時(shí)將三維模型投影到圖像平面上,因此必須計算三維空間到圖像平面的投影關(guān)系矩陣。這個(gè)過(guò)程就是攝像機定標。本文采用基于針孔模型的攝像機定標方法,其基本原理是利用給定的一組三維世界的點(diǎn)坐標和這些點(diǎn)在圖像中的坐標,求解線(xiàn)性方程組,計算透視投影矩陣中的各個(gè)元素。透視投影矩陣如下:



其中u,v)是圖像坐標,(w,w,w)是三維坐標,M為投影矩陣,c為三維空間中點(diǎn)到攝像機鏡頭的矢量在主光軸上的投影距離。要求解M的各個(gè)元素,根據文獻介紹需要6個(gè)點(diǎn)的投影關(guān)系組成12階的方程組,通常方程組不獨立,沒(méi)有唯一解,采用近似計算的誤差較大。在(1)式基礎上經(jīng)過(guò)變形,將12階方程分拆成三個(gè)4階方程組,只需要利用4個(gè)點(diǎn)的投影關(guān)系,方程組的階次也只有4階,可以有效避免出現奇異矩陣,求出唯一解。由式(1)可以得出:


另外,除了4組點(diǎn)的坐標之外,還需測定鏡頭主光軸的水平垂直傾角。

3 車(chē)輛的跟蹤和分類(lèi)

在區域分割后,接下來(lái)進(jìn)行區域跟蹤,利用相鄰兩幀的區域匹配從而在圖像序列中建立目標鏈,跟蹤目標從進(jìn)入監視范圍到駛離監視范圍的整個(gè)過(guò)程。首先要確定匹配準則。常用的圖像匹配方法有 Hausdorff 距離匹配法和圖像互相關(guān)。這兩種方法都需要逐個(gè)像素的計算。為了減小計算量,采用區域特征跟蹤法。目標區域的特征包括區域形心坐標、區域包圍矩形、區域運動(dòng)速度及運動(dòng)方向和區域面積。本文匹配準則采用了兩個(gè)假定:同一目標所對應區域在相鄰兩幀中面積相近;同一目標在前一幀中的區域形心加上運動(dòng)速度所得到的形心預測值與后一幀中區域形心距離相近。跟蹤過(guò)程如下:

(1)將第一幀的各個(gè)區域當作不同的目標,對各個(gè)目標區域啟動(dòng)目標鏈。

(2)根據判決準則,如果某目標鏈中的區域在當前幀找到了匹配區域,則用找到的匹配區域特征更新該目標鏈中的區域特征。

(3)如果在形心預測值所在位置,當前幀區域和目標鏈中區域面積相差很大,則可以認為發(fā)生了合并或者分裂現象。對目標鏈中的區域包圍矩形,在本幀查找該矩形覆蓋了幾個(gè)區域,如果多于一個(gè)區域,則認為發(fā)生了分裂現象。對分裂現象出現的新區域,啟動(dòng)新的目標鏈。同理,對于本幀區域的包圍矩形,查找該矩形覆蓋了幾個(gè)目標鏈中的區域,如果多于一個(gè),則認為發(fā)生了合并現象,利用合并區域啟動(dòng)新的目標鏈,同時(shí)終止那些被合并區域的目標鏈。

(4)對于目標鏈中的區域,如果在本幀沒(méi)有與之相匹配的區域存在,則認為發(fā)生了消失現象。目標鏈并不立即終止,只有在經(jīng)過(guò)數幀仍沒(méi)有找到匹配之后,才終止該目標鏈。

(5)查找本幀是否還存在新進(jìn)入的區域,如果存在,則啟動(dòng)新的目標鏈。

采用這種方法可以快速跟蹤圖像序列中的目標,同時(shí)得到車(chē)輛在監視范圍的平均速度。在計數時(shí),只有目標在連續數幀里出現才認為是一個(gè)真正的目標區域,只有目標在連續數幀都沒(méi)有出現才認為消失,因此可以消除那些暫時(shí)消失引起的計數錯誤。

車(chē)輛分類(lèi)是個(gè)很復雜的問(wèn)題。圖像處理方法要獲取輪數、軸距等車(chē)輛本身參數比較困難,因此圖像識別車(chē)型通常采用模型匹配方法,F有的研究大多是先抽取馬輛的幾條直線(xiàn)邊緣,然后用線(xiàn)條和模型邊緣匹配。由于在圖像中抽取直線(xiàn)本身的計算量相當大,所以本文沒(méi)有抽取車(chē)輛邊緣直線(xiàn),而是直接利用了Canny邊緣檢測的整體結果與模型相匹配。Canny邊緣與模型邊緣之間存在較大的形變,Hausdorff距離匹配對形變不敏感,所以采只Hausdorff距離作為匹配準則是很適宜的。



||bj-ai||(A,B)被稱(chēng)為從A到B的有向Hausdorff 距離,它反映了A到B的不匹配程度。h(B,A)的意義與h(A,B)相似。在具體計算Hausdorff 距離時(shí),通常采用距離變換的方法。車(chē)型分類(lèi)步驟如下:

(1)在分割結果的基礎上,對目標區域進(jìn)行Canny算子邊緣檢測,僅僅處理分割出的目標區域的邊緣,減小了運算量。

(2)對Canny邊緣,采用串行距離變換,得到距離邊換圖像。距離變換圖像的每個(gè)像素灰度值等于該像素到目標邊緣的最近距離。

(3)對各分割目標,恢復車(chē)輛的三維信息,只計算長(cháng)度和寬度。由于二維圖像平面上一點(diǎn)對應了攝像機坐櫥中不同深度的一系列點(diǎn),所以在從圖像上一點(diǎn)恢復到該點(diǎn)在世界坐標中的信息時(shí),首先要給定該點(diǎn)在世界坐標中一個(gè)分量以減少不確定度(這樣恢復出來(lái)的數值有些誤差,通常給出Z方向高度值Zw)。

(4)在計算目標區域長(cháng)度和寬度的同時(shí),可以求出車(chē)輛底盤(pán)形心在地面上的位置(X,Y),根據速度方向判斷車(chē)輛在地面上的角度α。利用車(chē)輛本身的三維模型數據以及(X,Y,α),通過(guò)式(1)透視投影,消隱處理,可以確定車(chē)輛模型在圖像平面上的投影。

(5)當目標進(jìn)入指定區域后,以模型投影圖像為核板,將投影圖像在距離變換圖像上移動(dòng),在每一個(gè)位置,求出模型投影圖像下距離變換圖像被模型輪廓線(xiàn)覆蓋的像素值之和,以這個(gè)和值作為在該位置當前模型與實(shí)際車(chē)輛的匹配程度。將當前模型在各位置所得匹配程度的最小值作為當前模型與車(chē)輛的實(shí)際匹配程度,該最小值除以模型輪廓線(xiàn)的像素數目,即該模型與車(chē)輛之間的Hausdorff距離。對各種模型,分別求出它們與車(chē)輛之間的Hausdorff距離,取其中最小值對應的那種模型即為車(chē)型識別結果。實(shí)驗過(guò)程中為了減小計算量,搜索方法采用了三步搜索法。
 
4 實(shí)驗結果

本實(shí)驗所采用的352x288視頻圖像,來(lái)自采用單千固定CCD攝像機于杭州天目山路拍攝的交通場(chǎng)景片斷。主要算法在Trimedial300 DSP上用C語(yǔ)言實(shí)現,在圖像分割過(guò)程中進(jìn)行了較多的梯度、降低噪聲、填充和標記運算,平均處理一幀大約耗時(shí)0.3s。算法流程的全過(guò)程如圖1所示。



實(shí)驗證明,抽取背景和當前幀之間進(jìn)行差異檢測,分割較為準確。對于比較淡的陰影,用梯度二值化方法可以部分消除陰影影響。由于只監視邊緣變化部分,背景重建速度比直接利用灰度圖像重建背景快很多,干擾也較小。梯度二值化處理之后重建背景只需150-200幀,而不經(jīng)過(guò)梯度二值化處理在上千幀之后仍然沒(méi)有較好的背景,并且點(diǎn)狀噪聲和云霧狀模糊比較嚴重。

跟蹤計數的結果表明,利用形心和面積作為特征,可以快速跟蹤圖像序列中的目標,計數正確率可達95%。計數誤差主要在于遮擋引起的分裂合并處理不能完全如實(shí)反映目標的運動(dòng),把合并區域當作新出現的區域。如果合并區域再次分裂,分裂出來(lái)的區域就會(huì )被當作新區域,造成計數偏大。為了簡(jiǎn)化跟蹤算法,實(shí)驗僅在相鄰兩幀之間進(jìn)行跟蹤匹配,這樣處理分裂合并的能力并不強,如果在多幀之間進(jìn)行跟蹤,效果會(huì )好一些,但是算法比較復雜。

對于大小相差懸殊的車(chē)輛,如公共汽車(chē)和轎車(chē),根據長(cháng)度、寬度信息就很容易分別開(kāi)來(lái),根本不用進(jìn)行后面的模型匹配。所以本文試驗主要針對了街道上常見(jiàn)的大小相差不太大的車(chē)輛,將它們分成了轎車(chē)、輕卡和面包車(chē)。試驗證明:直接利用Canny邊緣,根據Hausdorff距離匹配可以有效地對車(chē)型加以判別。由于沒(méi)有逐條抽取邊緣直線(xiàn)來(lái)與模型輪廓線(xiàn)匹配,計算量大為減小,算法實(shí)現簡(jiǎn)單。由于轎車(chē)的外形大小變化相對較小,識別正確率最高,可達90%;輕型卡車(chē)次之;面包車(chē)的識別率最低,大約50-60%,錯誤部分主要被識別成轎車(chē),主要原因是面包車(chē)的大小相差很大,模型匹配方法的一個(gè)不足也在于此。要提高識別率,模型細分是必需的工作。本試驗中攝像頭安裝在街道的前方,由于車(chē)輛最顯著(zhù)的外形特征在于側輪廓,所以如果攝像頭安裝在街道旁邊拍撼車(chē)輛的側面圖像,可以認為識別效果應該會(huì )更好一些:另外,Canny算子的邊緣效果不是很好,噪聲比較大,也影響了判決結果。如果采用Hough變換抽取車(chē)輛邊緣的直線(xiàn),計算量較大。如果陰影比較嚴重,還需要進(jìn)行專(zhuān)門(mén)的去陰影處理。這些都是下一步工作要解決的問(wèn)題。
本文地址:http://selenalain.com/thread-24966-1-1.html     【打印本頁(yè)】

本站部分文章為轉載或網(wǎng)友發(fā)布,目的在于傳遞和分享信息,并不代表本網(wǎng)贊同其觀(guān)點(diǎn)和對其真實(shí)性負責;文章版權歸原作者及原出處所有,如涉及作品內容、版權和其它問(wèn)題,我們將根據著(zhù)作權人的要求,第一時(shí)間更正或刪除。
您需要登錄后才可以發(fā)表評論 登錄 | 立即注冊

相關(guān)視頻

關(guān)于我們  -  服務(wù)條款  -  使用指南  -  站點(diǎn)地圖  -  友情鏈接  -  聯(lián)系我們
電子工程網(wǎng) © 版權所有   京ICP備16069177號 | 京公網(wǎng)安備11010502021702
快速回復 返回頂部 返回列表
午夜高清国产拍精品福利|亚洲色精品88色婷婷七月丁香|91久久精品无码一区|99久久国语露脸精品|动漫卡通亚洲综合专区48页