




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
1、基于隨機(jī)森林的多類別運動目標(biāo)分類算法一、算法設(shè)計1.1 目標(biāo)定位為了描述目標(biāo),首先需要確定圖像中有可能對應(yīng)于目標(biāo)區(qū)域的像素集合,即目標(biāo)定位。目標(biāo)定位通常有兩種常用的處理方法,基于運動的方法和特定目標(biāo)檢索的方法,這兩種方法在一定程度上有互補性。基于運動的方法假定是在靜止攝像機(jī)或靜止背景情況下,檢測出場景中與背景有相對運動的像素集合,并對這些像素進(jìn)行去噪、分割等處理以確定可能對應(yīng)于目標(biāo)的前景區(qū)域。目前,通常運用背景減除法、幀差分法提取出視頻圖像中的運動區(qū)域;跟蹤檢測到的運動區(qū)域;然后對跟蹤區(qū)域執(zhí)行分類算法以確定它們的類別。基于運動的目標(biāo)定位方法主要是根據(jù)目標(biāo)相對于背景運動這一特性來檢測目標(biāo)區(qū)域。這
2、種方法的特點是幾乎不需要場景中目標(biāo)類別的任何先驗知識,而對檢測到的運動區(qū)域進(jìn)行目標(biāo)分類的工作可以留到分類算法中實現(xiàn)。運動檢測處理后,對于提取到的運動目標(biāo)需要進(jìn)一步抽取特征,設(shè)計分類器以實現(xiàn)目標(biāo)分類算法。基于圖像的特定目標(biāo)檢測方法,不依賴于目標(biāo)運動,直接在整幅圖像中進(jìn)行全局搜索,判斷圖像中是否包含屬于特定類別的目標(biāo)。每一幅圖像以整體作為輸入,然后在整個圖像空間中尋找符合感興趣目標(biāo)典型特征的像素區(qū)域,即比較所有可能的待檢測區(qū)域與目標(biāo)模板的匹配度,例如人臉、車輛或花朵等。這種特定目標(biāo)模板需要事先利用一組屬于此類目標(biāo)的已標(biāo)記樣本進(jìn)行訓(xùn)練得到。這種方法使用時通常結(jié)合邊界、小波特征等低級特征和矩形濾波器。
3、由于在整個圖像范圍內(nèi)的目標(biāo)搜索匹配工作計算復(fù)雜度很大,消耗時間長,本文的目標(biāo)檢測采用基于運動的方法。基于運動的目標(biāo)檢測分類系統(tǒng)有很大優(yōu)點,主要是可以將注意力集中在那些很有可能對應(yīng)于運動目標(biāo)的前景區(qū)域。這簡化了目標(biāo)分類的工作,只用區(qū)分檢測到的目標(biāo)區(qū)域是否屬于某類別,而不用區(qū)分目標(biāo)區(qū)域和圖像中其它區(qū)域,減少了背景和目標(biāo)之外的其它區(qū)域?qū)Ψ诸悊栴}的干擾。因此,可以避免背景區(qū)域中與感興趣目標(biāo)有相似外形特性的區(qū)域誤檢情況發(fā)生。基于運動的目標(biāo)檢測方法在每幀中含有的目標(biāo)數(shù)量相對較少時可以大大提高目標(biāo)檢測的效率。檢測到運動區(qū)域也就相當(dāng)于自動的提供了關(guān)于目標(biāo)在像素平面的方位與尺度。由于本文選取的視頻監(jiān)控圖像背景為
4、靜止,采用基于運動塊的目標(biāo)檢測方法可以大幅度提高檢測和分類的效率,較好的避免背景干擾。對比特定目標(biāo)檢測方法,本方法避免了在圖像內(nèi)多尺度的搜索,計算復(fù)雜度低,符合實時檢測和分類的需求。此外,采用運動分割可以提供運動物體的輪廓及其在圖像中的具體位置,可以為分類提供更多的有效信息。1.2 分類器設(shè)計在分類器設(shè)計上,目前常用的目標(biāo)分類方法有貝葉斯分類方法、K最近鄰節(jié)點算法(K-Nearest Neighbor:KNN)方法和多分類支持向量機(jī)(Muticlass Support Vector Machine:MSVM)方法及多核學(xué)習(xí)(Multiple Kernel Learning:MKL)方法等,但是
5、這些方法僅能夠針對目標(biāo)進(jìn)行分類,無法像數(shù)據(jù)挖掘那樣抽取其中的分類規(guī)則,不能有效的分析得到對目標(biāo)識別貢獻(xiàn)較大的特征。隨機(jī)森林方法易于抽取直觀易懂的分類規(guī)則,需要較少的參數(shù)調(diào)整,適用于數(shù)據(jù)集中存在多個特征的場合。由于本文的應(yīng)用場景需要處理多類目標(biāo),隨機(jī)森林算法在訓(xùn)練和測試階段都優(yōu)于SVM,同時隨機(jī)森林算法可以采用多種特征,并估算每種特征的權(quán)重。算法的框架如下:圖2-1 目標(biāo)分類識別流程圖1.3 特征選取特征在分類過程中是一種非常重要的數(shù)據(jù)表達(dá)方式,特征選取是對分類精度和可靠性影響最大的因素之一。通常來說,選擇的特征少,速度快,實現(xiàn)簡單,單分類的精度不高;選擇的特征太多,速度慢,實現(xiàn)復(fù)雜,分類效果也
6、不好。對于屬于不同類別的對象來說,它們的特征值應(yīng)具有明顯的差異;相同對象的特征值比較相近;所用的特征之間應(yīng)彼此不相關(guān)。雖然相關(guān)性很高的特征可以組合起來減少噪聲干擾,但一般不應(yīng)作為單獨的特征使用。模式識別系統(tǒng)的復(fù)雜度隨著系統(tǒng)的維數(shù)(特征的個數(shù))迅速增長,并且用來測試結(jié)果的樣本數(shù)量隨著特征的數(shù)量呈指數(shù)關(guān)系增長。本研究中選取了可以表征目標(biāo)區(qū)域的多個特征,并根據(jù)各個特征在仿真中的重要性賦予不同的權(quán)值,這些特征分別為:紋理特征(10維向量),邊緣LBP直方圖特征(32維向量),圖像塊密度(1維),輪廓不變矩(25維向量),橢圓特征(三維向量),外形特征(32維向量)。圖2-2 特征選取比例示意圖1.3.
7、1 基于灰度共生矩陣的紋理特征灰度共生矩陣17被公認(rèn)為當(dāng)今的一種重要的紋理分析方法,是由RWConners等人在1983年提出。灰度共生矩陣是一種優(yōu)于灰度游程長度法和光譜方法的紋理特征的測量技術(shù)。灰度共生矩陣描述方法是基于在紋理中某一灰度級結(jié)構(gòu)重復(fù)出現(xiàn)的情況。這個結(jié)構(gòu)在精細(xì)紋理中隨著距離而快速地變化,而在粗糙紋理中則變化緩慢。圖2-3 灰度共生矩陣示意圖在圖2.3中設(shè)oxy為圖像像素的坐標(biāo)平面,灰度坐標(biāo)為z軸,x方向像素總數(shù)為Nx,y方向像素總數(shù)為Ny,為了避免眾多灰度級給分析帶來的龐大計算量,將圖像灰度作歸并,其最高灰度級是第Ng級。因此,可以將圖像f理解為從到的一個變換,也就是說對中的每個
8、點,對應(yīng)一個屬于的灰度。概率表示了兩個相距d、方向角相差(=0°,45°,90°,135°)的像素的灰度級分別為i和j的可能性。對于一個含有G個灰度級的紋理圖像,上述概率可以寫成一個的矩陣,該矩陣被稱為灰度共生矩陣(Gray Level Co-occurence Matrix,GLCM)。Haralick等人,提出的空間灰度級依存方法,該方法基于對一個二階聯(lián)合條件概率密度函數(shù)的估計。在灰度級共生矩陣的基礎(chǔ)上,可以計算出一組用統(tǒng)計參數(shù)來描述紋理特征。利用統(tǒng)計和結(jié)構(gòu)特征,設(shè)計了一組16個紋理特征,而且定義了紋理同類基元子區(qū)域間的距離。一幅圖像的灰度共生矩陣反
9、映了圖像灰度關(guān)于方向、相鄰間隔、變化幅度的綜合信息,是分析圖像的局部特征和排列規(guī)律的基礎(chǔ)。對于粗紋理的區(qū)域,共生矩陣的元素值集中在對角線附近,而對于細(xì)紋理的區(qū)域,共生矩陣的元素值將離開主對角線向外散開。由此可以進(jìn)一步描述圖像紋理的一系列特征。根據(jù)共生矩陣,可以定義熵(Entropy)、對比度(Contrast)、能量(Energy)、相關(guān)(Correlation)、方差(Variance)等16種用于提取圖像中紋理信息的特征統(tǒng)計量。由于篇幅關(guān)系,僅介紹用到的能量、對比度、相關(guān)性和同質(zhì)性四種特征量。(1) 能量: (2-1)ASM(Angular Second Moment)也稱角二階矩。是灰度
10、共生矩陣元素值的平方和,所以也稱能量,反映了圖像灰度分布均勻程度和紋理粗細(xì)度。如果共生矩陣的所有值均相等,則ASM值小;相反,如果其中一些值大而其它值小,則ASM值大。當(dāng)共生矩陣中元素集中分布時,此時ASM值大。ASM值大表明一種較均一和規(guī)則變化的紋理模式。(2) 對比度: (2-2)反映了圖像的清晰度和紋理溝紋深淺的程度。紋理溝紋越深,其對比度越大,視覺效果越清晰;反之,對比度小,則溝紋淺,效果模糊。灰度差即對比度大的象素對越多,這個值越大。灰度共生矩陣中遠(yuǎn)離對角線的元素值越大,對比度越大。(5)相關(guān)性: (2-3)其中,當(dāng)圖像的局部有較小的方差時,則灰度值占有支配地位,當(dāng)圖像的局部有較大的
11、方差時,則紋理占有支配地位。紋理是和局部灰度及其空間組織相聯(lián)系的,紋理在識別感興趣的目標(biāo)和地區(qū)中有著非常重要的作用。(4)同質(zhì)性 (2-4)同質(zhì)性是圖像局部灰度均勻性的度量。如果圖像局部的灰度均勻,同質(zhì)性的取值就較大。1.3.2 邊緣LBP直方圖特征LBP算子是一種灰度范圍內(nèi)的紋理度量,它從一種紋理局部近鄰定義中衍生出來,最初是由ojala18等人為了輔助性地度量圖像的局部對比度而提出的。假設(shè)圖像的局部紋理T的分布可假設(shè)認(rèn)為是局部區(qū)域內(nèi)象素灰度的聯(lián)合分布密度。 (2-5)其中,表示鄰域關(guān)系中的中心像素的灰度值,為P個周等距離分布于以中心像素為圓心,半徑為R的圓周上的灰度值,如圖2-4所示。其中
12、的參數(shù)分別為P=8,R=1.0;P=8,R=2.0;P=12,R=2.5。圖2-4 LBP算子不同P、R值示意圖由于只是描述了整個圖像的亮度分布情況,而跟圖像的局部紋理無關(guān),因而可以忽略其對于整個分布的影響。如果僅考慮的符號,我們可以發(fā)現(xiàn),它對局部紋理的描述具有對均勻亮度變化的不變性,而不僅僅是對灰度范圍內(nèi)的平移具有不變性。因此在假設(shè)中心像素點和周邊像素點的差值獨立于中心像素點的假設(shè)下,公式可以近似為:, 其中為符號函數(shù) (2-6)如果為每個分配一個權(quán)值,則可以得到唯一的LBP編碼,如下式 (2-7)考察LBP的定義,發(fā)現(xiàn)可以產(chǎn)生種不同輸出,對應(yīng)了局部近鄰集中P個象素形成的個不同的二進(jìn)制模式。
13、以P=8,R=1為例,將會生成256種輸出。很顯然,如果圖像發(fā)生旋轉(zhuǎn),那么中心象素點的輸出值自然會有所變化,為了消除圖像旋轉(zhuǎn)產(chǎn)生的影響,Ojala等又引入了統(tǒng)一化的LBP描述方式: (2-8)其中數(shù)字圖像經(jīng)過上述LBP算子運算后,就可以得到變換以后的圖像,再對變換以后的圖像進(jìn)行直方圖統(tǒng)計,就得到了LBP直方圖的表示形式。前面已經(jīng)提到,由于LBP可以將圖像中的微小特征量化為LBP表示的模式,因此直方圖統(tǒng)計的物理意義在于直方圖向量描述了圖像中各個微小特征分布情況。本文選取的LBP特征為32維向量。1.3.3 輪廓不變矩矩在統(tǒng)計學(xué)中常用于表征隨機(jī)量的分布,而在力學(xué)中用于表征物質(zhì)的空間分布。若把二值圖
14、或灰度圖看作是一維密度分布函數(shù),就可把矩技術(shù)應(yīng)用于圖像分析中。從一幅數(shù)字圖像中計算出來的矩集,通常描述了該圖像形狀的全局特征,并提供了大量的關(guān)于該圖像不同類型的幾何特征信息。矩是一種全局不變量,它對噪聲不太敏感,另外,它不管目標(biāo)是否封閉,都能較好的識別目標(biāo)。直接用原點矩或中心矩作為圖像的特征,不能保證特征同時具有平移、旋轉(zhuǎn)和比例不變性。事實上,如果僅用中心矩表示圖像的特征,則特征僅具有平移不變性:如果利用歸一化中心矩,則特征不僅具有平移不變性,而且還具有比例不變性,但不具有旋轉(zhuǎn)不變性。看來,要同時具有平移、旋轉(zhuǎn)和比例變換不變性,直接使用原點矩或中心矩是不行的。為此, Hu首先提出了Hu不變矩1
15、9,他給出了連續(xù)函數(shù)矩的定義和關(guān)于矩的基本性質(zhì),證明了有關(guān)矩的平移不變性、旋轉(zhuǎn)不變性以及比例不變性等性質(zhì),具體給出了具有平移不變性、旋轉(zhuǎn)不變性和比例不變性的七個不變矩的表達(dá)式。七個不變矩由二階和三階中心矩的線性組合構(gòu)成: (2-9)其中低階矩主要描述圖像的整體特征,如面積、主軸和方向角等;高階矩主要描述圖像的細(xì)節(jié),如扭曲度、峰態(tài)等。1.3.4 外形特征為了得到目標(biāo)在不同形態(tài)的特征,需要在訓(xùn)練中將不同的目標(biāo)姿態(tài)加到相應(yīng)的模板庫中。以人體為例,為了使不同的人、人的影子、人群被較精確的識別出來,需要列出盡可能多的人體姿態(tài)。假設(shè)我們訓(xùn)練中采用的直立姿態(tài)的人體,那么呈坐姿的人可能會被分到錯誤的類別。同樣
16、,不同角度看到的車輛形態(tài)也各不相同。因此需要建立有效的外形特征來表征該類目標(biāo)的不同形態(tài)20。在此假設(shè)目標(biāo)的輪廓存在順時針方向的n個點,為目標(biāo)的質(zhì)心,則距離函數(shù)可以由下式得到: (2-10)其中函數(shù)為兩個點之間的歐式距離。由于不同的目標(biāo)有不同的形狀,也存在不同的大小,相同的目標(biāo)的輪廓在幀與幀之間也存在差異。為了比較不同大小的目標(biāo),使得目標(biāo)的比較矩陣保持尺度不變性,可以通過下采樣和超采樣來得到定尺寸的距離函數(shù): (2-11)在下一步中,尺度距離被歸一化到積分和區(qū)域。歸一化后的距離函數(shù)為 (2-12)圖2-5行人的輪廓及輪廓距離信號1.3.5 其他特征其他本文用到的特征為目標(biāo)區(qū)域的密度,為區(qū)域的周長
17、的平方除以區(qū)域面積。另外用到的特征為擬合橢圓的三個參數(shù):長短軸比率,占空比和主軸角度。1.4 隨機(jī)森林算法及步驟隨機(jī)森林(Random Forest, RF) 是Breiman提出的一個分類器融合算法21, 可以很好地解決多類分類問題。其基本思想是將很多弱分類器集成為一個強(qiáng)分類器。隨機(jī)森林是組合分類器中的一種,其原理是通過自助法重抽樣術(shù),生成很多個樹分類器,其中是獨立同分布的隨機(jī)向量,每個樹分類器進(jìn)行一次投票并且結(jié)果按得票多少而定, 圖2-6 隨機(jī)森林方法隨機(jī)森林是按照生成一個分類樹的規(guī)則生成多個分類樹。不過生成分類樹的規(guī)則與傳統(tǒng)的分類樹生成方式有差異。生成隨機(jī)森林的步驟是:1從原始訓(xùn)練數(shù)掘中
18、生成k個自助樣本集。每個自助樣本集是每棵分類樹的全部訓(xùn)練數(shù)據(jù)。2每個自助樣本集生長為單棵分類樹。在樹的每個節(jié)點處,從M個特征中隨機(jī)挑選m個特征(),通常假設(shè)。按照節(jié)點不純度最小的原則挑選,從這m個特征中選出一個特征進(jìn)行分支生長。這棵分類樹充分生長。使每個節(jié)點的不純度達(dá)到最小,不進(jìn)行剪枝操作。3根據(jù)生成的多個樹分類器對新的數(shù)據(jù)進(jìn)行預(yù)測,分類結(jié)果按每個樹分類器的投票多少而定。每次抽樣生成自助樣本集,全體樣本中不在自助樣本中的剩余樣本稱為袋外數(shù)據(jù)(out-of-bag,OOB),每次抽樣后大約剩余13的樣本,OOB數(shù)據(jù)可以用來預(yù)測分類正確率,每次的預(yù)測結(jié)果進(jìn)行匯總來得到錯誤率的OOB估計,以測試樣本
19、來評估組合分類器的分類效果。隨機(jī)森林通過在每個節(jié)點處隨機(jī)選擇特征進(jìn)行分支,最小化了各棵分類樹之問的相關(guān)性,提高了分類精確性。因為生成每棵樹的速度很快,所以隨機(jī)森林的分類速度很快,并且很容易實現(xiàn)并行化。由于該模型訓(xùn)練過程中存在一組隨機(jī)向量,, ,在訓(xùn)練中就是要最大可能的離散化隨機(jī)森林從而減少泛化誤差。在分類階段,類標(biāo)簽是由所有決策樹的分類結(jié)果綜合而成,也即由每個分類樹投票和概率平均得到。對于測試樣例,預(yù)測類標(biāo)簽可以得到: (2-13) (2-14)其中為森林中決策樹的數(shù)目,為示性函數(shù),為樹對類別C的分類結(jié)果,是樹的葉子節(jié)點數(shù),是森林中棵決策樹的權(quán)重。本文中,我們采用投票的方式?jīng)Q定類標(biāo)簽,即測試集
20、在森林中的每棵樹都遍歷一遍,記錄下每棵樹對每個目標(biāo)的分類結(jié)果,目標(biāo)的最終類標(biāo)簽就是得票超過事先給定閾值的那些類。表 2-1 隨機(jī)森林算法的步驟Step 1 建立向量模型。采用給定的權(quán)重計算方法,所有的訓(xùn)練和測試樣本提取2.4.1中使用的特征向量表示。Step 2如在訓(xùn)練集S中存在N個樣本,使用Bagging算法從S 中抽出N個樣本作為建立第i棵樹的訓(xùn)練集,建立決策樹。 Step 3 如果有個特征,隨機(jī)抽取個特征,并在這特征中選取分類效果最好的特征作為該節(jié)點的分裂屬性。 Step 4 根據(jù)特征將節(jié)點分成兩個分支,再分別遞歸調(diào)用建立決策樹的過程的各個分支,知道這棵樹能夠準(zhǔn)確分類,或者所有特征都已被
21、使用過。 Step 5 循環(huán)步驟2-4,直到建立了棵決策樹。 Step 6 將測試樣本作為訓(xùn)練得到模型的輸入,最終由投票決定各個實例的類標(biāo)簽。1.5 目標(biāo)分類設(shè)計訓(xùn)練中的樣本標(biāo)定規(guī)則為:沒有影子的單人劃分為單人(P:People);沒有明顯影子的單人劃分為單人或影子(PS:People Shadow);沒有明顯影子的人群劃分為人群(PG:People Group);帶有明顯影子的人群劃分為人群或影子(PGS:People Group Shadow);帶影子及不帶影子的車輛均劃分為車(V:Vehicle)。采用的訓(xùn)練樣本集數(shù)量如下:表 2-2 樣本訓(xùn)練集合類別PeopleVehiclePeopl
22、e groupPeople shadowPeople group shadow采樣數(shù)30704263253034182936分類器的設(shè)計如下圖所示:圖2-7 視頻中目標(biāo)的分類樹設(shè)計每個分類器的樣本的假陽率和假陰率如下表所示:表2-3 訓(xùn)練中的分類統(tǒng)計分類器I行人車輛分類器II單人人群采樣數(shù)8/61240/1040采樣數(shù)87/340375/2723假陰率0.13%0%假陰率2.56%2.75%假陽率0%0.13%假陽率2.75%2.56%分類器III行人人和影子分類器IV人群人群和影子采樣數(shù)0/13864/2017采樣數(shù)5/16171/1106假陰率0%0.198%假陰率0.31%0.09%假陽
23、率0.198%0%假陽率0.09%0.31%二、實驗設(shè)計及結(jié)果分析算法的實現(xiàn)使用的是C+和OpenCV處理庫,樣本庫和測試庫均來自自行采集的攝像機(jī)片段,拍攝場景為室外的樓宇俯拍路側(cè),用來模擬視頻監(jiān)控獲取的檢測數(shù)據(jù)。場景中存在人、車、及人群等目標(biāo)物體。2.1 分類測試結(jié)果對測試數(shù)據(jù)庫I進(jìn)行測試后,發(fā)現(xiàn)主要的錯誤為人和人群兩類、人影子和人群影子兩類的誤判,此兩類均為類別臨界分類錯誤。分類的難點在于區(qū)分單人和多人,有無影子比較好區(qū)分。表2-4 測試庫I的分類統(tǒng)計類別P ErrV ErrPG ErrPS ErrPGS ErrTotal ErrTestP482501842V111039PG3442165
24、61471PS101939681975PGS1531371106對于測試庫II,發(fā)現(xiàn)其中的主要錯誤為人識別為人影,人群影子識別為人群。這是由于人工標(biāo)定是模糊類別樣本的劃分及標(biāo)注錯誤導(dǎo)致。另外的錯誤是人群識別為人或人影,這是由于類別臨界錯誤分類和特殊樣本沒有相似訓(xùn)練樣本造成的。表2-5 測試庫II的分類統(tǒng)計類別P ErrV ErrPG ErrPS ErrPGS ErrTotal ErrTestP1572871312V01307PG1931655660PS11817PGS19932028652.2 視頻測試結(jié)果視頻測試在分辨率為640*480的情況下,檢測和分類的結(jié)果可以實現(xiàn)實時的檢測和分類,圖2
25、-8為實驗中數(shù)據(jù)的截圖,左側(cè)圖像為輸出的檢測識別圖像,右側(cè)為背景減除后的運動區(qū)域。在背景減除較好的情況下,目標(biāo)的識別率可以達(dá)到96%,測試幀速為20幀左右,可以實現(xiàn)實時的分類識別。 (a)(b)(c)圖2-8 實驗中采用的視頻測試片段截圖三、總結(jié)視頻監(jiān)控圖像中經(jīng)常會存在多種運動目標(biāo),單一的目標(biāo)訓(xùn)練和識別方法通常只能處理圖像中的某種特定目標(biāo),而對于智能視頻監(jiān)控系統(tǒng)而言,通常要研究不同類別之間的目標(biāo)的行為,這就對同一圖像中的多類目標(biāo)識別提出了更高的要求。本文采用了基于多種特征融合的運動目標(biāo)特征提取方法,采用隨機(jī)森林的方法進(jìn)行多類別目標(biāo)的學(xué)習(xí)分類,實現(xiàn)了實時的視頻圖像中行人和車輛的識別,達(dá)到了較高的
26、性能指標(biāo)。另外,目前的分類識別方法還存在一些問題。主要是類別臨界樣本錯誤分類的問題,這也需要在下一步的研究中提高特征的表征能力優(yōu)化分類器的性能以降低錯誤率。另外,由于樣本的多樣性,算法在不同季節(jié)獲得的測試視頻中的性能也有較大差別,還需針對多不明顯不同的場景拍攝視頻采集樣本,采用不同攝像機(jī)在多個時段采集樣本,增加樣本的多樣性。本章參考文獻(xiàn)1 Lowe D. Distinctive image features from scale-invariant keypoints. International Journal on Computer Vision. 2004. vol. 60(2), p9
27、1-1102 G.Mori and J.Malik. Estimating human body congurations using shape context matching. Workshop on Models versus Exemplars in Computer Vision, CVPR, 2001.3 S.Ullman, E.Sali, and M.Vidal-Naquet. A fragment based approach to object representation and classication. In 4th International Workshop on
28、 Visual Form, Capri, Italy, May ,2001.4 D.M.Gavrila, J.Giebel, and S.Munder. Vision-based pedestrian detection: the PROTECTOR+ System.In Proc. Of the IEEE Intelligent Vehicles Symposium, Parma, Italy, 2004.5 R. Ronfard,C. Schmid, and B. Triggs. Learning to parse pictures of people. In Proceedings of
29、 the 7th European Conference on Computer Vision, Copenhagen, Denmark, volume 4, 700714, 2002.6 K. Mikolajczyk, C. Schmid, and A. Zisserman. Human detection based on a probabilistic assembly of robust partdetectors. In Proceedings of the 8th European Conference on ComputerVision, volume1, pages6981,
30、2004.7 C.Papageorgiou and T. Poggio. A trainable system for object detection. International Journal of Computer Vision, 38(1): 1533,2000.8 A. Mohan, C. Papageorgiou, and T.Poggio. Example-based object detection in images by components. IEEE Transactions on Pattern Analysis and Machine Intelligence,
31、23(4):349361,April 2001.9 G. Dorko and C. Schmid. Selection of scale-invariant parts for object class recognition. In Proceedings of the 9th International Conferenceon Computer Vision, Nice,France,volume1,pages 634640,2003.10 P. Viola and M. Jones. Rapid object detection using a boosted cascade of s
32、imple features. In Proceedings of the Conferenceon Computer Vision and Pattern Recognition, Kauai, Hawaii,USA, volume I, 511518, 2001.11 P. Viola and M. J. Jones. Robust real-time face detection. International Journal of Computer Vision, 57(2): 137154, 2004.12 P. Viola, M. J. Jones, and D. Snow. Det
33、ecting pedestrians using patterns of motion and appearance. In Proceedings of the 9th International Conference on Computer Vision,Nice,France, volume1, pages 734741,2003.13 A. Opelt, M. Fussenegger, A. Pinz, and P. Auer. Weak hypotheses and boosting for generic object detection and recognition. In P
34、roceedings of the 8th European Conference on Computer Vision, volume II, pages7184, 2004.14 H. Schneiderman and T. Kanade. A statistical method for 3D object detection applied to faces and cars. In Proceedings of the Conference on Computer Vision and Pattern Recognition, volumeI, 746751,2000.15 H.Schneid
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 社會傾向測試題及答案
- 領(lǐng)導(dǎo)遴選面試題及答案
- 人格教學(xué)課件
- 第七章 我們生活的大洲-亞洲(復(fù)習(xí)課件)七年級地理下學(xué)期期末復(fù)習(xí)(人教2024版)
- 桂林學(xué)院《醫(yī)學(xué)科研方法與訓(xùn)練》2023-2024學(xué)年第二學(xué)期期末試卷
- 紹興職業(yè)技術(shù)學(xué)院《舞蹈教育學(xué)》2023-2024學(xué)年第二學(xué)期期末試卷
- 荊楚理工學(xué)院《形式與政策1》2023-2024學(xué)年第二學(xué)期期末試卷
- 石家莊科技職業(yè)學(xué)院《流體力學(xué)英》2023-2024學(xué)年第二學(xué)期期末試卷
- 驗收表3.27 沉管砂石樁法地基處理單元工程施工質(zhì)量驗收表
- 人教版高中英語必修第三冊UNIT 1 FESTIVALS AND CELEBRATIONS Section Ⅳ課件
- 大學(xué)化學(xué)考試分子動力學(xué)試題及答案
- 2024版國開電大法學(xué)本科《國際私法》在線形考(任務(wù)1至5)試題及答案
- 2025年下半年南京大數(shù)據(jù)集團(tuán)限公司工作人員招聘易考易錯模擬試題(共500題)試卷后附參考答案
- 妊娠合并乙肝護(hù)理查房
- 2025-2030中國凱夫拉面料市場營銷策略及發(fā)展趨勢研究研究報告
- 麻精藥品管理培訓(xùn)
- 2024年小升初試卷及答案
- 2025年教師招聘考試教育綜合知識復(fù)習(xí)資料
- 工程調(diào)價協(xié)商函
- 教科版小學(xué)四年級科學(xué)下冊復(fù)習(xí)教案
- 《全斷面巖石掘進(jìn)機(jī)法水工隧洞工程技術(shù)規(guī)范(SLT 839-2025)》知識培訓(xùn)
評論
0/150
提交評論