亚洲欧美日本韩国_久久久久亚洲AV片无码V_亚洲AV片不卡无码一_H漫全彩纯肉无码网站

 
 
當前位置: 首頁 » 新聞資訊 » 廠商 » 正文

關(guān)于機器視覺的一些專業(yè)知識_91化工儀器網(wǎng)

分享到:
放大字體  縮小字體    發(fā)布日期:2019-09-02  來源:儀器信息網(wǎng)  作者:Mr liao  瀏覽次數(shù):279
核心提示:1引言 步態(tài)識別技術(shù)是一種新興的生物特征測量技術(shù)。 指出,步態(tài)特征具有*性,可以利用人體步態(tài)特征進行身份識別?;谌梭w的步態(tài)行為特征進行識別,可以在一定程度上克服傳統(tǒng)識別技術(shù)的不足,近年來逐漸被廣泛關(guān)注。 步態(tài)識別方法可分為基于統(tǒng)計特征和基于模型兩類?;诮y(tǒng)計的方法直接從圖像序列中提取相應(yīng)統(tǒng)計參數(shù),作為對象分類識別的特征指標,如Huang等人[2]基于光流特征提出的主元分析法和線性判決方法混合變換,以及Wang等人[3]提出的基于輪廓的解卷繞識別方法等;而基于模型的方法則重點關(guān)注人的運動信息,預(yù)先建立人體

1引言

步態(tài)識別技術(shù)是一種新興的生物特征測量技術(shù)。

指出,步態(tài)特征具有*性,可以利用人體步態(tài)特征進行身份識別。基于人體的步態(tài)行為特征進行識別,可以在一定程度上克服傳統(tǒng)識別技術(shù)的不足,近年來逐漸被廣泛關(guān)注。

步態(tài)識別方法可分為基于統(tǒng)計特征和基于模型兩類?;诮y(tǒng)計的方法直接從圖像序列中提取相應(yīng)統(tǒng)計參數(shù),作為對象分類識別的特征指標,如Huang等人[2]基于光流特征提出的主元分析法和線性判決方法混合變換,以及Wang等人[3]提出的基于輪廓的解卷繞識別方法等;而基于模型的方法則重點關(guān)注人的運動信息,預(yù)先建立人體模型,通過模型和圖像序列的匹配獲得模型參數(shù),再利用這些參數(shù)作為步態(tài)特征進行分類,Lee等人[4]采用7個橢圓來匹配運動人體的二值化輪廓的不同的身體部位,然后提取橢圓的29個矩特征來分析、Yoo等人[5]根據(jù)解剖學(xué)的知識,進行軀體的拓撲分析,將人體的運動外輪廓簡化為一種2D的stick模型。

目前,兩類方法各自存在著一些缺點:基于統(tǒng)計的步態(tài)識別方法對背景和光照信號的變化敏感,且難以回避運動場景中的遮擋現(xiàn)象對識別能力所造成的嚴重影響;而基于模型的步態(tài)識別方法將整個步態(tài)序列的每幀單獨看待,損失了步態(tài)周期的有機整體性。文獻[6]指出身體的動態(tài)信息主要表現(xiàn)為大腿和小腿的擺動規(guī)律,因此可以在建立人體模型時作一些簡化。

針對上述問題,本文提出了一種基于關(guān)節(jié)角度信息的步態(tài)識別算法:將腿部輪廓邊界采用線段模型近似,并用zui小二乘法擬合,計算出大腿和小腿的關(guān)節(jié)角度;考慮到步態(tài)運動的準周期性,將關(guān)節(jié)角度時序信息按傅利葉級數(shù)形式展開,利用遺傳算法搜索出各次諧波的系數(shù),對各次諧波的幅度值進行尺度標準化,由此構(gòu)成特征向量進行步態(tài)的分類識別。

2腿部關(guān)節(jié)角度信息提取

2.1運動人體輪廓提取

采用背景消減法來提取運動目標。先計算出背景圖像和當前圖像的差值,再對差值圖像進行二值化,得到二值圖像,如圖1(a),(b),(c)所示。對上述二值圖像做進一步的后處理。zui終提取出來的人體輪廓如圖1(d)所示。由于采用背景消減法是運動目標檢測的常用方法,限于篇幅,在此我們就不贅述了。

2.2運動人體腿部建模

文獻[5]中的Stick模型把人體看成是由若干剛體構(gòu)件組成的機構(gòu),并在該假設(shè)下將運動人體骨骼化為一組服從特定連接順序的線段,且每條線段都具有一定的轉(zhuǎn)動靈活性?;谶\動學(xué)分析的步態(tài)識別研究,采用各關(guān)節(jié)角度的時序變化來描述人體步態(tài)行為。在Stick模型中關(guān)節(jié)角度可定義為相應(yīng)線段與給定軸線之間的夾角??紤]到腿部運動是步態(tài)的主要組成部分,本文對Stick模型進行簡化,僅對運動人體的大腿和小腿進行局部建模分析。即由輪廓圖像生成腿部線段,獲得大腿和小腿的關(guān)節(jié)角度信息。

2.3腿部關(guān)節(jié)角度提取

運用邊界搜索檢測出輪廓圖像中的大腿(或小腿)邊界。采用線性zui小二乘法對人體輪廓圖像中的大腿(或小腿)邊界進行線段擬合,將擬合結(jié)果作為本文模型中大腿(或小腿)的對應(yīng)線段。設(shè)擬合出來的線段所在直線為:

則大腿(或小腿)對應(yīng)關(guān)節(jié)角度

為:

對序列輪廓圖像依次進行上述處理,即提取出了大腿和小腿關(guān)節(jié)角度的時序信息。

3腿部特征信號提取

3.1步態(tài)信號周期性

Murray[1]的步態(tài)研究表明步態(tài)運動具有準周期性的特點。文獻[7]使用自相似圖表確定步態(tài)周期,本文則將zui大輪廓寬度取得極大值時對應(yīng)的圖像幀確定為步態(tài)周期的起始點。由于單個周期包含了周期信號的全部信息,本文算法選取步態(tài)序列中任意一個步態(tài)周期參與步態(tài)識別過程。

3.2遺傳算法搜索傅利葉級數(shù)系數(shù)

根據(jù)傅利葉理論,周期性連續(xù)信號可按傅利葉級數(shù)形式進行展開。例如,周期為的連續(xù)信號,可展開成下式:

式中,

為信號的直流分量,

對應(yīng)信號各次諧波的系數(shù),是zui大諧波次數(shù)。對于步態(tài)信號而言,C.Angeloni等人[8]的研究表明,正常步態(tài)的zui大頻率成分不超過5Hz,而正常步態(tài)單個周期的持續(xù)時間大約為1s,即正常步態(tài)的基波頻率為1Hz。鑒于此,本文對大腿和小腿關(guān)節(jié)角度的時序信息進行傅利葉級數(shù)展開時,均取=5。由于人體行進過程中的遮擋問題以及其它干擾因素的存在,總會出現(xiàn)某些幀的關(guān)節(jié)角度信息難以提取的情況,因此無法直接求解出各次諧波系數(shù)。

遺傳算法是模仿自然界生物進化機制發(fā)展起來的隨機全局搜索和優(yōu)化方法,它能在搜索過程中自動獲取和積累有關(guān)搜索空間的知識,并自適應(yīng)地控制搜索過程以求得zui優(yōu)(或近似zui優(yōu))解。本文采用遺傳算法來搜索各次諧波的系數(shù),本質(zhì)上是根據(jù)提取出來的有限幀關(guān)節(jié)角度,對一個步態(tài)周期內(nèi)關(guān)節(jié)角度的連續(xù)變化規(guī)律進行估計。本文選定的待優(yōu)化目標函數(shù)為:

進行多次搜索,選擇當取得zui小值時的那組系數(shù)值作為步態(tài)周期的各次諧波系數(shù)。其中N為一個步態(tài)周期內(nèi)的總圖像幀數(shù),z(t)表示由第t幀圖像得到的大腿(或小腿)關(guān)節(jié)角度值,則根據(jù)遺傳算法搜索得到的系數(shù)帶入(4)式計算得到。圖2給出了根據(jù)已知關(guān)節(jié)角度信息,采用遺傳算法估計出來的某步態(tài)周期內(nèi)大腿和小腿關(guān)節(jié)角度值的連續(xù)性時序變化過程??梢钥闯?,在關(guān)節(jié)角度值已知處,估計值具有較高的估計精度。

實驗發(fā)現(xiàn),同一個人在不同步態(tài)周期中,對應(yīng)的大腿(和小腿)關(guān)節(jié)角度時序變化的估計曲線頗為相似,而不同人對應(yīng)的估計曲線之間則存在一定的差異。圖3給出了不同人的大腿關(guān)節(jié)角度時序變化的估計曲線。

3.4生成步態(tài)特征向量

不同人正常步下步態(tài)周期的持續(xù)時間有一定差異,即便是同一個人,在不同步態(tài)模式下(如快步走與慢步走)對應(yīng)的步態(tài)周期也是不一致的。顯然,必須對遺傳算法搜索出的各次諧波系數(shù)進行尺度變換,方能實現(xiàn)準確的步態(tài)識別。本文利用傅利葉變換的尺度縮放性質(zhì),對各次諧波系數(shù)所對應(yīng)的頻率進行規(guī)一化,并將變換后所得各次諧波系數(shù)的幅度值

所組成的矢量,作為步態(tài)特征向量,用來進行步態(tài)的分類識別。

4實驗及分析

4.1步態(tài)數(shù)據(jù)庫

本文采用CarnegieMellon大學(xué)CMU步態(tài)數(shù)據(jù)庫進行實驗驗證。該數(shù)據(jù)庫共含25個人,每個人包含4種不同的步態(tài)模式:慢步走、傾斜走、快步走和抱球走,如圖4所示。每種步態(tài)模式有六個視角,則每個人對應(yīng)有24個步態(tài)視頻序列。每一個視頻序列約11秒長,幀頻率30幀/秒,圖像分辨率為640 480。

4.2實驗結(jié)果及分析

本文從CMU庫中隨機選擇了單一視角下9個人的視頻序列進行步態(tài)識別(每人有4種不同的步態(tài)模式,共計36個序列)。

實驗選擇了zui近鄰分類器和K-近鄰分類器兩種模式分類方法,使用留一校驗法對本文方法的識別率進行無偏估計。每次留出一個樣本,然后訓(xùn)練所有余下樣本。zui后,根據(jù)留出樣本與余下樣本的相似性來對被留出的樣本進行分類。表1給出了分別采用NN和3NN分類器的正確識別率。

從表1可以看出,將特征向量采用級聯(lián)方式的融合,并選用3NN分類器進行分類,可以獲得更高的識別率。特征向量級聯(lián)在一定程度上避免了由于單個關(guān)節(jié)特征數(shù)據(jù)誤差所導(dǎo)致的誤判。采用NN分類器時,對慢步走和抱球走兩種步行狀態(tài),級聯(lián)識別率相對于小腿關(guān)節(jié)識別率并沒有明顯的提高,這可能跟樣本數(shù)量有限有關(guān)。

4.3算法比較

表2列出和本文采用相同或類似規(guī)模數(shù)據(jù)庫的文獻相關(guān)算法的識別結(jié)果,具有一定的可比性,從統(tǒng)計的結(jié)果可以看出本文算法具有較高的識別率。

5結(jié)語

本文提出了一種基于關(guān)節(jié)角度信息的步態(tài)識別算法,克服了通常情況下因遮擋而無法識別的難題。并在CMU庫上對該方法進行了實驗驗證,獲得了令人滿意的識別效果。本文僅考慮了單一視角(攝像機鏡頭的主軸與人的行走方向垂直)的情況。

進一步的研究包括:提高算法的實時性和魯棒性,在更大規(guī)模的數(shù)據(jù)庫中對本文方法進行識別性能測試,并分析特征提取對視角變化的敏感性,提取對于視角與人的行走速度不敏感的步態(tài)特征。


關(guān)注本網(wǎng)官方微信 隨時閱讀專業(yè)資訊

 
 
打賞
[ 新聞資訊搜索 ]  [ 加入收藏 ]  [ 告訴好友 ]  [ 打印本文 ]  [ 違規(guī)舉報 ]  [ 關(guān)閉窗口 ]
免責聲明:
本網(wǎng)站部分內(nèi)容來源于合作媒體、企業(yè)機構(gòu)、網(wǎng)友提供和互聯(lián)網(wǎng)的公開資料等,僅供參考。本網(wǎng)站對站內(nèi)所有資訊的內(nèi)容、觀點保持中立,不對內(nèi)容的準確性、可靠性或完整性提供任何明示或暗示的保證。如果有侵權(quán)等問題,請及時聯(lián)系我們,我們將在收到通知后第一時間妥善處理該部分內(nèi)容。
 

關(guān)于機器視覺的一些專業(yè)知識_91化工儀器網(wǎng)二維碼

掃掃二維碼用手機關(guān)注本條新聞報道也可關(guān)注本站官方微信賬號:"xxxxx",每日獲得互聯(lián)網(wǎng)最前沿資訊,熱點產(chǎn)品深度分析!
 

 
0相關(guān)評論

 
国产精品乱码在线观看| а天堂中文官网| 吃奶摸下的激烈视频| 欧美aaaaaa级午夜福利视频| 99国产精品久久久蜜芽| 精品无码国产自产拍在线观看| 欧美性猛交xxxx三人| 中文字幕乱码无码人妻系列蜜桃 | 亚洲熟妇av一区二区三区漫画| 色欲狠狠躁天天躁无码中文字幕| 免费国精产品wnw2544| 18禁美女裸体网站无遮挡| 欧美成人秋霞久久aa片| 黄瓜视频在线观看网址| 少妇人妻偷人精品视蜜桃| 内射干少妇亚洲69xxx| 日韩毛片在线视频x| 国产成人亚洲综合| 国产精品a国产精品a手机版| 国产麻豆md传媒视频| 无码人妻精品一区二区三区蜜桃| 浪货趴办公桌~h揉秘书电影| 对白脏话肉麻粗话av| 国产精品久久久福利| 丝瓜视频在线观看免费| 亚洲av永久无码天堂网手机版| 人妻精品久久无码区| 中文字幕v亚洲ⅴv天堂| 高潮毛片又色又爽免费| 欧美多毛肥胖老妇做爰| 免费少妇a级毛片| 亚洲av无码专区在线电影| 国产成人精品午夜二三区波多野| 欧美日韩一区二区三区自拍| 欧美人与动人物牲交免费观看久久 | 特级毛片内射www无码| 国内自拍视频一区二区三区 | 美女扒开尿口让男人桶| 精品影片在线观看的网站| 中国女人高潮hd| 日韩av片无码一区二区不卡电影 |