日韩成人黄色,透逼一级毛片,狠狠躁天天躁中文字幕,久久久久久亚洲精品不卡,在线看国产美女毛片2019,黄片www.www,一级黄色毛a视频直播

基于k-l變換和核相關(guān)系數(shù)的人臉圖像中眼睛定位方法

文檔序號(hào):6557160閱讀:508來(lái)源:國(guó)知局
專利名稱:基于k-l變換和核相關(guān)系數(shù)的人臉圖像中眼睛定位方法
技術(shù)領(lǐng)域
本發(fā)明涉及圖像處理和模式識(shí)別技術(shù),特別是一種能夠?qū)θ四槇D像中眼睛進(jìn)行定位的基于K-L變換和核相關(guān)系數(shù)的人臉圖像中眼睛定位方法。
背景技術(shù)
眼睛定位技術(shù)可以應(yīng)用到疲勞駕駛檢測(cè)、醫(yī)學(xué)檢查、視頻會(huì)議和視覺制導(dǎo)等軍民兩用領(lǐng)域中。且該技術(shù)的應(yīng)用所體現(xiàn)出的經(jīng)濟(jì)價(jià)值和社會(huì)價(jià)值越來(lái)顯著,比如疲勞駕駛檢測(cè),可以大大降低惡性交通事故的發(fā)生率;視覺制導(dǎo)系統(tǒng),可以提高武器系統(tǒng)的效能。目前, 定位人眼的方法大致可以分為三種基于圖像分割技術(shù)、基于模式識(shí)別技術(shù)和基于模板匹配技術(shù)的人眼定位方法?;趫D像分割的定位方法有Ostu法(最大類間方差法)和最大熵分割法等;基于模式識(shí)別技術(shù)的方法有人工神經(jīng)網(wǎng)絡(luò)定位法、特征眼法和SVM(支持向量機(jī)) 定位法等;基于模板匹配技術(shù)的方法最常用的是相關(guān)系數(shù)法。模板匹配法是較為簡(jiǎn)單有效的一種定位方法,它需要解決兩個(gè)問(wèn)題,首先需要確定一個(gè)較為可靠的模板,其次要有一種度量匹配程度的方法。利用傳統(tǒng)的模板匹配法定位人眼,直接使用人眼圖像作為模板(灰度模板),將相關(guān)系數(shù)用作匹配程度的度量。這種檢測(cè)方法會(huì)面臨兩個(gè)問(wèn)題,模板的選擇比較困難,一個(gè)人的眼睛模板(圖像)只能與同一個(gè)人的眼睛進(jìn)行匹配,檢測(cè)其他人眼睛的效果差,泛化能力較弱,且對(duì)光照、噪聲等影響因素較為敏感;此外,傳統(tǒng)的相關(guān)系數(shù)是兩個(gè)向量的線性相關(guān),而圖像具有較強(qiáng)的非線性和非高斯性,用線性相關(guān)系數(shù)度量匹配程度,效果不能令人滿意。

發(fā)明內(nèi)容
本發(fā)明所要解決的技術(shù)問(wèn)題是針對(duì)現(xiàn)有技術(shù)中模板匹配在人眼定位中存在的不足,提供一種具有更高的準(zhǔn)確性的基于K-L變換和核相關(guān)系數(shù)的眼睛定位方法。為實(shí)現(xiàn)上述目的,本發(fā)明提出一種新的相關(guān)方法——核相關(guān)系數(shù)法,來(lái)度量匹配程度。核相關(guān)系數(shù)來(lái)自于核方法(Kernel method)的啟發(fā),在核方法中(K.-R. Muller, S. Mika, G. Ratsch, K. Tsuda, and B. Scholkopf, "An Introduction to Kernel-Based Learning Algorithms, ” IEEE Transaction on Neural Networks, vol. 12,no. 2,pp. 181-201,2001·),向量 I、7 通過(guò)函數(shù) m被映射到高維特征空間,成為高維特征向量和Φ( ,而在高維特征空間中的內(nèi)積K= Φ(Χ)· Φ(Γ)可以用核函數(shù)f =材= Φ(Ι)·Φ(Γ)來(lái)計(jì)算,其中最常用的核函數(shù)
是高斯核函數(shù)#1力=—(-|#-7||2/2<72),σ為可調(diào)參數(shù)。傳統(tǒng)的相關(guān)系數(shù)法,計(jì)
X-YX-Y
算向量^^/的線性相關(guān)系數(shù)的公式為戶^^!^^廣^^^^^ ,將ρ、7通過(guò)映射函數(shù)Φ 映射到高維特征空間后,在高維特征空間中的向量和φ(7)的相關(guān)系數(shù)為
權(quán)利要求
1.一種基于K-L變換和核相關(guān)系數(shù)的人臉圖像中眼睛定位方法,其特征在于首先構(gòu)建眼睛模板庫(kù),生成訓(xùn)練矩陣;對(duì)訓(xùn)練矩陣進(jìn)行K-L變換,獲取基向量和特征值,并選取主要基向量,將每個(gè)眼睛訓(xùn)練樣本投影到主要基向量上,獲得眼睛樣本的投影系數(shù)向量;以投影系數(shù)向量作為模板,以核相關(guān)系數(shù)作為匹配程度的度量,在人臉圖像中進(jìn)行左眼和右眼的模板匹配;最后,最大核相關(guān)系數(shù)的位置,確定為眼睛位置。
2.根據(jù)權(quán)利要求1所述的人臉圖像中眼睛定位的方法,其特征在于,構(gòu)建眼睛模板庫(kù)的具體步驟如下(1)建立人臉圖像庫(kù);創(chuàng)建人臉樣本庫(kù),對(duì)不同的人,在不同光照條件、不同表情條件下獲取《幅人臉圖像,作為提取人眼的樣本圖像,并統(tǒng)一取人臉圖像的分辨率為 HxW (2)建立眼睛模板庫(kù);從人臉樣本圖像中,截取眼睛圖像,為了便于更多的保留眼睛的特征,截取的眼睛圖像中應(yīng)包括眉毛、上眼瞼、下眼瞼和眼角,按左、右眼歸類,并統(tǒng)一為相同的分辨率Axw ,構(gòu)建含有/7個(gè)左眼圖像和/7個(gè)右眼圖像的眼睛模板庫(kù)。
3.根據(jù)權(quán)利要求1所述的人臉圖像中眼睛定位的方法,其特征在于,生成訓(xùn)練矩陣的具體步驟如下(1)生成眼睛模板向量;將截取的眼睛模板圖像,按列與列首尾相接,分別構(gòu)成《個(gè)左眼和/7個(gè)右眼Axw維訓(xùn)練模板向量,設(shè)第左個(gè)左、右眼訓(xùn)練模板向量分別為咬和G , k = ;(2)構(gòu)建訓(xùn)練矩陣;將左、右眼訓(xùn)練模板的向量作為行,分別構(gòu)造左、右眼訓(xùn)練矩陣Ai1 和iT。
4.根據(jù)權(quán)利要求1所述的人臉圖像中眼睛定位的方法,其特征在于,對(duì)訓(xùn)練矩陣進(jìn)行 K-L變換,獲取基向量和特征值,其具體步驟是對(duì)生成的左眼、右眼訓(xùn)練矩陣,分別進(jìn)行 K-L變換,得到左、右眼訓(xùn)練矩陣的基向量和特征值,并將基向量按相應(yīng)的特征值從大到小排列。
5.根據(jù)權(quán)利要求4所述的人臉圖像中眼睛定位的方法,其特征在于,選取主要基向量的具體步驟是將排列好的基向量,選擇前、《『個(gè)基向量分別作為左眼和右眼的主要基向量,其對(duì)應(yīng)的特征值之和大于所有特征值之和的98%。
6.根據(jù)權(quán)利要求5所述的人臉圖像中眼睛定位的方法,其特征在于,獲得眼睛樣本的投影系數(shù)向量的具體步驟是將《個(gè)左眼、個(gè)右眼訓(xùn)練模板向量分別投影到左、右眼的W、乂個(gè)主要基向量上,得到每個(gè)眼睛的投影系數(shù)向量勻和Cl,邊和q分別為W維和?^維向量。
7.根據(jù)權(quán)利要求1或6所述的人臉圖像中眼睛定位的方法,其特征在于,以投影系數(shù)向量作為模板的具體方法是分別以左眼和右眼的投影系數(shù)向量“和Cl為模板向量,作為模板匹配的模板。
8.根據(jù)權(quán)利要求1所述的人臉圖像中眼睛定位的方法,其特征在于,以核相關(guān)系數(shù)作為匹配程度的度量的具體方法為計(jì)算向量的核相關(guān)系數(shù)公式為
9.根據(jù)權(quán)利要求1所述的人臉圖像中眼睛定位的方法,其特征在于,在人臉圖像中進(jìn)行左眼和右眼的模板匹配,具體步驟為(1)獲取人臉正面圖像,將圖像以中軸線為界,分為左臉圖像和右臉圖像兩部分,左臉圖像包含左眼,右臉圖像包含右眼;(2)以高為力、寬為『的滑動(dòng)窗口,在右臉圖像每一個(gè)像素位置上剪切子圖像A(U), (U)為像素坐標(biāo),子圖像的分辨率為力X『;(3)將子圖像轉(zhuǎn)換為AXr維向量,并將其投影到右眼的W個(gè)主要基向量,得到 i維投影系數(shù)向量C;(4)由核相關(guān)系數(shù)得到子圖像iM.y)與右眼模板的匹配程度,求向量σ 和 cr 的核相關(guān)系數(shù)為:
10.為減小計(jì)算量,在確定右眼中心位置后,利用左、右眼的對(duì)稱性縮小搜索范圍,只在左臉圖像的右眼對(duì)稱位置的鄰域內(nèi)搜索目標(biāo),該鄰域?yàn)橐訮— W和
全文摘要
本發(fā)明涉及一種人臉圖像中眼睛定位的方法,它包括以下步驟首先構(gòu)建眼睛模板庫(kù),生成訓(xùn)練矩陣;對(duì)訓(xùn)練矩陣進(jìn)行K-L變換,獲取基向量和特征值,并選取主要基向量,將每個(gè)眼睛訓(xùn)練樣本投影到主要基向量上,得到投影系數(shù)向量;以投影系數(shù)向量作為模板,以核相關(guān)系數(shù)進(jìn)行匹配程度的度量,在人臉圖像中進(jìn)行左眼和右眼的模板匹配;最后,最大核相關(guān)系數(shù)的位置,確定為眼睛位置。本發(fā)明通過(guò)K-L變換,將眼睛訓(xùn)練樣本在基向量上的投影系數(shù)作為匹配模板,具有更好的泛化能力。本發(fā)明通過(guò)核相關(guān)系數(shù)來(lái)度量被測(cè)對(duì)象和模板的匹配程度,其匹配的精度更高,且目標(biāo)的顯著度更高。
文檔編號(hào)G06K9/62GK102194110SQ201110155309
公開日2011年9月21日 申請(qǐng)日期2011年6月10日 優(yōu)先權(quán)日2011年6月10日
發(fā)明者劉強(qiáng), 劉瑞明 申請(qǐng)人:淮海工學(xué)院
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1