本發(fā)明屬于圖像處理技術(shù)領(lǐng)域,準(zhǔn)確來(lái)說(shuō)是針對(duì)高分辨sar圖像的分類(lèi),具體是一種基于共稀疏模型的高分辨sar圖像分類(lèi)方法,應(yīng)用到sar圖像分類(lèi)領(lǐng)域。
背景技術(shù):
隨著合成孔徑雷達(dá)(syntheticapertureradar,sar)成像技術(shù)逐漸提升,sar圖像在各個(gè)領(lǐng)域的應(yīng)用越來(lái)越多,促使了進(jìn)一步研究和發(fā)展sar圖像分類(lèi)技術(shù)。由于原始sar圖像存在相干斑噪聲,使得過(guò)去傳統(tǒng)的圖像分類(lèi)方法在sar圖像分類(lèi)上不適用。sar圖像分類(lèi)可被應(yīng)用于資源探測(cè)、軍事偵察、醫(yī)學(xué)領(lǐng)域、農(nóng)作物生長(zhǎng)監(jiān)測(cè)、災(zāi)難危害評(píng)估等方面,sar圖像應(yīng)用的價(jià)值和重要性,sar圖像分類(lèi)方法也有待進(jìn)一步提高。
比較經(jīng)典的sar圖像分類(lèi)方法步驟一般分為四步:特征提取,字典學(xué)習(xí),特征編碼和分類(lèi)器分類(lèi),其中字典學(xué)習(xí)和編碼學(xué)習(xí)是近些年來(lái)著重研究的兩部分。
一般研究字典學(xué)習(xí)的重點(diǎn)是基于稀疏表示模型中的綜合模型。其實(shí)早在2011年sangnamnam等人就提出了被大家忽略的另一種稀疏表示模型:解析模型,也稱(chēng)為共稀疏解析模型(cosparseanalysismodel),并且在2013年詳細(xì)闡述其原理和算法,將其應(yīng)用于人臉圖像去噪方向,但并未用于圖像分類(lèi)方面。
2014年,sumitshekhar等人提出將共稀疏模型應(yīng)用于人臉圖像的分類(lèi),基于軟閾值方法求解最優(yōu)化問(wèn)題方法得到共稀疏系數(shù),利用了lost算法提取了圖像中各像元點(diǎn)的變換域特征,并做了人臉圖像分類(lèi)實(shí)驗(yàn)驗(yàn)證了方法的可行性,且與先前基于綜合稀疏模型實(shí)現(xiàn)人臉圖像分類(lèi)的方法進(jìn)行了對(duì)比,發(fā)現(xiàn)實(shí)現(xiàn)人臉圖像分類(lèi)的速率得到了提高。
雖然共稀疏解析模型已經(jīng)被應(yīng)用到圖像分類(lèi)領(lǐng)域,且基于共稀疏模型的方法已經(jīng)在速率方面展現(xiàn)出了優(yōu)勢(shì),但這類(lèi)方法還未在高分辨sar圖像分類(lèi)領(lǐng)域得到應(yīng)用,且圖像分類(lèi)方法求解共稀疏系數(shù)時(shí)只是簡(jiǎn)單的采用了軟閾值方法,沒(méi)有充分利用學(xué)習(xí)的解析算子,圖像分類(lèi)準(zhǔn)確率有限。
技術(shù)實(shí)現(xiàn)要素:
本發(fā)明的目的在于針對(duì)現(xiàn)有技術(shù)的不足,提出一種分類(lèi)準(zhǔn)確率得到提高且速度快的基于共稀疏模型的高分辨sar圖像分類(lèi)方法。
本發(fā)明是一種基于共稀疏模型的高分辨sar圖像分類(lèi)方法,包括如下步驟:
步驟1、輸入圖像得到初始像素值矩陣:選取一幅待分類(lèi)的高分辨sar圖像,以所有像素點(diǎn)為中心截取m1×m1大小的像素塊,每個(gè)像素塊展成一列,遍歷圖像中所有像素點(diǎn)得到實(shí)驗(yàn)樣本x∈rm×ll,m為一個(gè)像素塊中的像素點(diǎn)個(gè)數(shù),ll為待分類(lèi)高分辨sar圖像中的像素點(diǎn)個(gè)數(shù)。
步驟2、選取解析算子學(xué)習(xí)的初始樣本:在初始像素值矩陣x中隨機(jī)選取l列構(gòu)成大小為m×l的矩陣y,作為算子學(xué)習(xí)的樣本矩陣y=[y1,y2,…,yi,…,yl],yi表示第i個(gè)中心像素點(diǎn)所在m1×m1大小的像素塊展開(kāi)的列向量。
步驟3、學(xué)習(xí)解析算子:將投影次梯度和統(tǒng)一行規(guī)范緊框架(uniformnormalizedtightframe,untf)兩者相結(jié)合,利用初始樣本矩陣y迭代學(xué)習(xí)得到解析算子ω。
步驟4、基于增廣拉格朗日方法求解共稀疏系數(shù):由解析算子ω和初始像素值矩陣x,根據(jù)共稀疏解析模型z=ωx,利用增廣拉格朗日方法,加入對(duì)偶參數(shù)求解凸規(guī)劃問(wèn)題得到共稀疏系數(shù)z。
步驟5、確定支持向量機(jī)的輸入樣本:將第i個(gè)像素點(diǎn)對(duì)應(yīng)像素塊的共稀疏系數(shù)向量zi和該像素塊的像素值向量xi相組合得到最終分類(lèi)時(shí)像素點(diǎn)的特征向量si,得到所有像素點(diǎn)的特征矩陣s=[s1,s1,…,si,…,sll]。
步驟6、運(yùn)用支持向量機(jī)(supportvectormachine,svm)預(yù)測(cè)所有像素點(diǎn)的標(biāo)簽:隨機(jī)選取樣本特征矩陣s中的一部分列向量作為訓(xùn)練樣本,確定這些列向量的類(lèi)別標(biāo)簽,利用libsvm分類(lèi)器預(yù)測(cè)得到所有列向量的類(lèi)別標(biāo)簽,列向量的類(lèi)別標(biāo)簽即為圖像中每一個(gè)像素點(diǎn)的類(lèi)別歸屬。
步驟7、顯示分類(lèi)結(jié)果:將預(yù)測(cè)的類(lèi)別標(biāo)簽用灰度圖像顯示出來(lái),即可得到輸入高分辨sar圖像最終的分類(lèi)結(jié)果圖。
本發(fā)明將共稀疏模型應(yīng)用于高分辨sar圖像分類(lèi)領(lǐng)域,提出應(yīng)用變換域特征結(jié)合像素值特征基于支持向量機(jī)實(shí)現(xiàn)高分辨sar圖像的分類(lèi),并得到速度快效率高的分類(lèi)結(jié)果。
本發(fā)明與現(xiàn)有技術(shù)相比具有以下優(yōu)點(diǎn):
1,為了得到圖像的稀疏表示,現(xiàn)有技術(shù)主要是基于稀疏表示中綜合模型的方法學(xué)習(xí)字典,用字典中少量原子的線(xiàn)性表示得到圖像的稀疏表示系數(shù),從而利用稀疏系數(shù)進(jìn)行圖像分類(lèi),因?yàn)樽值鋵W(xué)習(xí)過(guò)程中用到了大量的矩陣求逆和分解計(jì)算,使得字典學(xué)習(xí)需要較多時(shí)間和計(jì)算儲(chǔ)存量;而本發(fā)明是基于共稀疏模型實(shí)現(xiàn)高分辨sar圖像分類(lèi),圖像的稀疏表示是基于解析算子的,且算子的學(xué)習(xí)過(guò)程避免了矩陣求逆計(jì)算,學(xué)習(xí)方法速度更快,分類(lèi)效率大大提高。
2,不同于現(xiàn)有技術(shù)中的應(yīng)用在圖像分類(lèi)上的共稀疏系數(shù)求解方法,簡(jiǎn)單的由共稀疏模型公式加軟閾值的方法就得到了共稀疏系數(shù),本發(fā)明是運(yùn)用了圖像去噪中的共稀疏模型算法,稍微修改使其適應(yīng)圖像分類(lèi)過(guò)程,利用增廣拉格朗日乘子求最優(yōu)化的方法求解共稀疏系數(shù),充分利用解析算子。并且在此基礎(chǔ)上將像素點(diǎn)的共稀疏系數(shù)和像素值相結(jié)合,再利用了圖像的紋理特征使得分類(lèi)時(shí)的細(xì)節(jié)信息更準(zhǔn)確,提高了高分辨sar圖像分類(lèi)結(jié)果的準(zhǔn)確性。
附圖說(shuō)明
圖1是本發(fā)明的流程圖;
圖2是本發(fā)明在一幅包含有較多細(xì)節(jié)信息的高分辨sar圖像上的分類(lèi)結(jié)果圖,其中圖2(a)為一幅256×256大小的部分森林圖像,圖2(b)為將原始像素值作為樣本特征基于svm的分類(lèi)結(jié)果。圖2(c)為sumitshekhar提出的軟閾值共稀疏編碼的分類(lèi)結(jié)果,圖2(d)為本發(fā)明提出的分類(lèi)方法的結(jié)果圖;
圖3是本發(fā)明在一幅大小為480×512的真實(shí)sar圖像上的分類(lèi)結(jié)果,其中圖3(a)為包含森林、機(jī)場(chǎng)跑道和普通土地三類(lèi)的原始圖像,圖3(b)是直接將原始像素塊的灰度值作為樣本分類(lèi)特征基于svm的,圖3(c)為sumitshekhar提出的簡(jiǎn)單軟閾值共編碼的分類(lèi)效果;圖3(d)是本發(fā)明的分類(lèi)效果圖。
具體實(shí)施方式
下面結(jié)合附圖和具體實(shí)施例對(duì)本發(fā)明詳細(xì)說(shuō)明。
現(xiàn)有技術(shù)是采用綜合模型學(xué)習(xí)字典,需要大量時(shí)間和計(jì)算量。雖然共稀疏解析模型也被應(yīng)用到人臉圖像分類(lèi)領(lǐng)域,但圖像分類(lèi)方法求解共稀疏系數(shù)時(shí)只是簡(jiǎn)單的采用了軟閾值方法,分類(lèi)準(zhǔn)確率有限。且還未應(yīng)用到高分辨sar圖像分類(lèi)領(lǐng)域。針對(duì)這些技術(shù)問(wèn)題本發(fā)明展開(kāi)了研究與創(chuàng)新,提出一種基于共稀疏模型的高分辨sar圖像分類(lèi)方法。
實(shí)施例1
本發(fā)明是一種基于共稀疏模型的高分辨sar圖像分類(lèi)方法,參見(jiàn)圖1,包括有如下步驟:
步驟1、輸入圖像得到初始像素值矩陣:選取一幅待分類(lèi)的高分辨sar圖像,如圖2(a)所示的圖像,將圖像用matlab軟件讀取,若輸入圖像是三個(gè)通道的rgb圖像則需要將其轉(zhuǎn)化為灰度值圖像,若為單通道的灰度圖像則直接得到圖像的灰度值矩陣,矩陣中每個(gè)元素對(duì)應(yīng)圖像中一個(gè)像素點(diǎn)。
以所有像素點(diǎn)為中心截取m1×m1大小的像素塊,為了方便以后的數(shù)據(jù)處理,將每個(gè)像素塊展成一列。遍歷圖像中所有像素點(diǎn)得到實(shí)驗(yàn)樣本x∈rm×ll,m為一個(gè)像素塊中的像素點(diǎn)個(gè)數(shù),ll為待分類(lèi)高分辨sar圖像中的像素點(diǎn)個(gè)數(shù),即得到輸入圖像的初始像素值矩陣x。
步驟2、選取解析算子學(xué)習(xí)的初始樣本:在初始像素值矩陣x中隨機(jī)選取l列構(gòu)成大小為m×l的矩陣y,作為算子學(xué)習(xí)的初始樣本矩陣y=[y1,y2,…,yi,…,yl],yi表示第i個(gè)中心像素點(diǎn)所在m1×m1大小的像素塊展開(kāi)的列向量,即得到學(xué)習(xí)解析算子時(shí)的初始樣本矩陣y。
為了使解析算子學(xué)習(xí)更準(zhǔn)確也可以人工選擇初始樣本矩陣y,保證每種類(lèi)別的像素點(diǎn)對(duì)應(yīng)的初始樣本向量個(gè)數(shù)均勻,但這樣會(huì)增加人力和時(shí)間。而本發(fā)明中隨機(jī)選取構(gòu)成初始樣本矩陣的方法在簡(jiǎn)單方便的同時(shí)也能保證解析算子正確學(xué)習(xí)。
步驟3、基于untf算法學(xué)習(xí)解析算子:用投影次梯度和統(tǒng)一行規(guī)范緊框架兩者相結(jié)合的方法,利用初始樣本矩陣y更新學(xué)習(xí)得到解析算子ω。
步驟4、基于增廣拉格朗日方法求解共稀疏系數(shù):由解析算子ω和初始像素值矩陣x,根據(jù)共稀疏解析模型z=ωx,利用增廣拉格朗日方法,加入對(duì)偶參數(shù)求解凸規(guī)劃問(wèn)題得到共稀疏系數(shù)z。
步驟5、確定svm分類(lèi)器的輸入樣本即獲取所有像素點(diǎn)的特征向量:將第i個(gè)像素點(diǎn)對(duì)應(yīng)像素塊的共稀疏系數(shù)向量zi和該像素塊的像素值向量xi相結(jié)合得到最終分類(lèi)時(shí)像素點(diǎn)的特征向量si,得到所有像素點(diǎn)的特征矩陣s=[s1,s1,…,si,…,sll]。svm分類(lèi)器的所有輸入樣本為特征矩陣s。
像素值向量xi的選取可以為原始圖像截取到的像素塊向量;也可以是求解共稀疏系數(shù)時(shí)變化的x最終確定的矩陣中第i個(gè)像素點(diǎn)對(duì)應(yīng)的像素塊向量。
步驟6、運(yùn)用svm分類(lèi)器預(yù)測(cè)所有像素點(diǎn)的標(biāo)簽:隨機(jī)選取樣本特征矩陣s中的一部分列向量作為訓(xùn)練樣本,確定這些列向量的類(lèi)別標(biāo)簽,利用libsvm分類(lèi)器預(yù)測(cè)得到所有列向量的類(lèi)別標(biāo)簽,即為圖像中每一個(gè)像素點(diǎn)的歸屬類(lèi)別。
6.1、確定訓(xùn)練樣本(traindata)和訓(xùn)練標(biāo)簽(trainlabel)的輸入。
6.2、確定libsvm的核參數(shù),訓(xùn)練svm分類(lèi)器模型。
6.3、輸入測(cè)試樣本(testdata)到svm分類(lèi)器模型中,得到預(yù)測(cè)標(biāo)簽(predictlabel),測(cè)試樣本為特征矩陣s,預(yù)測(cè)標(biāo)簽為分類(lèi)結(jié)果。
步驟7、顯示分類(lèi)結(jié)果:將預(yù)測(cè)的類(lèi)別標(biāo)簽用灰度圖像顯示出來(lái),即可得到輸入高分辨sar圖像最終的分類(lèi)結(jié)果圖。
本發(fā)明實(shí)現(xiàn)了共稀疏模型在高分辨sar圖像分類(lèi)領(lǐng)域的應(yīng)用,且采用共稀疏算子學(xué)習(xí)方法避免了矩陣求逆過(guò)程,比綜合模型字典學(xué)習(xí)方法速度更快,效率大大提高。
實(shí)施例2
基于共稀疏模型的高分辨sar圖像分類(lèi)方法同實(shí)施例1,其中步驟3中使用投影次梯度和統(tǒng)一行規(guī)范緊框架兩者相結(jié)合的方法構(gòu)造解析算子包括有以下步驟:
3.1、構(gòu)造初始解析算子ω0
隨機(jī)產(chǎn)生一個(gè)大小為m×n的過(guò)完備矩陣d=[d1,d2,…,di,…,dn],其中di為列向量,1≤i≤n,n為解析算子的維度,n的大小根據(jù)需要人工選擇但必須大于m,得到初始解析算子ω0,ω0為過(guò)完備矩陣d的轉(zhuǎn)置矩陣即ω0=dt。
3.2、由次梯度投影公式
其中
3.3、計(jì)算ωi+1
采取降梯度的方法更新解析算子,給定初始步長(zhǎng)η,根據(jù)公式ωi+1=ptf{pun(ωi-ηωg)}計(jì)算ωi+1,pun{·}表示投影到統(tǒng)一行規(guī)范空間,ptf{·}表示投影到緊框架。
3.4、迭代終止條件
當(dāng)f(ωi+1)≤f(ωi)或者i>kmax1時(shí)結(jié)束迭代過(guò)程,f(ωi)是一個(gè)定義解析算子誤差的函數(shù),f(ωi)等于矩陣ωiy中所有元素的絕對(duì)值之和,得到最終的解析算子ω=ωi,否則修改步長(zhǎng),令
用樣本矩陣y更新學(xué)習(xí)該算子,利用步驟4中求解稀疏系數(shù)時(shí)信號(hào)數(shù)據(jù)會(huì)變化的原理,重新計(jì)算步驟3得到系數(shù)z1=ωy,滿(mǎn)足系數(shù)z1必須是稀疏的。
本發(fā)明是利用解析模型得到高分辨sar圖像的稀疏表示,避免了圖像基于綜合模型稀疏表示時(shí)需要花大量時(shí)間求解最優(yōu)字典的問(wèn)題,解析算子學(xué)習(xí)的時(shí)候簡(jiǎn)單方便,大大減少了存儲(chǔ)量和計(jì)算時(shí)間,使得分類(lèi)方法速度得到提高。
實(shí)施例3
基于共稀疏模型的高分辨sar圖像分類(lèi)方法同實(shí)施例1-2,其中步驟4中利用增廣拉格朗日方法求解共稀疏系數(shù)z問(wèn)題:
4.1、給定初始像素值矩陣x0=x,解析算子ω,初始共稀疏系數(shù)z0=ωx0,初始參數(shù)矩陣b0為大小與z0相等的零矩陣,常量參數(shù)λ<1,常系數(shù)γ<1。
4.2、根據(jù)以下公式計(jì)算像素值矩陣xi+1、共稀疏系數(shù)zi+1和參數(shù)矩陣bi+1,0≤i≤kmax2,kmax2為求共稀疏系數(shù)的最大迭代次數(shù)。
其中
bi+1=bi-(zi+1-ωxi+1)
4.3、重復(fù)步驟4.2直到||zi+1-ωxi+1||2≥ε或者i>kmax2時(shí)結(jié)束迭代過(guò)程,ε是遠(yuǎn)小于1的誤差常系數(shù),直至得到最終的共稀疏系數(shù)z=zi,zi是第i個(gè)共稀疏系數(shù)。
本發(fā)明中求解共稀疏系數(shù)的方法和人臉圖像分類(lèi)方法中簡(jiǎn)單的軟閾值求法不同,通過(guò)利用增廣拉格朗日乘子求最優(yōu)化的方法求解共稀疏系數(shù),充分利用解析算子,使得圖像的稀疏表示更準(zhǔn)確。
實(shí)施例4
基于共稀疏模型的高分辨sar圖像分類(lèi)方法同實(shí)施例1-3,本發(fā)明在步驟5中將每個(gè)像素點(diǎn)的共稀疏系數(shù)向量zi和該像素點(diǎn)對(duì)應(yīng)像素塊的初始向量xi相結(jié)合得到最終分類(lèi)時(shí)像素點(diǎn)的特征向量si的具體步驟包括:取共稀疏系數(shù)矩陣z中的第i列向量zi∈rn為最終分類(lèi)時(shí)像素點(diǎn)的特征向量si的前n行,該像素點(diǎn)對(duì)應(yīng)初始像素值矩陣的第i列向量xi∈rm為最終分類(lèi)時(shí)像素點(diǎn)的特征向量si的后m行,得到最終的像素點(diǎn)的特征向量si∈rm+n,所有像素點(diǎn)最終的特征向量組成特征向量矩陣s=[s1,s2,...,si,...,sll]。
本發(fā)明將像素點(diǎn)的共稀疏系數(shù)和像素值相結(jié)合,利用圖像的紋理特征使圖像分類(lèi)時(shí)細(xì)節(jié)信息更準(zhǔn)確,提高了sar圖像分類(lèi)結(jié)果的準(zhǔn)確性。
下面給出一個(gè)更為詳盡的例子,對(duì)本發(fā)明再作說(shuō)明。
實(shí)施例5
基于共稀疏模型的高分辨sar圖像分類(lèi)方法同實(shí)施例1-4,
參照?qǐng)D1,本發(fā)明的具體實(shí)現(xiàn)步驟如下:
步驟1、輸入圖像得到初始像素值矩陣:選取一幅待分類(lèi)的高分辨sar圖像,如圖3(a)所示的圖像,以所有像素點(diǎn)為中心截取m1×m1大小的像素塊,并展成一列。遍歷全圖的像素點(diǎn)得到實(shí)驗(yàn)樣本x。
具體而言,一幅大小為l1×l2的待分類(lèi)的sar圖像,考慮到以像素點(diǎn)為中心構(gòu)成像素塊時(shí),邊緣像素點(diǎn)會(huì)出現(xiàn)像素塊大小不夠的問(wèn)題,需要對(duì)原圖像數(shù)據(jù)進(jìn)行處理,先構(gòu)造一個(gè)比原圖長(zhǎng)寬都大m1-1的零矩陣,即大小為(l1+m1-1)×(l2+m2-1)的零矩陣x1,再使矩陣x1正中間l1×l2大小部分的元素為原sar圖像的像素值。這樣就避免了以邊緣點(diǎn)為中心截取像素塊時(shí)像素塊大小不夠的問(wèn)題。矩陣x1初始構(gòu)造的時(shí)候可以取隨機(jī)矩陣,因?yàn)檫吘壪袼攸c(diǎn)是有限的,最終取分類(lèi)樣本時(shí)也是隨機(jī)的,取到這些邊緣點(diǎn)的概率較低,對(duì)分類(lèi)結(jié)果影響不大。
預(yù)處理圖像后,按照行的順序以原圖像素點(diǎn)為中心取像素塊遍歷全圖,會(huì)得到ll個(gè)大小為m1×m1的像素塊,ll=l1×l2,將其展成一列xi∈rm*1,m=m1×m1,所有像素塊構(gòu)成一個(gè)大小為m×ll的初始像素值矩陣x=[x1,x2,...,xi,...,xll]。
像素塊的大小m1的取值根據(jù)圖像中地物紋理特征的粗細(xì)進(jìn)行決定,但尺度不能太小,通常最小尺度為3×3,一般選擇5×5,7×7,9×9等大小的像素塊。
步驟2、選取解析算子學(xué)習(xí)的樣本:隨機(jī)選取初始像素值矩陣x中的l列,即原圖中任意l個(gè)像素點(diǎn)為中心截取m1×m1大小的像素塊后展開(kāi)的向量作為初始特征,構(gòu)成樣本矩陣y=[y1,y2,…,yi,...,yl],yi表示某個(gè)中心像素點(diǎn)所在m1×m1大小的像素塊展開(kāi)的列向量,矩陣y的大小為m×l。
隨機(jī)選取像素點(diǎn)個(gè)數(shù)l根據(jù)實(shí)驗(yàn)具體情況人工確定。
步驟3、學(xué)習(xí)解析算子:將投影次梯度和統(tǒng)一行規(guī)范緊框架(uniformnormalizedtightframe,untf)兩者相結(jié)合,基于naaol算法學(xué)習(xí)解析算子ω∈rn×m。
本發(fā)明將ω投影到統(tǒng)一行規(guī)范緊框架中,具體步驟如下:
(a)將ω投影到緊框架(tightframe,tf)中,緊框架就是一個(gè)空間域,則ω投影可以簡(jiǎn)單的用ω的奇異值分解代替,即:ptf{ω}=uivt。其中ptf{ω}表示投影,u是正交矩陣,u里面的向量稱(chēng)為左奇異向量,i是對(duì)角矩陣,除了對(duì)角線(xiàn)的元素都是0,對(duì)角線(xiàn)上的元素稱(chēng)為奇異值,v為正交矩陣,v里面的向量稱(chēng)為左奇異向量,(·)t表示矩陣的轉(zhuǎn)置。
奇異值分解是常見(jiàn)的矩陣分解方式,在機(jī)器學(xué)習(xí)領(lǐng)域中也屬于滿(mǎn)地可見(jiàn)是方法,目的是提取出矩陣最主要的特征。
(b)將ω投影到行規(guī)范框架(uniformnormalizedframe,un)中,當(dāng)元素為0時(shí),投影的時(shí)候在[-1,1]中任意選擇一個(gè)矢量代替。當(dāng)不為0的元素投影到固定的行規(guī)范框架時(shí),只需用此元素的標(biāo)準(zhǔn)化矢量代替即可。即:
pun{ω}=[pun{wi}]i其中pun{ω}表示投影,wi是ω的第i行向量。
3.1、構(gòu)造初始算子ω0。
隨機(jī)產(chǎn)生一個(gè)大小為m×n的矩陣d=[d1,d2,…,di,…,dn],其中di為行向量,1≤i≤n,n為分析算子的維度,n的大小根據(jù)需要人工選擇但必須大于m。
重復(fù)上述步驟(a)和(b),得到初始算子的轉(zhuǎn)置矩陣d0,則ω0=d0t。
3.2、由次梯度投影公式
其中
3.3、更新計(jì)算解析算子ωi+1。
采取降梯度的方式更新算子,給定初始步長(zhǎng)η,η為遠(yuǎn)小于1的常系數(shù),可以選擇10-5、10-7、10-8等,根據(jù)公式ωi+1=ptf{pun(ωi-ηωg)}更新計(jì)算解析算子ωi+1。
3.4、迭代終止條件。
當(dāng)f(ωi+1)≤f(ωi)時(shí)結(jié)束迭代過(guò)程,f(ωi)是一個(gè)定義解析算子誤差的函數(shù),定f(ωi)為矩陣ωiy中所有元素的絕對(duì)值之和,得到分析算子ω=ωi+1=[ω1t,ω1t,…,ωit,…,ωlt],ωi是ω的第i行向量。否則修改步長(zhǎng),令
為了防止迭代過(guò)程中出現(xiàn)不終止現(xiàn)象,可以設(shè)置一個(gè)求解析算子過(guò)程中最大迭代次數(shù)kmax1,大小由需要決定。
解析算子ω學(xué)習(xí)的方法有很多種,本發(fā)明采用的naaol算法,不但準(zhǔn)確學(xué)習(xí)了解析算子,還避免了矩陣求逆計(jì)算,使得解析算子計(jì)算速率大大提高。
步驟4、由上述算子ω∈rl×m和初始像素值矩陣x∈rm×ll,根據(jù)共稀疏解析模型z=ωx,利用基于增廣拉格朗日方法求解共稀疏系數(shù)z。
基于增廣拉格朗日方法解決非凸規(guī)劃問(wèn)題:
其中,γ為大于0的常系數(shù),可以選擇0.1、0.2、0.3等,具體取值根據(jù)實(shí)驗(yàn)經(jīng)驗(yàn)而定。
求共稀疏系數(shù)z的具體步驟如下:
4.1、定初始像素值矩陣x0=x,解析算子ω,初始共稀疏系數(shù)z0=ωx0,初始參數(shù)矩陣b0為大小與z0相等的零矩陣,常量參數(shù)λ>0,常系數(shù)γ>0。
4.2.1、由以下公式計(jì)算xi+1。
4.2.2、計(jì)算稀疏系數(shù)
其中
4.2.3、計(jì)算懲罰項(xiàng)bi+1。
bi+1=bi-(zi+1-ωxi+1)。
4.3、迭代終止條件。
當(dāng)||zi+1-ωxi+1||2≥ε時(shí)結(jié)束迭代過(guò)程,ε是遠(yuǎn)小于1的常系數(shù),且得到z=zi=ωxi。否則,重復(fù)步驟4.2直到滿(mǎn)足迭代終止條件。
同樣的為了防止迭代過(guò)程中出現(xiàn)不終止現(xiàn)象,可以設(shè)置一個(gè)求共稀疏系數(shù)過(guò)程中的最大迭代次數(shù)kmax2,最大迭代次數(shù)的大小由實(shí)驗(yàn)經(jīng)驗(yàn)決定。
步驟5、取共稀疏系數(shù)矩陣z中的第i列向量zi∈rn為最終分類(lèi)時(shí)像素點(diǎn)的特征向量si的前n行,該像素點(diǎn)對(duì)應(yīng)初始像素值矩陣的第i列向量xi∈rm為最終分類(lèi)時(shí)像素點(diǎn)的特征向量si的后m行,得到最終的像素點(diǎn)的特征向量si∈rm+n,所有像素點(diǎn)最終的特征向量組成特征向量矩陣s=[s1,s2,...,si,...,sll],1≤i≤ll。
步驟6、隨機(jī)選取樣本特征矩陣s中的一部分列向量作為訓(xùn)練樣本,確定訓(xùn)練樣本的分類(lèi)標(biāo)簽,利用libsvm分類(lèi)器分類(lèi),libsvm是圖像分類(lèi)時(shí)一種常用的分類(lèi)器。
6.1、確定訓(xùn)練樣本(traindata)和訓(xùn)練標(biāo)簽(trainlabel)的輸入。
隨機(jī)選取特征矩陣s中的r個(gè)列向量構(gòu)成訓(xùn)練樣本矩陣ss=[ss1,ss2,...,ssi,...,ssr],ssi為矩陣s中的任意列向量,ss∈r(m+n)×r。
隨機(jī)選取的特征個(gè)數(shù)r根據(jù)需要確定,為保證實(shí)驗(yàn)結(jié)果的正確性和快速性一般選取全部樣本數(shù)的百分之十。
訓(xùn)練標(biāo)簽為這些訓(xùn)練樣本對(duì)應(yīng)的分類(lèi)標(biāo)簽,即每一列向量ssi對(duì)應(yīng)于原sar圖像中像素塊相應(yīng)的標(biāo)簽是該像素塊中心的像素點(diǎn)所在位置對(duì)應(yīng)于原sar圖像標(biāo)準(zhǔn)圖中相同位置的像素點(diǎn)所對(duì)應(yīng)的分類(lèi)標(biāo)簽。
6.2、確定libsvm參數(shù),訓(xùn)練分類(lèi)器模型。
libsvm中核參數(shù)根據(jù)多次試驗(yàn)結(jié)果對(duì)比選擇,本發(fā)明中的實(shí)驗(yàn)選擇的是rbf核。
6.3、確定測(cè)試樣本(testdata)的輸入。
本發(fā)明的測(cè)試樣本為完整的特征矩陣s∈r(m+l)×ll,得到的預(yù)測(cè)標(biāo)簽是一個(gè)大小為ll×1的列向量。
步驟7、將預(yù)測(cè)的標(biāo)簽向量通過(guò)函數(shù)還原成原圖大小的標(biāo)簽矩陣,且每個(gè)像素點(diǎn)與其預(yù)測(cè)標(biāo)簽相對(duì)應(yīng),并將此矩陣用灰度圖像顯示出來(lái),即可得到最終的分類(lèi)結(jié)果圖。
按照上述步驟可以快速準(zhǔn)確的將一幅高分辨sar圖像分類(lèi),通過(guò)本發(fā)明的方法利用小部分已知標(biāo)簽樣本能快速準(zhǔn)確的得到所有樣本的歸屬類(lèi)別。
下面通過(guò)仿真實(shí)驗(yàn)對(duì)本發(fā)明的技術(shù)效果進(jìn)行驗(yàn)證和說(shuō)明。
實(shí)施例6
基于共稀疏模型的高分辨sar圖像分類(lèi)方法同實(shí)施例1-5。
仿真條件和內(nèi)容:
運(yùn)行環(huán)境為windows,軟件為matlab2016b,用本發(fā)明的方法和原始像素值基于svm分類(lèi)的方法、簡(jiǎn)單的軟閾值求共稀疏系數(shù)的方法分別對(duì)兩幅sar圖像進(jìn)行分類(lèi)實(shí)驗(yàn),從分類(lèi)結(jié)果的區(qū)域一致性、錯(cuò)分情況、邊緣保持等方面評(píng)估。
實(shí)驗(yàn)時(shí)梯度步長(zhǎng)參數(shù)η=10-7,求解析算子的最大迭代次數(shù)kmax1=50000,常量參數(shù)λ=γ=0.1,誤差常系數(shù)ε=0.001,求共稀疏系數(shù)的最大迭代次數(shù)kmax2=500。
仿真實(shí)驗(yàn)結(jié)果:
圖2為包含有較多細(xì)節(jié)信息的真實(shí)sar圖像的分類(lèi)結(jié)果。其中圖2(a)為一幅大小為256×256像素的部分森林圖像,圖中紋理均勻的區(qū)域?yàn)榈缆泛推胀ㄍ恋兀y理不均勻的區(qū)域?yàn)闃?shù)木。圖2(b)為直接基于像素點(diǎn)特征的svm分類(lèi)方法得到的分類(lèi)結(jié)果;圖2(c)為應(yīng)用軟閾值法求共稀疏系數(shù)的方法得到的分類(lèi)結(jié)果;圖2(d)為本發(fā)明的方法對(duì)圖2(a)進(jìn)行分類(lèi)得到的結(jié)果圖。這三個(gè)分類(lèi)結(jié)果都是在的7×7尺度下進(jìn)行的,即截取的像素塊大小m1=7。
對(duì)比這幾幅圖可以看出基于原始像素點(diǎn)分類(lèi)結(jié)果圖2(b)明顯沒(méi)有給出正確的分類(lèi),只有分出了大致的輪廓信息。比較圖2(c)和圖2(d),發(fā)現(xiàn)圖2(d)在不同類(lèi)別的邊緣處分類(lèi)更準(zhǔn)確,對(duì)于粗糙紋理的樹(shù)木區(qū)域的識(shí)別率也更高;對(duì)應(yīng)原圖像2(a)中主對(duì)角線(xiàn)方向上全黑的部分為道路,其中有部分灰色的區(qū)域?yàn)榈钠胀ㄐ÷?,明顯圖2(d)的識(shí)別出更多的普通小路;對(duì)應(yīng)著原始圖像圖2(a)最右邊中間部分粗糙紋理區(qū)域的普通土地,本發(fā)明能準(zhǔn)確識(shí)別為普通土地,而圖2(c)將此部分錯(cuò)分為同樣是粗糙紋理的樹(shù)木類(lèi)別,此部分在本發(fā)明提出的方法識(shí)別下結(jié)果更精確。
實(shí)施例7
基于共稀疏模型的高分辨sar圖像分類(lèi)方法同實(shí)施例1-5,仿真條件和內(nèi)容同實(shí)施例6。
圖3是一幅大小為480×512的真實(shí)sar圖像的分類(lèi)結(jié)果,圖3(a)為包含森林、機(jī)場(chǎng)跑道和普通土地三類(lèi)的原始圖像;圖3(b)是直接將原始像素塊的灰度值作為像素點(diǎn)分類(lèi)特征基于svm分類(lèi)器分類(lèi)得出的結(jié)果;圖3(c)為應(yīng)用簡(jiǎn)單軟閾值求共稀疏系數(shù)方法的分類(lèi)效果;圖3(d)是本發(fā)明的分類(lèi)效果圖。這三個(gè)分類(lèi)結(jié)果都是在的9×9尺度下進(jìn)行的,即截取的像素塊大小m1=9。
從圖3對(duì)比各圖可以看出圖3(b)基于原始像素值的方法只能看出大致的輪廓,該方法將樹(shù)木和機(jī)場(chǎng)跑道幾乎識(shí)別為一類(lèi)。而簡(jiǎn)單軟閾值求共稀疏系數(shù)方法的分類(lèi)結(jié)果圖3(c)中森林部分基本沒(méi)有識(shí)別出來(lái);本發(fā)明的結(jié)果圖3(d)將這塊區(qū)域大部分內(nèi)容識(shí)別出為樹(shù)木,識(shí)別準(zhǔn)確率提高。對(duì)應(yīng)原始圖像3(a)中間部分橫穿圖像的那條小路,軟閾值法主要將此條道路識(shí)別為森林部分,在圖3(c)中表現(xiàn)為深灰色;而本發(fā)明的方法是將其大部分識(shí)別劃分為道路,在圖3(d)中表現(xiàn)為黑色,本發(fā)明在細(xì)節(jié)部分的識(shí)別更精準(zhǔn)。
簡(jiǎn)而言之,本發(fā)明公開(kāi)了一種基于共稀疏模型的高分辨sar圖像分類(lèi)方法,屬于圖像處理技術(shù)領(lǐng)域,解決了sar圖像分類(lèi)時(shí)局限于用綜合稀疏模型表示圖像導(dǎo)致分類(lèi)時(shí)間復(fù)雜度高的技術(shù)問(wèn)題。其分類(lèi)過(guò)程為:在待分類(lèi)的sar圖像中以像素點(diǎn)為中心截取像素塊構(gòu)成初始像素值矩陣x;選取部分像素值向量構(gòu)成解析算子初始學(xué)習(xí)樣本;利用投影次梯度和統(tǒng)一行規(guī)范緊框架相結(jié)合的方法學(xué)習(xí)解析算子ω;基于增廣拉格朗日方法求最優(yōu)化問(wèn)題得到共稀疏系數(shù)z;將每個(gè)像素點(diǎn)對(duì)應(yīng)像素塊的共稀疏系數(shù)向量和該像素塊的像素值向量相結(jié)合得到最終分類(lèi)時(shí)像素點(diǎn)的特征向量;隨機(jī)選取部分特征向量構(gòu)成測(cè)試樣本ss,基于svm分類(lèi)器分類(lèi),得到全圖各像素點(diǎn)特征向量的預(yù)測(cè)標(biāo)簽;將預(yù)測(cè)標(biāo)簽結(jié)果用灰度圖像顯示出來(lái)。本發(fā)明能快速求得圖像的稀疏表示,保證了sar圖像分類(lèi)的時(shí)效性和分類(lèi)準(zhǔn)確率。