資源簡(jiǎn)介
不錯(cuò)的學(xué)習(xí)資料,對(duì)剛接觸壓縮感知的人來(lái)說(shuō)是很好的選擇
代碼片段和文件信息
%%原理:目標(biāo)是從y=Phi*x中重建稀疏的x,MP與OMP都是通過(guò)確定Phi的哪一列參與測(cè)量向量y
%中來(lái)確定x的支撐,運(yùn)用貪婪模式去確定每一列。在每次迭代中,選擇phi中與y的剩余部分最相關(guān)的列
%然后從y中抽取該列對(duì)y的貢獻(xiàn)再對(duì)其冗余迭代。
%1-D信號(hào)壓縮感知重建算法MP?
%測(cè)量數(shù)M>=K*log(N/K)K是稀疏度,N是信號(hào)長(zhǎng)度
%輸入:感知矩陣(測(cè)量矩陣)Phi測(cè)量向量y稀疏度K
%輸出:x的k稀疏度的逼近signal_reconstruct誤差向量r_n
%原來(lái)的程序沒有考慮到觀測(cè)矩陣的列向量相當(dāng)于一個(gè)原子的時(shí)候,把殘差值投影到原子上面的
%時(shí)候,原子是單位向量才能用內(nèi)積大小來(lái)比較投影系數(shù)大小,所以觀測(cè)矩陣要?dú)w一化,
%這個(gè)算法才是有效的。
clc;clear
%%??1.?時(shí)域測(cè)試信號(hào)生成
%產(chǎn)生長(zhǎng)度為N=256的稀疏信號(hào),其稀疏度K=23。且這23個(gè)非零值隨機(jī)分布于信號(hào)256個(gè)位置
%觀測(cè)向量y的長(zhǎng)度M=80,即采樣率M/N=0.3
N=256;
K=23;
M=80;
x?=?zeros(N1);
q?=?randperm(N);
x(q(1:K))?=randn(K1);????%原始信號(hào)
%%?2.?測(cè)量矩陣?及觀測(cè)值獲得
%?Phi=DFTmatx(MN);?%測(cè)量矩陣?%??感知矩陣(高斯分布白噪聲)M*N
%?matrixNorm?=?Phi.‘*Phi;
%?matrixNorm?=?sqrt(diag(matrixNorm)).‘;
%?Phi?=?Phi./repmat(matrixNorm?[M1]);
Phi?=?sqrt(1/M)?*?randn(MN);
for?i?=?1:N
????Phi(:i)?=?Phi(:i)?/?norm(Phi(:i));
end
y=Phi*x?;????
評(píng)論
共有 條評(píng)論