資源簡(jiǎn)介
在網(wǎng)上收集了很多資料,然后整理出了這個(gè)代碼,并根據(jù)個(gè)人理解做了一些比較詳細(xì)的注解。希望能對(duì)大家有所幫助,不足之處也請(qǐng)大家多多指教!
代碼片段和文件信息
%?導(dǎo)入樣本數(shù)據(jù)
A?=?dir(fullfile(‘C:\Users\19053\Desktop\shuju\*.txt‘));
%定義即將使用的變量
target_sample=[];
input_sample=[];
m=1;
%構(gòu)造輸出矩陣。將x1、x2與y進(jìn)行行向量組合。input_sample=[x1;x2];?target_sample=y。y是行向量。
for?i?=?1:length(A)
????s=load(A(i).name);
????n=length(s);
????input_sample=[input_sample;s];
????target_sample(m:length(input_sample)i)?=?1;
????m=m+n;
end
%設(shè)置參數(shù)。下面的兩個(gè)參數(shù)必須是x1、x2與y的行向量組合。
input_sample=input_sample‘;?
target_sample=target_sample‘;
%讀入影像。將影像變?yōu)?份,一份用于訓(xùn)練,一份用于測(cè)試。
OI?=?double(imread(‘caijian.tif‘));
[xyz]?=?size(OI);
OI?=?reshape(OIx*yz);
OI=OI‘;
%打開神經(jīng)網(wǎng)絡(luò)工具
nprtool
%創(chuàng)建網(wǎng)絡(luò)(選擇運(yùn)算法則Algorithms+設(shè)置訓(xùn)練參數(shù))
trainFcn?=?‘trainscg‘;%設(shè)置訓(xùn)練函數(shù)。ScaledConjugate?Gradient算法內(nèi)存需求較小,計(jì)算速度快。
hiddenlayerSize?=?10;%設(shè)置掩層數(shù)量
net?=?patternnet(hiddenlayerSize?trainFcn);%建立網(wǎng)絡(luò)
net.input.processFcns?=?{‘removeconstantrows‘‘mapminmax‘};%數(shù)據(jù)歸一化處理
net.divideFcn?=?‘dividerand‘;??%隨機(jī)劃分?jǐn)?shù)據(jù)
net.divideMode?=?‘sample‘;??%劃分每個(gè)樣本
net.divi
評(píng)論
共有 條評(píng)論