這是我看過講神經網路最明白的一篇
阿新 • • 發佈:2019-01-11
%讀取訓練資料
[f1,f2,f3,f4,class] = textread('trainData.txt' , '%f%f%f%f%f',150);
%特徵值歸一化
[input,minI,maxI] = premnmx( [f1 , f2 , f3 , f4 ]') ;%構造輸出矩陣
s = length( class) ;
output = zeros( s , 3 ) ;
for i =1 : s
output( i , class( i ) ) =1 ;
end
%建立神經網路
net = newff( minmax(input) , [103] , { 'logsig''purelin' } , 'traingdx' ) ;
%設定訓練引數
net.trainparam.show =50 ;
net.trainparam.epochs =500 ;
net.trainparam.goal =0.01 ;
net.trainParam.lr =0.01 ;
%開始訓練
net = train( net, input , output' ) ;%讀取測試資料
[t1 t2 t3 t4 c] = textread('testData.txt' , '%f%f%f%f%f',150);
%測試資料歸一化
testInput = tramnmx ( [t1,t2,t3,t4]' , minI, maxI ) ;%模擬
Y = sim( net , testInput )
%統計識別正確率
[s1 , s2] = size( Y ) ;
hitNum = 0 ;
for i =1 : s2
[m , Index] = max( Y( : , i ) ) ;
if( Index == c(i) )
hitNum = hitNum +1 ;
end
end
sprintf('識別率是 %3.3f%%',100* hitNum / s2 )
[f1,f2,f3,f4,class] = textread('trainData.txt' , '%f%f%f%f%f',150);
%特徵值歸一化
[input,minI,maxI] = premnmx( [f1 , f2 , f3 , f4 ]') ;%構造輸出矩陣
s = length( class) ;
output = zeros( s , 3 ) ;
for i =1 : s
output( i , class( i ) ) =1 ;
end
%建立神經網路
net = newff( minmax(input) , [103] , { 'logsig''purelin' } ,
%設定訓練引數
net.trainparam.show =50 ;
net.trainparam.epochs =500 ;
net.trainparam.goal =0.01 ;
net.trainParam.lr =0.01 ;
%開始訓練
net = train( net, input , output' ) ;%讀取測試資料
[t1 t2 t3 t4 c] = textread('testData.txt' , '%f%f%f%f%f',150);
%測試資料歸一化
testInput = tramnmx ( [t1,t2,t3,t4]' , minI, maxI ) ;%模擬
Y = sim( net , testInput )
[s1 , s2] = size( Y ) ;
hitNum = 0 ;
for i =1 : s2
[m , Index] = max( Y( : , i ) ) ;
if( Index == c(i) )
hitNum = hitNum +1 ;
end
end
sprintf('識別率是 %3.3f%%',100* hitNum / s2 )