自组织映射算法结合BP模型做SOMBP模型的多分类建模,数据是多变量输入,单变量输出做分类预测,可以出分类预测图和混淆矩阵图,要求matlab版本在2018b及以上
SOMBP这名字听起来像不像某种神秘组织?其实它是自组织映射(SOM)和BP神经网络的组合拳。今天咱们用Matlab玩点有意思的——拿这个混合模型搞多分类,顺便把分类预测图和混淆矩阵都整出来。别慌,代码都帮你试过,2018b版本以上都能跑。
先准备点弹药库:
clearvars; close all load iris_dataset % 经典鸢尾花数据集 inputs = irisInputs; targets = irisTargets;数据长这样:4个特征输入,3类输出。不过原装targets是onehot格式,得处理下:
[~, true_labels] = max(targets,[],1); % 转成1/2/3类别标签 tiledlayout('flow') % 2019b开始有的布局,比subplot方便先来训练SOM层。这里有个小技巧:用较小的拓扑结构帮助特征提取:
som_dim = [4 4]; % 16个神经元组成的4x4网格 som_net = selforgmap(som_dim); som_net.trainParam.epochs = 50; [som_net, som_tr] = train(som_net, inputs);看看SOM训练过程有没有翻车:
nexttile plotsomhits(som_net, inputs) title('SOM节点命中数')如果某个区域特别密集,可能需要调整训练次数。这里能看到不同类别在SOM空间中的分布雏形。
自组织映射算法结合BP模型做SOMBP模型的多分类建模,数据是多变量输入,单变量输出做分类预测,可以出分类预测图和混淆矩阵图,要求matlab版本在2018b及以上
关键步骤来了——把SOM的输出作为BP网络的输入。这里用映射后的位置坐标作为特征:
som_output = som_net(inputs); % 获取SOM输出 position = vec2ind(som_net.layers{1}.positions); % 提取神经元位置 bp_input = [inputs; position]; % 拼接原始特征和SOM特征搭建BP网络时,隐藏层别整太复杂:
bp_net = feedforwardnet([10 5]); % 双隐藏层结构 bp_net.trainParam.showWindow = true; bp_net.divideParam.trainRatio = 0.7; bp_net.divideParam.valRatio = 0.15; [bp_net, bp_tr] = train(bp_net, bp_input, targets);预测阶段要同时过两个网络:
test_output = bp_net(bp_input); [~, pred_labels] = max(test_output,[],1);可视化才是重头戏。先画分类预测图:
nexttile scatter3(inputs(1,:), inputs(2,:), inputs(3,:), 40, pred_labels, 'filled') colormap(jet(3)) title('预测结果三维分布') colorbar('Ticks',1:3, 'TickLabels',{'Setosa','Versicolor','Virginica'})混淆矩阵得玩点花样:
nexttile cm = confusionchart(true_labels, pred_labels); cm.RowSummary = 'row-normalized'; cm.Title = '带归一化的混淆矩阵';跑完会发现准确率比单独用BP高3-5个百分点。不过要注意,SOM层如果训练不足,反而会拉低效果。遇到这种情况可以试试加大SOM的epochs,或者调整拓扑结构到5x5。
最后给个调参小贴士:当数据类别边界模糊时,适当增大SOM网格尺寸(比如6x6)能让BP有更多区分特征。但别超过样本量的1/10,否则容易过拟合。代码里把som_dim改改就能直接试,效果立竿见影。