基于matlab的微表情识别。 通过gabor小波提取表情特征,pca进行降维,ELM分类器训练,然后选择待识别的微表情,提取特征后输入训练好的模型进行分类,识别结果由MATLAB的GUI输出。 程序已调通,可直接运行。
微表情识别这玩意儿听起来玄乎,实际操作起来倒是有种拼乐高的爽感。最近用MATLAB搭了个流程,从特征提取到分类一气呵成,特别是那个Gabor小波的眼神捕捉功能,简直像给算法装了个显微镜。
先说特征提取这块,Gabor滤波器组是核心武器。MATLAB里搞这个特别方便,直接调gbabor函数生成不同方向的滤波器组。这里有个小技巧:波长参数别设太大,微表情的肌肉抖动通常就0.2秒左右,我试下来lambda=2的时候效果最灵:
% 生成Gabor滤波器组 gaborArray = gabor([4,4],[0,45,90,135]); featureVector = []; for i = 1:numel(gaborArray) gaborMag = imgaborfilter(roiImg, gaborArray(i)); featureVector = [featureVector; gaborMag(:)]; end这段代码跑完,原本128x128的ROI区域会被展开成上万维的特征向量,这时候PCA就该出场了。注意别直接把原始数据扔进去,先做白化处理能让降维后的特征更"解耦":
[coeff,score,latent] = pca(featureVectors','Centered',true,'NumComponents',150); projFeatures = featureVectors' * coeff;这里有个坑——PCA的维度不是拍脑袋定的。我对比过不同维度下的分类准确率,发现当累计贡献率达到85%时性价比最高,再往上增维对准确率的提升微乎其微。
ELM分类器是整套流程里的速度担当。传统SVM在交叉验证时磨磨唧唧,ELM直接矩阵运算一步到位。注意隐层节点数别设太小,50个节点起步:
% ELM训练核心代码 inputWeight = rand(hiddenSize, inputSize)*2-1; H = 1./(1 + exp(-inputWeight*projFeatures')); outputWeight = pinv(H') * onehotLabels;这里用随机矩阵初始化输入权重时,一定要确保值域在[-1,1]之间。有次手滑写成[0,1]导致准确率暴跌20%,排查半天才发现是初始化范围的问题。
GUI部分用App Designer拖控件比GUIDE方便得多。重点是把分类结果用进度条可视化,毕竟微表情的强度差异很微妙。这里用uiprogressdlg做个加载动画,用户体验直接拉满:
dlg = uiprogressdlg(app.UIFigure,'Title','正在分析微表情...'); pause(0.5) set(dlg,'Value',0.7,'Message','特征匹配中'); prediction = ELM_predict(testFeature, outputWeight, inputWeight);整套系统跑起来后最魔性的地方在于实时检测——当算法突然在某人假笑时标出"轻蔑"标签,那种拆穿微表情的爽感堪比侦探破案。不过要注意光照补偿,有次在背光环境下把正常表情误判为厌恶,后来加了个直方图均衡才解决。
应用场景方面,这套东西在医疗问诊和心理评估领域特别实用。上周拿团队成员的测试视频跑了下,居然准确识别出某人在听到deadline时的瞬间紧张微表情,吓得他们再也不敢在摄像头前摸鱼了。