Matlab中的偏最小二乘法(PLS)回归模型,离群点检测和变量选择

科技   科技   2024-09-03 17:18   浙江  

全文下载:http://tecdat.cn/?p=22319

本文建立偏最小二乘法(PLS)回归(PLSR)模型,以及预测性能评估。为了建立一个可靠的模型,我们还实现了一些常用的离群点检测和变量选择方法,可以去除潜在的离群点和只使用所选变量的子集来 "清洗 "你的数据点击文末“阅读原文”获取完整代码数据


相关视频


步骤

  • 建立PLS回归模型

  • PLS的K-折交叉验证

  • PLS的蒙特卡洛交叉验证(MCCV)。

  • PLS的双重交叉验证(DCV)

  • 使用蒙特卡洛抽样方法进行离群点检测

  • 使用CARS方法进行变量选择。

  • 使用移动窗口PLS(MWPLS)进行变量选择。

  • 使用蒙特卡洛无信息变量消除法(MCUVE)进行变量选择

  • 进行变量选择

建立PLS回归模型

这个例子说明了如何使用基准近红外数据建立PLS模型。

plot(X');               % 显示光谱数据。
xlabel('波长指数');
ylabel('强度');

参数设定

A=6;                    % 潜在变量(LV)的数量。
method='center';        % 用于建立PLS模型的X的内部预处理方法
PLS(X,y,A,method);  % 建立模型的命令

pls.m函数返回一个包含成分列表的对象PLS。结果解释。

regcoef_original:连接X和y的回归系数。
X_scores:X的得分。
VIP:预测中的变量重要性,评估变量重要性的一个标准。
变量的重要性。
RMSEF:拟合的均方根误差。
y_fit:y的拟合值。
R2:Y的解释变异的百分比。

PLS的K折交叉验证

说明如何对PLS模型进行K折交叉验证

clear;
A=6;                          % LV的数量
K=5;                          % 交叉验证的次数

plot(CV.RMSECV)               % 绘制每个潜在变量(LVs)数量下的RMSECV
xlabel('潜在变量(LVs)数量')          % 添加x标签
ylabel('RMSECV')              % 添加y标签

返回的值CV是带有成分列表的结构数据。结果解释。

RMSECV:交叉验证的均方根误差。越小越好
Q2:与R2含义相同,但由交叉验证计算得出。
optLV:达到最小RMSECV(最高Q2)的LV数量。



点击标题查阅相关内容


R语言中的偏最小二乘回归PLS-DA


左右滑动查看更多


01

02

03

04



蒙特卡洛交叉验证(MCCV)的PLS

说明如何对PLS建模进行MCCV。与K-fold CV一样,MCCV是另一种交叉验证的方法。

相关视频



% 参数设置
A=6;
method='center';
N=500;                          % Monte Carlo抽样的数量
% 运行mccv.
plot(MCCV.RMSECV);              % 绘制每个潜在变量(LVs)数量下的RMSECV值
xlabel('潜在变量(LVs)数量');

MCCV

MCCV是一个结构性数据。结果解释。

Ypred:预测值
Ytrue:真实值
RMSECV:交叉验证的均方根误差,越小越好。
Q2:与R2含义相同,但由交叉验证计算得出。

PLS的双重交叉验证(DCV)

说明如何对PLS建模进行DCV。与K-fold CV一样,DCV是交叉验证的一种方式。

% 参数设置

N=50;                                 % Monte Carlo抽样的数量
dcv(X,y,A,k,method,N);
DCV

使用蒙特卡洛抽样方法的离群点检测

说明离群点检测方法的使用情况

A=6;
method='center';
F=mc(X,y,A,method,N,ratio);

结果解释。

predError:每个抽样中的样本预测误差
MEAN:每个样本的平均预测误差
STD:每个样本的预测误差的标准偏差

plot(F) % 诊断图

注:MEAN值高或SD值高的样本更可能是离群值,应考虑在建模前将其剔除。

使用CARS方法进行变量选择。

A=6;
fold=5;
car(X,y,A,fold);

结果解释。

optLV:最佳模型的LV数量
vsel:选定的变量(X中的列)。

plotcars(CARS)% 诊断图

注:在这幅图中,顶部和中间的面板显示了选择变量的数量和RMSECV如何随着迭代而变化。底部面板描述了每个变量的回归系数(每条线对应一个变量)如何随着迭代而变化。星形垂直线表示具有最低RMSECV的最佳模型。

使用移动窗口PLS(MWPLS)进行变量选择

load corn_m51;                      % 示例数据
width=15;                           % 窗口大小
mw(X,y,width);
plot(WP,RMSEF);
xlabel('窗口位置');

注:从该图中建议将RMSEF值较低的区域纳入PLS模型中。

使用蒙特卡洛无信息变量消除法(MCUVE)进行变量选择

N=500;
method='center';

UVE

plot(abs(UVE.RI))

结果解释。RI:UVE的可靠性指数,是对变量重要性的测量,越高越好。

进行变量选择

A=6;
N=10000;
method='center';
FROG=rd_pls(X,y,A,method,N);


              N: 10000
              Q: 2
          model: \[10000x700 double\]
        minutes: 0.6683
         method: 'center'
          Vrank: \[1x700 double\]
         Vtop10: \[505 405 506 400 408 233 235 249 248 515\]
    probability: \[1x700 double\]
           nVar: \[1x10000 double\]
          RMSEP: \[1x10000 double\]

xlabel('变量序号');
ylabel('选择概率');

结果解释:

模型结果是一个矩阵,储存了每一个相互关系中的选择变量。
概率:每个变量被包含在最终模型中的概率。越大越好。这是一个衡量变量重要性的有用指标。






本文中分析的数据、代码分享到会员群,扫描下面二维码即可加群! 



本文摘选Matlab中的偏最小二乘法(PLS)回归模型,离群点检测和变量选择,点击“阅读原文”获取全文完整资料。






点击标题查阅往期内容

R语言实现偏最小二乘回归法 partial least squares (PLS)回归
 R语言中的block Gibbs吉布斯采样贝叶斯多元线性回归
R语言Lasso回归模型变量选择和糖尿病发展预测模型
R语言实现贝叶斯分位数回归、lasso和自适应lasso贝叶斯分位数回归分析
Python贝叶斯回归分析住房负担能力数据集
Python用PyMC3实现贝叶斯线性回归模型
R语言区间数据回归分析
R语言用LOESS(局部加权回归)季节趋势分解(STL)进行时间序列异常检测
PYTHON用时变马尔可夫区制转换(MRS)自回归模型分析经济时间序列
R语言随机森林RandomForest、逻辑回归Logisitc预测心脏病数据和可视化分析
基于R语言实现LASSO回归分析
Python用PyMC3实现贝叶斯线性回归模型
使用R语言进行多项式回归、非线性回归模型曲线拟合
R语言中的偏最小二乘回归PLS-DA
R语言生态学建模:增强回归树(BRT)预测短鳍鳗生存分布和影响因素
R语言实现偏最小二乘回归法 partial least squares (PLS)回归
Matlab中的偏最小二乘法(PLS)回归模型,离群点检测和变量选择
偏最小二乘回归(PLSR)和主成分回归(PCR)
R语言如何找到患者数据中具有差异的指标?(PLS—DA分析)




拓端数据部落
拓端(tecdat.cn)创立于2016年,提供专业的数据分析与挖掘服务,致力于充分挖掘数据价值。
 最新文章