5.机器学习-十大算法之一岭回归(Ridge)算法原理讲解

一·摘要二·个人简介三·前言四·岭回归详细讲解五·范数六·原理七·代码实现八·第三方库实现

一·摘要

岭回归是一种改良的最小二乘估计法,它通过引入L2范数惩罚项来处理多重共线性问题,并提高模型的稳定性和泛化能力。

在机器学习和统计学中,回归分析是研究变量间关系的重要方法。当自变量之间存在高度相关性时,普通最小二乘法可能导致系数估计值不稳定,影响模型的泛化能力。为了解决这个问题,岭回归被提出。它在最小二乘法的基础上,对系数向量添加了一个L2范数惩罚项,这个惩罚项等于所有回归系数平方和的λ倍(λ为惩罚系数)。这样做的目的是约束模型的复杂度,避免过拟合,同时保持模型的解释力。

二·个人简介

️️个人主页:以山河作礼。 ️️:Python领域新星创作者,CSDN实力新星认证,CSDN内容合伙人,阿里云社区专家博主,新星计划导师,在职数据分析师。

悲索之人烈焰加身,堕落者不可饶恕。永恒燃烧的羽翼,带我脱离凡间的沉沦。

 希望大家能持续支持,共同向前迈进!

如果您觉得文章有价值,

欢迎留言,点赞,收藏并关注我们➕欄。

敖热门专栏敖

类型专栏Python基础Python基础入门—详解版Python进阶Python基础入门—模块版Python高级Python网络爬虫从入门到精通Web全栈开发Django基础入门Web全栈开发HTML与CSS基础入门Web全栈开发JavaScript基础入门Python数据分析Python数据分析项目机器学习机器学习算法人工智能人工智能

三·前言

岭回归是一种改良的最小二乘估计法,它通过引入L2范数惩罚项来处理多重共线性问题,并提高模型的稳定性和泛化能力。

在机器学习和统计学中,回归分析是研究变量间关系的重要方法。当自变量之间存在高度相关性时,普通最小二乘法可能导致系数估计值不稳定,影响模型的泛化能力。为了解决这个问题,岭回归被提出。它在最小二乘法的基础上,对系数向量添加了一个L2范数惩罚项,这个惩罚项等于所有回归系数平方和的λ倍(λ为惩罚系数)。这样做的目的是约束模型的复杂度,避免过拟合,同时保持模型的解释力。

四·岭回归详细讲解

普通线性回归采用最小二乘法,损失函数为误差平方和,使其最小化,可以使用正规方程求回归系数,但是,必须保证 是一个可逆的矩阵。

岭回归(ridge regression)又称脊回归或吉洪诺夫正则化(Tikhonovregularization),实质上是对最小二乘法的改良,因加入了惩罚系数,故放弃了最小二乘法的无偏性,所以岭回归是以损失部分信息、降低精度为代价来解决病态矩阵问题的回归方法。岭回归通过加入惩罚项,能够过滤不太重要的特征,在统计学称为缩减。相比普通线性回归,岭回归能够获得更好的预测效果,除了能够解决特征数多于样本数的问题,还能够解决过拟合严重和特征之间存在共线性的问题。

五·范数

六·原理

七·代码实现

import numpy as np

def ridge(X, y, lambdas=0.1):

"""

岭回归

args:

X - 训练数据集

y - 目标标签值

lambdas - 惩罚项系数

return:

w - 权重系数

"""

return np.linalg.inv(X.T.dot(X) + lambdas * np.eye(X.shape[1])).dot(X.T).dot(y)

八·第三方库实现

from sklearn.linear_model import Ridge

# 初始化岭回归器

reg = Ridge(alpha=0.1, fit_intercept=False)

# 拟合线性模型

reg.fit(X, y)

# 权重系数

w = reg.coef_

文章来源

评论可见,请评论后查看内容,谢谢!!!评论后请刷新页面。