线性回归和逻辑回归的区别

目录:

Anonim

主要区别 线性回归和逻辑回归的区别在于 线性回归用于预测连续值,而逻辑回归用于预测离散值。

机器学习系统可以根据对过去输入的训练来预测未来的结果。有两种主要类型的机器学习,称为监督学习和无监督学习。回归和分类属于监督学习,而聚类属于无监督学习。监督学习算法使用标记数据来训练数据集。线性回归和逻辑回归是两种类型的监督学习算法。当因变量为连续且模型为线性时,使用线性回归。当因变量是离散的,并且模型是非线性的时,使用逻辑回归。

线性回归、逻辑回归、机器学习

什么是线性回归

线性回归发现自变量和因变量之间的关系。两者是连续的。自变量是不被其他变量改变的变量。用 x 表示。也可以有多个自变量,如x1、x2、x3等。因变量根据自变量而变化,用y表示。

当有一个自变量时,回归方程如下。

y = b0+ b1x

例如,假设 x 代表降雨量,y 代表作物产量。

图 1:线性回归

数据集将如上所示。然后,选择一条覆盖大部分数据点的线。这条线代表预测值。

图 2:实际数据点与预测值之间的距离

然后,求出每个数据点到直线的距离,如上图所示。这是实际值和预测值之间的距离。该距离也称为误差或残差。最佳拟合线应具有最小的误差平方和。当给定新的降雨量值 (x) 时,可以使用这条线找到相应的作物产量 (y)。

在现实世界中,可以有多个自变量(x1、x2、x3……)。这称为多元线性回归。多元线性回归方程如下。

什么是逻辑回归

逻辑回归可用于对两个类别进行分类。它也被称为 二元分类。 检查电子邮件是否是垃圾邮件、预测客户是否会购买产品、预测是否有可能获得促销是逻辑回归的其他一些示例。

图 3:逻辑回归

假设学生每天学习的小时数是自变量。据此计算通过考试的概率。值 0.5 被视为阈值。当给出新的小时数时,可以使用此图表找到相应的通过考试的概率。如果概率在 0.5 以上,则视为 1 或通过。如果概率低于 0.5,则视为 0 或失败。

将线性回归方程应用于 sigmoid 函数将给出逻辑回归方程。

sigmoid 函数是

另一个需要注意的重点是逻辑回归仅适用于分类 2 个类别。它不用于多类分类。

线性回归和逻辑回归的区别

定义

线性回归是一种线性方法,它对因变量与一个或多个自变量之间的关系进行建模。相比之下,逻辑回归是一种统计模型,用于预测只能有两个值的结果的概率。

用法

线性回归用于解决回归问题,逻辑回归用于解决分类问题(二元分类)。

方法

当自变量发生变化时,线性回归估计因变量。逻辑回归计算事件发生的可能性。这是线性回归和逻辑回归之间的重要区别之一。

产值

此外,在线性回归中,输出值是连续的。在逻辑回归中,输出值是离散的。

模型

虽然线性回归使用直线,但逻辑回归使用 S 曲线或 sigmoid 函数。 这是线性回归和逻辑回归之间的另一个重要区别。

例子

预测一个国家的 GDP、预测产品价格、预测房屋售价、分数预测是线性回归的一些例子。预测电子邮件是否是垃圾邮件、预测信用卡交易是否欺诈、预测客户是否会贷款都是逻辑回归的一些例子。

结论

线性回归和逻辑回归的区别在于线性回归用于预测连续值,逻辑回归用于预测离散值。简而言之,线性回归用于回归,而逻辑回归用于分类。

参考:

1. 线性回归分析 | Python 中的线性回归 |机器学习算法 | Simplilearn,2018 年 3 月 26 日,可在此处获得。2。逻辑回归 | Python 中的逻辑回归 |机器学习算法 | Simplilearn,2018 年 3 月 22 日,可在此处获取。

图片提供:

1. Sewaqu 的“线性回归”——自己的作品,公共领域)通过 Commons Wikimedia2。 Thomas.haslwanter 的“线性回归拟合的残差” – 自己的作品(CC BY-SA 3.0)通过 Commons Wikimedia3。 Qef 的“Logistic-curve”(谈话)– 通过 Commons Wikimedia 使用 gnuplot(公共领域)从头开始创建

线性回归和逻辑回归的区别