线性回归(一元与多元)

线性回归是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法,运用十分广泛。其表达形式为y = w'x+e,e为误差服从均值为0的正态分布。

    首页 > 人工智能(Artificial Intelligence) > 机器学习基础 > 线性回归(一元与多元)
  • 一元线性回归模型

    线性回归是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法,运用十分广泛。其表达形式为y = w'x+e,e为误差服从均值为0的正态分布。

    2019-05-02 19:35:07 180
  • 模型训练与损失 -- 代价函数

    训练模型表示通过有标签样本来学习(确定)所有权重和偏差的理想值。在监督式学习中,机器学习算法通过以下方式构建模型:检查多个样本并尝试找出可最大限度地减少损失的模型;这一过程称为经验风险最小化。损失是对糟糕预测的惩罚。也就是说,损失是一个数值,表示对于单个样本而言模型预测的准确程度。如果模型的预测完全准确,则损失为零,否则损失会较大。训练模型的目标是从所有样本中找到一组平均损失“较小”的权重和偏差。

    2019-05-02 20:56:49 137
  • 降低损失 -- 梯度下降法

    梯度下降是一个用来求函数最小值的算法。梯度下降法算法会计算损失曲线在起点处的梯度。梯度是偏导数的矢量;它可以让您了解哪个方向距离目标“更近”或“更远”。请注意,损失相对于单个权重的梯度就等于导数。梯度是一个矢量,因此具有以下两个特征:方向和大小。梯度始终指向损失函数中增长最为迅猛的方向。梯度下降法算法会沿着负梯度的方向走一步,以便尽快降低损失。

    2019-05-03 12:18:20 205
  • 线性回归中的梯度下降

    梯度下降是很常用的算法,它不仅被用在线性回归上和线性回归模型、平方误差代价函数。这里我们将梯度下降和代价函数结合。我们将用到此算法,将其应用于具体的拟合直线的线性回归算法里。

    2019-05-03 22:12:36 169
  • 多元线性回归

    在回归分析中,如果有两个或两个以上的自变量,就称为多元回归。事实上,一种现象常常是与多个因素相联系的,由多个自变量的最优组合共同来预测或估计因变量,比只用一个自变量进行预测或估计更有效,更符合实际。因此多元线性回归比一元线性回归的实用意义更大。

    2019-05-04 18:13:51 176
关闭