# 逻辑回归

# 1. 二分分类与逻辑回归

逻辑回归——知乎 (opens new window)

逻辑回归(Logistic Regression)是一种用于解决二分类(0 or 1)问题的机器学习方法,用于估计某种事物的可能性。

逻辑回归(Logistic Regression)与线性回归(Linear Regression)都是一种广义线性模型(generalized linear model),与线性回归有很多相同之处。逻辑回归假设因变量 y 服从伯努利分布,而线性回归假设因变量 y 服从高斯分布。

逻辑回归以线性回归为理论支持,通过 Sigmoid 函数引入非线性因素,以处理 0/1 分类问题。

因此去除 Sigmoid 映射函数的话,逻辑回归算法就是一个线性回归。

# 2. 逻辑回归

在二分分类问题中,目标是训练出一个分类器,以图片的特征向量 x 作为输入,预测输出的结果标签 y 是1 还是 0。

# 逻辑回归中的维度

  • 表示特征数量, 表示样本数量
  • 表示一个单独的样本
    • 是一个 维特征向量
    • 是一个标量,表示 0 或 1
  • 表示参数 W,维度为
  • b 表示偏置量,为一个实数
  • 向量化
    • 表示样本矩阵,其维度为
    • 表示标签矩阵,维度为

# 3. 回归函数

使用线性回归函数可以拟合出特征与结果的映射关系:

由于逻辑回归是处理二分法问题的,其结果应在区间 之中,所以需要对 进行处理:

sigmoid 函数图像如下:

# 4. 损失函数与成本函数

# 损失函数

所谓损失,就是预测值与真实值的偏离程度。损失越小,表示学习结果越好。

损失函数定义了回归在单个训练样本上的表现:

# 成本函数

损失函数只定义了回归在单个训练样本上的表现,成本函数则衡量了在全体训练样本上的表现,其计算公式为所有训练样本的损失值求平均:

# 5. 导数与梯度下降

成本函数 需要是一个凸函数,以便于找到最小值。

# 导数

导数就是斜率。

# 梯度下降法

# 计算图

# 向后传播

# 逻辑回归的梯度下降

单个样本的梯度下降

m 个样本的梯度下降

最后更新时间: 1/10/2022, 11:01:04 AM