吴恩达机器学习笔记(二)

第三周

逻辑回归模型

关于分类问题,首先讨论二分类问题,即输出值$y$只有两种值0和1,$y=1$表示正分类,$y=0$表示负分类。预测函数表示如下:

$g(z)$为”Sigmoid”函数,也称为逻辑函数。

$h_{\theta}(x)$表示的是输出为1的概率。

判定边界

代价函数

逻辑回归代价函数定义如下:

简化代价函数:

根据代价函数,可以得到如下结果:

矩阵表达式如下($X$为设计矩阵[mx(n+1)]):

梯度下降

要使代价函数最小,依旧采用求偏导的方式,同时更新下面表达式:

矩阵表达式如下:

优化$\theta$,除了梯度下降算法,还有”Conjugate gradient”, “BFGS”, 和”L-BFGS”等其他优化算法,能更快更精确的优化$\theta$参数,但是算法也更复杂。

多分类: One-vs-all

过拟合

通常有两种方式处理过拟合问题

  • 减少样本特征数量

    • 手动选择所需的特征
    • 使用模型选择算法
  • 正则化

    • 保留所有的特征,但是减小参数$\theta_j$的大小
    • 当拥有大量有用的特征时,正则化是有效的

正则化线性回归

引入正则化参数$\lambda$,$\lambda$过大可能造成欠拟合

应用梯度下降算法

式子中完成正则化。

标准方程表示