WEEK2.2.2 多变量的梯度下降
多变量的梯度下降
本节将讨论如何找到满足前面的假设函数的参数,即如何使用梯度下降法来解决多特征量的线性回归问题。
上节指出了假设函数\[h_\theta(x)\]可以由两个向量相乘表示,即\[h_\theta(x)=\theta^Tx\] ,其中向量\[\theta\]是由参数\[\theta_0,\theta_1,...,\theta_n\]组成
的n+1维向量,\[x\]是由\[x_0=1\] 和 n个特征量\[x_1,...,x_n\]组成的n+1维向量。
代价函数(Cost Function)是参数为\[\theta_0,\theta_1,...,\theta_n\]的函数 J,其给出了误差平方和。
使用梯度下降法后,\[\theta_j\]被更新成\[\theta_j\]减去学习率\[\alpha\]与对应导数(代价函数J对参数\[\theta_j\]的偏导数)的乘积。
此时梯度下降算法形式如下(一元特征量梯度下降是多特征量梯度下降算法的特例,即令\[x_i=1\]):
阅读材料
https://www.coursera.org/learn/machine-learning/supplement/aEN5G/gradient-descent-for-multiple-variables
相关文章