python 还原梯度下降算法实现一维线性回归

_ZRF_ 9 0 PDF 2020-12-17 06:12:10

首先我们看公式: 这个是要拟合的函数 然后我们求出它的损失函数, 注意:这里的n和m均为数据集的长度,写的时候忘了 注意,前面的theta0-theta1x是实际值,后面的y是期望值 接着我们求出损失函数的偏导数: 最终,梯度下降的算法: 学习率一般小于1,当损失函数是0时,我们输出theta0和theta1. 接下来上代码! class LinearRegression(): def __init__(self, data, theta0, theta1, learning_rate): self.data = data self.theta0

用户评论
请输入评论内容
评分:
暂无评论