所用的方法是梯度下降(Gradientdescent):通过使loss值向当前点对应梯度的反方向不断移动,来降低loss。一次移动多少是由学习速率(learningrate)来控制的。