包含神经网络训练流程、基本元素激活函数(relu,softmax,sigmoid,tanh),损失函数(交叉熵(sigmoid_cross_entropy_with_logits、softmax_cross_entropy_with_logits、sparse_softmax_cross_entropy_with_logits、weighted_cross_entropy_with_logits),均方差),优化器(梯度下降(Gradient Descent)、动量优化法(加速下降)))等详细介绍