神经网络训练的建议


在本章中,我们将了解可以使用 TensorFlow 框架实现的神经网络训练的各个方面。

以下是可以评估的十项建议 -

反向传播

反向传播是一种计算偏导数的简单方法,其中包括最适合神经网络的基本组合形式。

反向传播

随机梯度下降

在随机梯度下降中,批次是示例的总数,用户用它来计算单次迭代中的梯度。到目前为止,假设批次是整个数据集。最好的例子是在谷歌规模下工作;数据集通常包含数十亿甚至数千亿的示例。

随机梯度下降

学习率衰减

学习率衰减

调整学习率是梯度下降优化最重要的特征之一。这对于 TensorFlow 的实现至关重要。

辍学

具有大量参数的深度神经网络形成强大的机器学习系统。然而,过度拟合是此类网络中的一个严重问题。

辍学

最大池化

最大池化是一种基于样本的离散化过程。目的是对输入表示进行下采样,从而降低所需假设的维度。

最大池化

长短期记忆 (LSTM)

LSTM 控制着在指定神经元内应采取哪些输入的决定。它包括对决定应该计算什么以及应该生成什么输出的控制。

长短期记忆