dropout原理和作用
收藏
dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃。注意是暂时,对于随机梯度下降来说,由于是随机丢弃,故而每一个mini-batch都在训练不同的网络。dropout仅在训练过程中进行,在模型训练好之后的测试阶段,则不会舍弃神经网络单元,而是根据其在训练过程中丢弃的次数对其输出的结果乘上一个权重。dropout可以有效的防止过拟合,该方法可以免除对其他神经元的依赖,进而使网络学习独立的相关性。
0
收藏
请登录后评论