如何用贝叶斯机率说明Dropout的原理【面试题详解】

今天爱分享给大家带来如何用贝叶斯机率说明Dropout的原理【面试题详解】,希望能够帮助到大家。
回想一下使用Bagging学习,我们定义 k 个不同的模型,从训练集有替换采样 构造 k 个不同的数据集,然后在训练集上训练模型 i。

Dropout的目标是在指数 级数量的神经网络上近似这个过程。Dropout训练与Bagging训练不太一样。在Bagging的情况下,所有模型是独立 的。

在Dropout的情况下,模型是共享参数的,其中每个模型继承的父神经网络参 数的不同子集。参数共享使得在有限可用的内存下代表指数数量的模型变得可能。 在Bagging的情况下,每一个模型在其相应训练集上训练到收敛。
在Dropout的情况下,通常大部分模型都没有显式地被训练,通常该模型很大,以致到宇宙毁灭都不 能采样所有可能的子网络。取而代之的是,可能的子网络的一小部分训练单个步骤,参数共享导致剩余的子网络能有好的参数设定。

人已赞赏
Python

Python的内存管理机制及调优手段?【面试题详解】

2020-12-25 11:21:02

Python

什么是Hash(散列函数)?【面试题详解】

2020-12-25 11:21:59

'); })();