logo

神经网络发展史?

Neural network development history?

题目类型: 技术面试题

这是一道技术面试题,常见于澳洲IT公司面试中。

难度: medium

分类: Deep Learning

标签: ReLU, BatchNorm, Dropout, ResNet, LSTM, GRU, WGAN, WGAN-GP

参考答案摘要

答案 sigmoid会饱和,造成梯度消失。于是有了ReLU。ReLU负半轴是死区,造成梯度变0。于是有了LeakyReLU,PReLU。强调梯度和权值分布的稳定性,由此有了ELU,以及较新的SELU。太深了,梯度传不下去,于是有了highway。干脆连highway的参数都不要,直接变残差,于是有了ResNet。强行稳定参数的均值和方差,于是有了BatchNorm。在梯度流中增加噪声,于是有了Dr...

本题提供 STAR 原则详细解答和技术解析,登录匠人学院学习中心即可查看完整答案。

← 返回面试题库

神经网络发展史?

Mediumdeep-learninghistoryrelubatchnormdropoutrnngan

想查看完整答案?

登录匠人学院学习中心,获取 STAR 格式回答和详细技术解析

前往学习中心查看答案