logo

是否可以将任何非线性作为激活函数?

Can any nonlinear function be used as an activation function?

题目类型: 技术面试题

这是一道技术面试题,常见于澳洲IT公司面试中。

难度: medium

分类: Deep Learning

标签: Activation Function, Nonlinearity

参考答案摘要

答案 在通过具有超出典型ReLU()和tanh()的特殊激活函数的神经网络获得小幅提高的研究,已有多篇论文报道。我们并非试图开发专门的激活函数,而是简单地询问它是否可能在神经网络中使用任何旧的非线性函数?除去sign(x)外,所有的非线性激活函数对分类任务都是非常有效的。结果有些令人吃惊,因为所有函数都同样有效。事实上,像x2这样的对称激活函数表现得和ReLUs一样好!从这个实验中,我们应该谨慎地...

本题提供 STAR 原则详细解答和技术解析,登录匠人学院学习中心即可查看完整答案。

← 返回面试题库

是否可以将任何非线性作为激活函数?

Mediumdeep-learningactivation-functionrelutanh

想查看完整答案?

登录匠人学院学习中心,获取 STAR 格式回答和详细技术解析

前往学习中心查看答案