logo

为什么引入非线性激励函数?

Why do we introduce non-linear activation functions?

题目类型: 技术面试题

这是一道技术面试题,常见于澳洲IT公司面试中。

难度: easy

分类: Deep Learning

标签: Nonlinearity, Perceptron, Function Approximation

参考答案摘要

答案 第一、对于神经网络来说,网络的每一层相当于f(wx+b)=f(w'x),对于线性函数,其实相当于f(x)=x,那么在线性激活函数下,每一层相当于用一个矩阵去乘以x,那么多层就是反复的用矩阵去乘以输入。根据矩阵的乘法法则,多个矩阵相乘还是一个大矩阵。所以线性激励函数下,多层网络与一层网络相当。比如,两层的网络(W1*f(W2x))=W1W2x=Wx。第二,非线性变换深度学习有效的原因之一。原因...

本题提供 STAR 原则详细解答和技术解析,登录匠人学院学习中心即可查看完整答案。

← 返回面试题库

为什么引入非线性激励函数?

Easydeep-learningactivation-functionnonlinearity

想查看完整答案?

登录匠人学院学习中心,获取 STAR 格式回答和详细技术解析

前往学习中心查看答案