神经网络中,是否隐藏层如果具有足够数量的单位,它就可以近似任何连续函数?
In neural networks, if a hidden layer has enough units, can it approximate any continuous function?
题目类型: 技术面试题
这是一道技术面试题,常见于澳洲IT公司面试中。
难度: medium
分类: Deep Learning
标签: Universal Approximation, MLP
参考答案摘要
答案 通用逼近性定理指出,一个具有单个隐蔽层和标准激活函数的简单前馈神经网络(即多层感知器),如果隐蔽层具有足够数量的单位,它就可以近似任何连续函数。讨论:尽管通用逼近定理指出,具有足够参数的神经网络可以近似一个真实的分类/回归函数,但它并没有说明这些参数是否可以通过随机梯度下降这样的过程来习得。另外,你可能想知道我们是否可以从理论上计算出需要多少神经元才能很好地近似给定的函数。
本题提供 STAR 原则详细解答和技术解析,登录匠人学院学习中心即可查看完整答案。