神经网络中的激活函数是什么(在 TensorFlow 里怎么理解)?
What are activation functions in TensorFlow (neural networks)?
题目类型: 技术面试题
这是一道技术面试题,常见于澳洲IT公司面试中。
难度: easy
标签: Neural Networks, TensorFlow
参考答案摘要
激活函数用于引入非线性,让神经网络能拟合更复杂的关系。常见激活函数包括 ReLU、sigmoid、tanh、softmax(常用于输出层)。在 TensorFlow/Keras 中通常通过 activation=... 或 tf.nn.* 来指定。
答题技巧
技术面试题建议先理清思路再作答,从基础概念讲起,逐步深入。可以结合实际项目经验解释技术原理,展示你的理解深度和实践能力。
本题提供 STAR 原则详细解答和技术解析,登录匠人学院学习中心即可查看完整答案、收藏题目并进行模拟面试练习。