神经网络中的激活函数是什么(在 TensorFlow 里怎么理解)?
What are activation functions in TensorFlow (neural networks)?
题目类型: 技术面试题
这是一道技术面试题,常见于澳洲IT公司面试中。
难度: easy
标签: Neural Networks, TensorFlow
参考答案摘要
激活函数用于引入非线性,让神经网络能拟合更复杂的关系。常见激活函数包括 ReLU、sigmoid、tanh、softmax(常用于输出层)。在 TensorFlow/Keras 中通常通过 activation=... 或 tf.nn.* 来指定。
本题提供 STAR 原则详细解答和技术解析,登录匠人学院学习中心即可查看完整答案。