logo
← 返回面试题库

请问人工神经网络中为什么ReLu要好于Tanh和sigmoid function?函数图形如下:

中等deep-learningactivation-functionrelubatch-normalization

想查看完整答案?

登录匠人学院学习中心,获取 STAR 格式回答和详细技术解析

前往学习中心查看答案