logo

为什么LSTM模型中既存在sigmoid又存在tanh两种激活函数,而不是选择统一的sigmoid或者tanh?这样做的目的是什么?

Why does an LSTM use both sigmoid and tanh activations instead of using only sigmoid or only tanh? What is the purpose?

题目类型: 技术面试题

这是一道技术面试题,常见于澳洲IT公司面试中。

难度: medium

分类: Deep Learning

标签: LSTM, Sigmoid, Tanh, Gates

参考答案摘要

答案 sigmoid 用在了各种gate上,产生0~1之间的值,这个一般只有sigmoid最直接了。tanh 用在了状态和输出上,是对数据的处理,这个用其他激活函数或许也可以。二者目的不一样,另可参见A Critical Review of Recurrent Neural Networks for Sequence Learning的section4.1,说了那两个tanh都可以替换成别的。

本题提供 STAR 原则详细解答和技术解析,登录匠人学院学习中心即可查看完整答案。

← 返回面试题库

为什么LSTM模型中既存在sigmoid又存在tanh两种激活函数,而不是选择统一的sigmoid或者tanh?这样做的目的是什么?

Mediumdeep-learningrnnlstmactivation-function

想查看完整答案?

登录匠人学院学习中心,获取 STAR 格式回答和详细技术解析

前往学习中心查看答案