logo

梯度下降(Gradient Descent)的基本更新公式是什么?如何选择学习率?

What is the basic gradient descent update rule and how do you choose the learning rate?

题目类型: 技术面试题

这是一道技术面试题,常见于澳洲IT公司面试中。

难度: easy

分类: Machine Learning

标签: learning rate, optimizer

参考答案摘要

答案 对目标函数 J(θ),梯度下降的更新为: θ ← θ − η · ∇θ J(θ) ,其中 η 为学习率。学习率过大会震荡甚至发散,过小会收敛慢。实践中可用:学习率预热+衰减(step/cosine)、自适应优化器(Adam/Adagrad)、或通过验证集做网格/范围搜索;并结合梯度裁剪、批大小等一起调参。

本题提供 STAR 原则详细解答和技术解析,登录匠人学院学习中心即可查看完整答案。

← 返回面试题库

梯度下降(Gradient Descent)的基本更新公式是什么?如何选择学习率?

Easymachine-learningoptimizationgradient-descent

想查看完整答案?

登录匠人学院学习中心,获取 STAR 格式回答和详细技术解析

前往学习中心查看答案