梯度下降(Gradient Descent)的基本更新公式是什么?如何选择学习率?
What is the basic gradient descent update rule and how do you choose the learning rate?
题目类型: 技术面试题
这是一道技术面试题,常见于澳洲IT公司面试中。
难度: easy
分类: Machine Learning
标签: learning rate, optimizer
参考答案摘要
答案 对目标函数 J(θ),梯度下降的更新为: θ ← θ − η · ∇θ J(θ) ,其中 η 为学习率。学习率过大会震荡甚至发散,过小会收敛慢。实践中可用:学习率预热+衰减(step/cosine)、自适应优化器(Adam/Adagrad)、或通过验证集做网格/范围搜索;并结合梯度裁剪、批大小等一起调参。
答题技巧
技术面试题建议先理清思路再作答,从基础概念讲起,逐步深入。可以结合实际项目经验解释技术原理,展示你的理解深度和实践能力。
本题提供 STAR 原则详细解答和技术解析,登录匠人学院学习中心即可查看完整答案、收藏题目并进行模拟面试练习。