logo
COMP94446 学分

神经网络与深度学习

新南威尔士大学·University of New South Wales·悉尼

COMP9444《神经网络与深度学习》是 新南威尔士大学 的公开课程页面。当前可确认的信息包括 6 学分,难度 难,公开通过率 88%。 页面已整理 10 周教学安排,3 个重点考核,方便你快速判断工作量、考核结构和适配度。 课程简介摘要:课程定位 COMP9444 是 UNSW 计算机硕士专业在‘现代人工智能’维度的绝对王牌必修/核心课。

💪 压力
5 / 5
⭐ 含金量
5 / 5
✅ 通过率
0%

📖 课程概览

选课速读: COMP9444《神经网络与深度学习》是 新南威尔士大学 的公开课程页面。当前可确认的信息包括 6 学分,难度 难,公开通过率 88%。 页面已整理 10 周教学安排,3 个重点考核,方便你快速判断工作量、考核结构和适配度。 课程简介摘要:课程定位 COMP9444 是 UNSW 计算机硕士专业在‘现代人工智能’维度的绝对王牌必修/核心课。
### 课程定位 COMP9444 是 UNSW 计算机硕士专业在‘现代人工智能’维度的绝对王牌必修/核心课。它解决了统治这个时代的终极算法命题:如何利用多层非线性网络模拟人类大脑?如何让机器学会理解语言、生成图像?它是通往深度学习算法工程师、大模型研发专家、及顶级 AI 研究员岗位的实战通行证。它将高深的随机梯度下降、反向传播算法与现代 PyTorch 框架深度整合,是培养‘具备底层原理洞察力的 AI 架构师’的必修课。 ### 技术栈与学习内容 课程围绕‘联结主义 AI 与特征学习’展开。核心技术栈包括:Python、PyTorch 框架、Numpy 以及 GPU 加速计算。学习内容涵盖:感知机与多层感知机 (MLP)、最具工业地位的‘反向传播 (Backpropagation) 算法推导’、卷积神经网络 (CNN) 及其在视觉中的应用、循环神经网络 (RNN/LSTM/GRU) 及其在序列建模中的作用、以及最为前沿的‘注意力机制 (Attention) 与 Transformer’。此外,课程深入探讨了生成模型(VAE, GAN)。学生将学习如何从零开始构建并训练深层网络。课程强调‘梯度流的稳定性与过拟合的数学治理’。 ### 课程结构 10 周理论高强度输出与两个极具挑战的深度学习项目结合。评估体系完全对接 AI 工业界:包含针对基础网络实现的每周 Lab、一个要求解决复杂非结构化数据(如情感分析或复杂图像分类)的 Major Project、以及一场强调数学推论、激活函数导数分析及架构设计能力的期末综合大考。该课极其强调‘权重更新的物理图像’。 ### 适合人群 计算机硕士、或打算转行进入深度学习领域的理工科生。必须具备扎实的线性代数、概率论与 Python 编程基础。如果你想搞清楚‘ChatGPT 是如何训练出来的’、或者渴望在未来的 AGI 浪潮中建立核心技术主权,这门课是你的神功。建议每周投入 20-25 小时进行模型迭代与调参。

🧠 大神解析

📊 课程难度与压力分析

COMP9444 的难度属于‘数学推演与代码实战的极限平衡’。难点在第二周的反向传播(Backpropagation),你需要手推多层张量的链式法则偏导数,如果你的矩阵维度对不上,你的理论大厦会瞬间崩塌。压力主要来自于 Major Project,你需要从零开始调优一个深度网络,如果你的学习率(Learning Rate)设得不好,你的损失曲线(Loss Curve)会由于发散而让你在提交前想哭。及格极其容易(因为 PyTorch 封装得很好),但拿 HD 需要你对‘为什么这个架构有效’有数学层面的深刻见解。挂科风险显著存在于对‘梯度消失’根本原因的模糊认知上。

🎯 备考重点与高分策略

高分秘籍:‘得反向传播推导者得 Distinction,得注意力机制理解者得 HD’。期末考试中,手算一个一维卷积层的输出或推导 Softmax 与交叉熵结合后的偏导数是必考的大题。一定要练到能秒识别‘不同激活函数的梯度饱和区’。重点攻克‘Transformer 中 Q, K, V 矩阵的物理含义’,那是区分普通调包侠与顶级 AI 算法架构师的标志。备考时,教材《Deep Learning》(Goodfellow) 是圣经。对于项目,HD 的关键在于‘消融实验 (Ablation Study)’——不仅给结果,还要证明去掉某个层后模型表现会变差。重视 Tutorial 里的每一道权重初始化证明题。

📚 学习建议与资源推荐

神级资源:Stanford 的 CS231n 和 CS224n,以及李沐的‘动手学深度学习’。如果反向传播理解不了,强烈推荐去 YouTube 搜‘3Blue1Brown - Neural Networks’系列。最重要的建议:养成‘先推公式,再看 API’的习惯。利用好学校提供的‘VLAB’或‘Google Colab’进行 GPU 训练。学会使用‘Weights & Biases’进行实验版本管理。加入 UNSW AI Society。

⚠️ 作业与 Lab 避坑指南

项目避坑:千万不要在第 10 周才跑模型训练!深度学习的随机性意味着你可能需要数十次训练才能找到最优参数。Assignment 写作中,严禁只贴训练曲线,必须写出你的‘错误分析报告’——为什么模型在某些类别上识别率低?此外,注意 Final 考试有 Hurdle,关于‘不同层的作用定义’的基础题如果错太多会直接挂。考试时,画出的网络拓扑图必须清晰标准。注意:分清‘L1 正则化’导致稀疏性与‘L2 正则化’权重平滑的代数本质差异。

💬 过来人经验分享

学长建议:这门课是为你进入顶级大厂(如 Google、OpenAI)或互联网巨头 AI 实验室拿的‘智能通行证’。学完后,你眼中的数据不再是冷冰冰的行与列,而是一个由高维特征空间、非线性映射和梯度下降驱动的智能演化体。建议找一个同样追求‘算法黑盒透明化’的队友共同打磨程序。拿 HD 的关键:在报告中展现出你对‘模型泛化界限’的深刻见解。坚持住,通关 9444,你就真正跨过了从经验主义到联结主义人工智能的那道认知红线。这张成绩单是进入 AI 行业最有力的逻辑背书。记住:深度学习不是炼金术,是微积分的终极美学。

📅 每周课程大纲

Week 1联结主义导论与感知机
AI 的历史博弈,线性判别函数,感知机收敛定理,非线性挑战 (XOR 问题)。
Week 2多层感知机与反向传播
多层结构,链式法则 (Chain Rule) 深度推导,计算图表示,损失函数选型。
Week 3优化算法与正则化
随机梯度下降 (SGD),动量 (Momentum),Adam 优化器,L1/L2 正则化与 Dropout 物理意义。
Week 4卷积神经网络 (CNN) 核心
局部感知野,权值共享,池化操作,经典架构 (LeNet, AlexNet, ResNet) 深度分析。
Week 5序列建模:RNN 与 LSTM
展开递归网络,梯度消失与爆炸问题,长短期记忆 (LSTM) 门控机制,门控循环单元 (GRU)。
Week 6灵活性周 (Flex Week)
复习反向传播矩阵形式推导,冲刺 Major Project 的 PyTorch 模型训练,进行调参实验。
Week 7注意力机制与 Transformer
自注意力 (Self-attention) 计算,多头注意力,位置编码,编码器-解码器架构分析。
Week 8词嵌入与自然语言处理
Word2Vec, GloVe, 语义空间余弦相似度,利用 Transformer 处理机器翻译任务。
Week 9生成模型:VAE 与 GAN
变分自编码器,对抗训练博弈论模型,判别器 vs 生成器的动态平衡过程。
Week 10强化学习初步与全课总结
马尔可夫决策过程,Q-Learning,深度强化学习简介;全学期 AI 大闭环复盘。

📋 课程信息

学分
6 Credit Points
含金量
5 / 5
压力指数
5 / 5
课程类型
elective

💬 学生评价

💭

还没有同学评价这门课,成为第一个分享体验的人吧

写点评