logo

CNN最成功的应用是在CV,那为什么NLP和Speech的很多问题也可以用CNN解决出来?为什么AlphaGo里也用了CNN?这几个不相关的问题的相似性在哪里?CNN通过什么手段抓住了这个共性?

CNN’s most successful applications are in Computer Vision (CV). Why can many NLP and Speech problems also be solved with CNNs? Why did AlphaGo also use CNNs? What is the common similarity among these seemingly unrelated problems, and how does CNN capture this commonality?

题目类型: 技术面试题

这是一道技术面试题,常见于澳洲IT公司面试中。

难度: medium

分类: Deep Learning

标签: CNN, Feature Hierarchy, Weight Sharing, Pooling

参考答案摘要

答案 不相关问题的相关性在于,都存在局部与整体的关系,由低层次的特征经过组合,组成高层次的特征,并且得到不同特征之间的空间相关性。如下图:低层次的直线/曲线等特征,组合成为不同的形状,最后得到汽车的表示。 CNN抓住此共性的手段主要有四个:局部连接/权值共享/池化操作/多层次结构。局部连接使网络可以提取数据的局部特征;权值共享大大降低了网络的训练难度,一个Filter只提取一个特征,在整个图片(或...

本题提供 STAR 原则详细解答和技术解析,登录匠人学院学习中心即可查看完整答案。

← 返回面试题库

CNN最成功的应用是在CV,那为什么NLP和Speech的很多问题也可以用CNN解决出来?为什么AlphaGo里也用了CNN?这几个不相关的问题的相似性在哪里?CNN通过什么手段抓住了这个共性?

Mediumdeep-learningcnncvnlpspeech

想查看完整答案?

登录匠人学院学习中心,获取 STAR 格式回答和详细技术解析

前往学习中心查看答案