如何使用 NLTK 对句子进行分词(Tokenize)?
How do you tokenize a sentence using NLTK?
题目类型: 技术面试题
这是一道技术面试题,常见于澳洲IT公司面试中。
难度: medium
标签: NLP, NLTK, Tokenization
参考答案摘要
Tokenization(分词) 是 NLP 里最基础的预处理步骤之一,用来把文本切分成 句子 或 词 等更小的单元。 1)句子分割(Sentence Tokenization) from nltk.tokenize import sent_tokenize para = "Hi Guys. Welcome to Intellipaat. This is a blog on NLP intervi...
本题提供 STAR 原则详细解答和技术解析,登录匠人学院学习中心即可查看完整答案。