一、说明

        栏目《NLP入门到精通》本着从简到难得台阶式学习过度。将自然语言处理得知识贯穿过来。本栏目得前导栏目是《深度学习》、《pytorch实践》,因此,读者需要一定得深度学习基础,才能过度到此栏目内容。

 为了保证读者由浅入深地学习Halcon学习。本栏目在持续更新中,直到以上知识篇完整为止。


 

第一单元:文本分类

        该专题专门针对 基础学员,对基本的pytorch内容、语法、类和属性等进行了解,以便以后能明确无疑地应用。此专题在不断更新中,目前的全部文章是:

【NLP模型】文本建模(2)TF-IDF关键词提取原理 

【NLP概念源和流】 02-稠密文档表示(第 2/20 部分) 

【NLP】 实施文本分类器  

【NLP】 文本技术方法指南  

【NLP】PageRank、TextRank算法的原理解析_textrank和pagerank  

第二单元:词嵌入

【NLP概念源和流】 06-编码器-解码器模型(6/20 部分) 

【NLP概念源和流】 03-基于计数的嵌入,GloVe(第 3/20 部分) 

【深度学习】编码器专题(01) 

【深度学习】编码器专题(02) 

【NLP】基础工程:词嵌入_nlp词嵌入 

【深度学习】 NLP和神经网络表示 

【NLP】Word2vec概念和演进史_word2vec的发展 

 

第三单元:CNN和LSTM

【深度学习】看似不合理实则有效的RNN 

【NLP概念源和流】 04-过度到RNN(第 4/20 部分)

【BBC新闻文章分类】使用 TF 2.0和 LSTM 的文本分类 

【深度学习】深度了解 LSTM 

【NLP】LSTM追根溯源 

【NLP】理解LSTM的内在逻辑 

第四单元:Attension

【NLP】多头注意力概念(01) 

【NLP】Attention机制和RNN  

 

第五单元:Bert

【NLP】使用BERT构建一个情绪分析模型 

【NLP】BERT和原理揭示 

【NLP】一项NER实体提取任务_无水先生的博客 

【NLP】用NER自动实现简历摘要提取的案例 

第六单元:Transformers

深入了解“注意力”和“变形金刚” -第1部分 

用 Pytorch 自己构建一个Transformer 

【NLP】机器翻译相关原理 

【 NLP 】 句子transformer调用备忘录 

【NLP】transformers的位置编码 

【NLP】小项目:基于transformer的文本摘要 

 【NLP】分步图解transformer 数学示例 

【NLP】Transformer模型原理(1) 

【NLP】Transformer模型原理(2) 

第七单元:大语言模型

【NLP】GPT-2:通过可视化了解语言生成  

第八单元 :主题模型

【NLP】使用 LSA、PLSA、LDA 和 lda2Vec 进行主题建模 

【深度学习】基于BRET的高级主题检测- 

通过深度学习进行高级主题检测 

第九单元:NLP综合

自然语言入行必知的基础概念 

【NLP】KMP匹配算法  

【NLP】有限自动机的KMP算法_kmp自动机 

【NLP】从双曲面到双曲几何庞加莱盘  

【人工智能】人工智能和双曲几何 

【NLP】基于庞加莱损失函数的词嵌入模型  

【NLP模型】文本建模(1)(BoW、N-gram、tf-idf)  

语音识别:时间序列Damerau–Levenshtein距离_damerau-levenshtein  

 语音识别:时间序列的匹配算法(Needleman-Wunsch 算法)_时间匹配算法

【NLP】斯密斯-沃特曼的对齐算法(python)-CSDN博客 

【NLP】自然语言处理之综述_自然语言处理综述-CSDN博客 

 语音识别:时间序列的Smith–Waterman对齐算法_smith-waterman 

 

11-13 11:33