首页
LLM
关于
icharlin
美好的事情即将发生
累计撰写
7
篇文章
累计创建
5
个标签
累计收到
0
条评论
栏目
首页
LLM
关于
目 录
CONTENT
以下是
Transformer
相关的文章
Transformer 架构
什么是注意力机制 随着 NLP 从统计机器学习向深度学习迈进,作为 NLP 核心问题的文本表示方法也逐渐从统计学习向深度学习迈进。正如我们在第一章所介绍的,文本表示从最初的通过统计学习模型进行计算的向量空间模型、语言模型,通过 Word2Vec 的单层神经网络进入到通过神经网络学习文本表示的时代。但
2025-02-09
1
0
1
LLM