首页
LLM
关于
icharlin
美好的事情即将发生
累计撰写
7
篇文章
累计创建
5
个标签
累计收到
0
条评论
栏目
首页
LLM
关于
目 录
CONTENT
以下是
LLM
相关的文章
Qwen3 模型结构解析
Qwen3 模型结构详解
2025-07-15
7
0
1
LLM
大模型应用
近年来,随着人工智能领域的迅猛发展,大规模预训练语言模型(简称大模型)成为了推动技术进步的核心力量。这些大模型在自然语言处理等任务中展现出了令人惊叹的能力。然而,要准确衡量一个大模型的性能,必须依靠科学而合理的评测。 什么是大模型评测?大模型评测就是通过各种标准化的方法和数据集,对大模型在不同任务上
2025-02-22
1
0
2
LLM
大语言模型
4.1 什么是 LLM 在前三章,我们从 NLP 的定义与主要任务出发,介绍了引发 NLP 领域重大变革的核心思想——注意力机制与 Transformer 架构。随着 Transformer 架构的横空出世,NLP 领域逐步进入预训练-微调范式,以 Transformer 为基础的、通过预训练获得强
2025-02-16
5
0
0
LLM
预训练语言模型
3.1 Encoder-only PLM 在上一章,我们详细讲解了给 NLP 领域带来巨大变革注意力机制以及使用注意力机制搭建的模型 Transformer,NLP 模型的里程碑式转变也就自此而始。在上文对 Transformer 的讲解中我们可以看到,Transformer 结构主要由 Encod
2025-02-15
1
0
0
LLM
Transformer 架构
什么是注意力机制 随着 NLP 从统计机器学习向深度学习迈进,作为 NLP 核心问题的文本表示方法也逐渐从统计学习向深度学习迈进。正如我们在第一章所介绍的,文本表示从最初的通过统计学习模型进行计算的向量空间模型、语言模型,通过 Word2Vec 的单层神经网络进入到通过神经网络学习文本表示的时代。但
2025-02-09
1
0
1
LLM
NLP 基础概念
自然语言处理(Natural Language Processing,NLP)作为人工智能领域的一个重要分支,旨在使计算机能够理解和处理人类语言,实现人机之间的自然交流。随着信息技术的飞速发展,文本数据已成为我们日常生活中不可或缺的一部分,NLP技术的进步为我们从海量文本中提取有用信息、理解语言的深
2025-02-02
8
0
1
LLM