ChatGPT的底层核心概念

1.1 词嵌入

​ 词嵌入是一种将单词或文本转换为数字向量的技术。简单来说,它将自然语言中的词汇转换为计算机可以理解的形式,因为计算机无法直接理解单词或文本。例如,对于句子“The monkey is on the horse",词嵌入技术可以将每个单词转换为一组数字,如下所示:

  • The: [0.1, 0.2, 0.3]
  • monkey: [0.4, 0.5, 0.6]
  • is: [0.7, 0.8, 0.9]
  • on: [0.2, 0.3, 0.4]
  • the: [0.5, 0.6, 0.7]
  • horse: [0.8, 0.9, 1.0]

​ 上述示例中,每个单词用3个数值表示,可以将其理解成三维空间中对应的x、y、z坐标。通过这些坐标,计算机就可以理解和处理每个单词了。

1.2 Transformer

​ Transformer是一种基于自注意力机制的深度学习模型,由Vaswani等人于2017年提出。与传统的RNN和LSTM等循环神经网络相比,Transformer可以并行处理序列中的所有元素,从而提高计算效率。此外,自注意力机制使得Transformer能够捕捉长距离依赖关系,提高模型在处理序列数据时的性能。

​ Transformer主要由编码器和解码器两部分组成。下面通过一个简单的例子来理解它们。

​ 假设我们想让计算机将英文翻译成中文,比如将“I love you“翻译成”我爱你“。这个过程可以分为以下两个步骤。

​ (1)编码器负责理解输入的英文句子。它会将英文句子转换为一种编码形式,捕捉其中的关键信息和语义关系,并将编码后的信息传递给解码器。

​ (2)解码器根据编码器提供的信息,生成对应的中文句子。它会逐个生成中文字词,同时参考编码器提供的信息来确定翻译的准确性。

​ 这里大家可能会有疑问:为什么不直接将输入与输出进行映射呢?借助类似于英汉/汉英词典这样的工具,直接将英文输入映射到中文输出,这种做法有什么问题吗?众所周知,一个英文单词往往会对应多个中文意思,在翻译句子时具体应该采用哪个含义,需要根据上下文来确定,直接映射显然不可取。

1.3 自注意力机制

​ **自注意力机制(self-attention mechanism)**是Transformer架构的核心组成部分。它关注序列中不同位置的信息,以便捕捉这些信息之间的关系。它可以帮助模型理解文本中的上下文关系,以及哪些词与其他词之间的关系更重要。

​ 举个例子,在“The girl went to the store and bought some fruits"这个句子中,“girl“和”bought“之间有很强的关联,因为是女孩购买了水果。自注意力机制可以帮助模型发现这种关系,并为模型的理解和结果生成提供帮助。

​ 该机制的大致流程如下:

​ (1)输入:模型接收一个单词序列,如”I love playing football“。

​ (2)向量化:每个单词被转换成一个向量表示。这些向量被称为词嵌入(word embeddding),它们捕捉了单词的语义信息。

​ (3)计算权重:模型会计算输入序列中每个单词与其他单词的关联权重。权重越高,表示两个单词之间的关系越密切。这些权重是通过计算单词向量之间的相似性得出的。

​ (4)加权和:模型将计算出的权重应用于输入单词的向量表示,生成一个加权和向量。这个加权和向量捕捉了输入序列中所有单词的上下文信息。

​ (5)输出:加权和向量被送入后续的网络层进行处理,最终生成模型的输出。

​ 以上是简化版的流程,在实际应用中真正的流程要比这复杂的多,会涉及多层嵌套多问题,这里仅作简单的了解。

1.4 预训练与微调

1.4.1 预训练

​ 预训练阶段是模型训练的第一阶段,也称无监督训练阶段。监督学习和无监督学习是两种常用的机器学习算法。监督学习会给模型一些参考,比如在流失预测模型中,会告诉模型哪些用户是流失用户,哪些不是。无监督学习则不会给模型参考,而是让模型自己学习,比如给出一批用户,让模型自己根据这些用户的特征将用户分成几类。

​ 在预训练阶段,GPT模型会收集现实中的大量文本数据,包括网页、书籍等的内容,然后使用这些数据进行训练,以学习语言的基本结构、语法和语义信息。说得更直白一点,就是让模型学习人类平常是怎么讲话的,不同词的含义是什么,不同词的组合是什么样的。预训练的目的是让模型学会捕捉语言的基本知识和模式,从而为后续的微调提供良好的初始权重。预训练后的模型通常被称为基础模型(base model)

1.4.2 微调

​ 微调阶段是模型训练的第二阶段,也称监督训练阶段。在这个阶段,模型使用特定任务的标注数据进行训练,以学习与任务相关的知识和技能。例如,在对话生成任务中,微调所使用的数据集可能包括一系列的对话样本及相关的回复。对话和回复的内容,就是模型咋学习时参考的数据,而在预训练阶段是没有参考数据的。

​ 在微调过程中,基础模型的权重会逐步调整,以适应特定任务的需求。微调可以使模型的学习重点从通用的语言知识转向更具针对性的任务知识,从而提高模型在特定任务上的性能。微调后的模型通常被称为下游模型(downstream model)

​ 总之,ChatGPT通过两个阶段的训练来实现高水平的文本生成能力。预训练阶段让模型学会通用的语言知识,而微调阶段针对特定任务对模型进行优化。这种训练策略既提高了模型的泛化能力,又保证了其在特定任务上的性能。

02-18 10:01