GPT全称“generative Pre-trained transformer”
用来生成新文本的机器人 预训练 神经网络
输入一段文本,预测概率分布,然后抽取
gpt3故事通顺,选取新词背后有概率分布
03:07
数据如何在transformed流动,详细探讨解释展开每个步骤的细节——聊天机器人生成特定单词,背后实际在做的事:
1.输出内容会被切分成很多部分token
每个token对应一个向量,即一串数字设法编码片段的含义
相近的单词相邻
注意力模块处理:找出那这次词,含义
多层感知器:同一处理
对每个向量提出一系列问题,然后根据这些问题的答案来更新向量
这两块所有的处理本质上都是大量的矩阵乘法:如何解读这些底层矩阵
重复上述工作
最后将整段函数到
预测抽样 追加反复进行
准备系统提示词作为第一段内容,总思路
所以其实gpt不是自己在说,而是预测一个很牛逼的人会怎么说