【官方双语】GPT是什么?直观解释Transformer

   日期:2024-12-30     作者:451w5       评论:0    移动:http://mip.riyuangf.com/mobile/news/15394.html
核心提示:GPT全称“generative Pre-trained transformer”用来生成新文本的机器人 预训练 神经网络输入一段文本,预测概率分布,然后抽取g

GPT全称“generative Pre-trained transformer”

用来生成新文本的机器人 预训练 神经网络

输入一段文本,预测概率分布,然后抽取

gpt3故事通顺,选取新词背后有概率分布

03:07

数据如何在transformed流动,详细探讨解释展开每个步骤的细节——聊天机器人生成特定单词,背后实际在做的事:

1.输出内容会被切分成很多部分token

每个token对应一个向量,即一串数字设法编码片段的含义

相近的单词相邻

注意力模块处理:找出那这次词,含义

多层感知器:同一处理

对每个向量提出一系列问题,然后根据这些问题的答案来更新向量

这两块所有的处理本质上都是大量的矩阵乘法:如何解读这些底层矩阵

重复上述工作

最后将整段函数到

预测抽样 追加反复进行

准备系统提示词作为第一段内容,总思路

所以其实gpt不是自己在说,而是预测一个很牛逼的人会怎么说

 
特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。

举报收藏 0打赏 0评论 0
 
更多>同类最新资讯
0相关评论

相关文章
最新文章
推荐文章
推荐图文
最新资讯
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号