GPT算法讲解(chatGPT前世)

11期:GPT系列算法与实现(chatGPT前世今生之前世) 

***** 文章正常结构分三部分 *****

                         ***** 日常感悟*****

                         ***** 股市瞎聊*****

                         ***** 技术分享****

(文末加餐:深度学习的基础系列课程来啦,一步一步走进人工智能,欢迎关注!)验证

验  关注该公众号   证

GPT系列算法与实战

首先,我们先来看看openai2022的时候在做什么?

2022年生成的一篇博客轰动整个AI领域,结果是机器人生成的。这个就是openai做的,主要呢,也是为了搞噱头,吸引大家注意力。

openai一直在研究聊天机器人,每天新生成450亿词。

那么问题来了,Nlp不像cv,检测是猫就是猫,是狗就是狗,生成语言就会带有偏见。比如说一个男人,可以说他是大英雄,也可以说他是个罪犯。可能是好坏不分。所以GPT3不对外开源,只开放了API.那么如果想训练只能基于GPT-2来训练,但哪怕GPT-3开源,也训练不起,参数太大,电费都不够扛!

GPT只是冰山一角,2022年每4天就产生一个大模型,甚至比GPT3还大。

一、看看GPT的历史时刻:

1.2018年6月GPT-1, 约5GB文本,1.17亿参数量

2.2019年2月GPT-2,约40GB文本,15亿参数量

3.2020年52月GPT-3,约45TB文本,1750亿参数量

2018年8月Bert产生。

二、接着来看看bert与GPT的区别:

有句话说:Bert看到希望,GPT-3看到未来。

都是基于transformer算法展开,bert采用的是编码器,GPT采用的是解码器,bert属于完形填空(已知上下文),gpt预测下一句(预测以后的事),chatGPT出来前,bert被引用数量巨大,难度相对简单,GPT难度大。

bert gpt1都需要微调,都需要标注数据,都需要人工。

三、万物皆可GPT

GPT1算法:

损失函数:

GPT1采用的是transformer的解码器,也需要打标监督学习。

GPT-2算法:zero-shot

以不变应万变,没有下游任务,不需要微调。也就是根据内容输出所有想要的内容。举例如下:

输入一句话预测自己的心情。

通过一句话取出里面的名词。

通过一句话提取主谓宾。

支持多个任务直接输出,不再是一对一的模型任务。

GPT-2算法:采样策略加温度值:

针对输入内容获取结果,如果结果都采用概率最大的,就太僵硬了,并且无趣。所以预测怎么选,多样性,温度就来了:

T<1 拉大差距

T=1 维持softmax结果

T> 1 缩小差距,,多样性,雨露均沾,就可能会胡说八道,啥都往外说。

但是GPT-2话说的太大了,而且实际说话的时候,谁会暗示你呢,所以没特别惊艳,没引起太大关注。

GPT-3算法:

GPT3在2的基础上进行优化,如果GPT2没有专门暗示,那么输出就太多样性,也相对不准确,因此GPT3专门训练下如何暗示,让你理解暗示是啥。

GPT3功能强大,目前实现加法任务,纠错任务等等,可谓上知天文,下知地理。

那什么叫做暗示训练呢?比如我们想去酒吧,没去过,不知道怎么办,就叫个已经有这方面经验的人,先给我们打个样。

这就是GPT-3的暗示效果,就是模仿。

Zero-shot就是GPT2版本的方法,输入一句话,直接输出结果,不进行提示。

One-shot:先打个样,先让他知道你会怎么做   。

Few-shot:输入多个例子

GPT3不需要微调,没有标签,没有下游任务

OPENAI还做了件事,就是基于GITHUB上编程,通过github上的代码数据进行GPT3训练,实现可以输入内容,直接编程,链接如下:

CODEX:https://openai.com/blog/openai-codex/#spacegame

GPT2代码:

GPT2Tokenizer一般在代码里面,以下面情况出现:

tokenizer = GPT2Tokenizer.from_pretrained("gpt2")

而GPT2LMHeadModel一般在代码里面,以下面情况出现:

model = GPT2LMHeadModel.from_pretrained('gpt2')

这很明显GPT2Tokenizer是编码器,GPT2LMHeadModel是加载训练好的模型。

(下期再来讲讲chatGPT前世今生之今生)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/21241.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

对话ChatGpt…它建议我考研选择财经新闻?

最近不少打工人开始担心ChatGPT会导致自己失业。 甚至有人总结了未来因ChatGPT而失业的十大职业&#xff1a;1. 技术工种&#xff08;程序员、软件工程师、数据分析师&#xff09;2. 媒体工作者&#xff08;广告、内容创作者、记者&#xff09;3. 法律行业工作者&#xff08;律…

机器学习丨AI产品经理应该懂哪些技术(附实战代码)

前言 本期目的&#xff1a;回顾之前敲代码的日常&#xff0c;利用生活场景帮助小白认识机器学习及学习过程中算法原理和评价指标。 适用读者&#xff1a;AI/数据产品经理。 阅读重点&#xff1a;品&#xff0c;细品&#xff0c;结合班级故事再品。 最近看了很多关于机器学习…

【学习笔记】机器学习基础--逻辑回归

系列文章目录 【第一章原理】【学习笔记】机器学习基础--线性回归_一无是处le的博客-CSDN博客 【第一章代码解释】 【线性回归】原生numpy实现波士顿房价预测_一无是处le的博客-CSDN博客 目录 系列文章目录 前言 一、【引入逻辑回归】 二、逻辑回归的介绍 定义与公式 三…

AutoCV第七课:ML基础

目录 ML基础注意事项2023/5/29更新前言1. 复习sqrt函数2. 线性回归预测房价2.1 问题分析2.2 代码实现2.3 总结 3. 逻辑回归分类3.1 问题1分析3.2 问题1代码实现3.3 问题2分析3.4 问题2代码实现3.5 拓展-导数推导3.6 总结 个人总结 ML基础 注意事项 2023/5/29更新 新增逻辑回…

机器学习之回归模型预测性能评估指标(RMSE、MSE、MAE、MAPE、SMAPE、R^2 Score、R^2 )

博主推荐访问chatGPT、急速访问Github必备魔法&#xff1a;SockBoom 或者网址&#xff1a;https://sockboom.shop/auth/register?affid212828 一、机器学习简介 机器学习就是通过大量的数据进行训练&#xff0c;然后得出输入数据的模型特征&#xff1b;再次输入相关的数据…

PyTorch常用的损失函数(ChatGPT)

L1Loss nn.L1Loss 也称为平均绝对误差&#xff08;Mean Absolute Error&#xff0c;MAE&#xff09;。它计算预测值与真实值之间的差异&#xff08;即误差&#xff09;&#xff0c;然后取绝对值并求和&#xff0c;最后除以样本数量得到平均误差。具体来说&#xff0c;对于一批…

ChatGPT vs Google:谁是答案之王?微软揭示未来搜索的样子

已经习惯了网购的你&#xff0c;有没有想过一旦电子商务行业遭受重创&#xff0c;会对我们的日常生活造成什么影响呢&#xff1f; 我们已经习惯了在生活中碰到什么不懂的事情就 Google 一下或者百度一下&#xff0c;甚至许多人的职业都跟 Google 密切相关&#xff0c;比如自媒…

替代MySQL半同步复制,Meta技术团队推出MySQL Raft共识引擎

作者&#xff1a;Anirban Rahut、Abhinav Sharma、Yichen Shen、Ahsanul Haque 原文链接&#xff1a;https://engineering.fb.com/2023/05/16/data-infrastructure/mysql-raft-meta/ 译者&#xff1a;ChatGPT 责编&#xff1a;张红月 MySQL Raft是MySQL数据库中一种基于Raft协议…

AI for Science 的上半场:人工智能如何重新定义科学研究新范式?

AI发展七十余年&#xff0c;每一技术性突破都将给人类未来开辟新一种可能性。而它与科学研究的深度融合&#xff0c;则会裂变出无数或无穷种可能性。 万众瞩目下&#xff0c;今年10月&#xff0c;有着诺贝尔奖“嫡传”之称的诺贝尔化学奖终于揭晓&#xff0c;授予了对“链接化学…

AI for Science的上半场来了!

AI发展七十余年&#xff0c;每一技术性突破都将给人类未来开辟新一种可能性。而它与科学研究的深度融合&#xff0c;则会裂变出无数或无穷种可能性。 万众瞩目下&#xff0c;今年10月&#xff0c;有着诺贝尔奖“嫡传”之称的诺贝尔化学奖终于揭晓&#xff0c;授予了对“链接化学…

ChatGPT: 智能对话时代的未来展望与应用实践

ChatGPT: 智能对话时代的未来展望与应用实践 简介 ChatGPT 是一种基于深度学习和自然语言处理技术的人工智能对话模型。它可以通过生成自然语言文本的方式&#xff0c;与用户进行交互式的对话。作为一种先进的对话生成模型&#xff0c;ChatGPT 在近年来快速发展的人工智能领域中…

德州扑克AI实现 TexasHoldem Poker

参考了一下这篇文献&#xff0c;http://cowboyprogramming.com/2007/01/04/programming-poker-ai/ 自己用go实现了一个德州扑克AI&#xff0c;效果还可以。 正常和它玩耍的时候&#xff0c;互动性还不错。但是也有一点点问题&#xff0c;比如玩家乱来&#xff0c;把把都ALL IN(…

PokerNet-poker recognition: 扑克识别 (6)

文章目录 准备最终结果未来改进 准备 机器: Titan XP 12GB, 64GB RAM, 机器非常强&#xff0c;可靠。 下次有机会购买RTX 2080 Ti 试试 最终结果 错误率可以达到万分之一&#xff0c;非常可考 未来改进 精简模型多模型融合&#xff0c;提升准确度

计算6+德州扑克各个牌型的概率

为了回答该知乎问题(https://www.zhihu.com/question/57408133/answer/152920354)而写就的程序。 6+德州扑克的规则,就是在传统52张牌德州扑克的基础上,去掉了2到5,只留下6到A共计36张牌;另外最小的顺子就成了A6789。此外,牌型大小变成了:同花>葫芦>三条>顺子…

德州扑克术语大全(上篇)

作为一个小白或者新手你还在苦恼别人说的术语完全不明白是什么意思&#xff0c;别人谈论牌谱&#xff0c;你完全在状况外&#xff1f;比人问你一手牌&#xff0c;你总是一脸茫然……这些情况真的好尴尬呀&#xff0c;没有关系&#xff0c;读过本文&#xff0c;让你轻松驾驭牌谱…

德州扑克实践之三-----比较大小

经过前面的两篇文章&#xff0c;整体工作已经完成了2/3了&#xff0c;剩下的1/3&#xff0c;将会在本片文章提及 整体流程&#xff1a; 比较之前须得获取&#xff0c;牌型&#xff0c;牌值&#xff0c;这两部分在上一篇文章已经讲解了&#xff0c;不懂得小伙伴可私信我&#x…

德州扑克多个玩家对局时赢牌牌型概率分布表、各种牌型的出现概率

就题目而言&#xff0c;对局赢牌牌型概率分布&#xff0c;各种牌型的出现概率&#xff0c;以及同样一手牌在不同牌局中的牌力大小&#xff0c;是不同的概念。本文不纠结这些概念&#xff0c;而是直接实验&#xff0c;从结果来统计概率。&#xff08;本文实验在linux下用C语言通…

3211:花神游历各国

Description Input Output 每次x1时&#xff0c;每行一个整数&#xff0c;表示这次旅行的开心度 Sample Input 4 1 100 5 5 5 1 1 2 2 1 2 1 1 2 2 2 3 1 1 4 Sample Output 101 11 11 HINT 对于100%的数据&#xff0c; n ≤ 100000&#xff0c;m≤200000 ,data[i]非负且小于10…

Bzoj3211花神游历各国

提供一种数据结构&#xff0c;支持区间求和&#xff0c;以及区间开根号。 这种题一般暴力谁都能打&#xff0c;主要是练线段树。 下面给出两种解法&#xff1a; 第一种&#xff0c;额外维护区间最大值。 由于1、0开根是其本身&#xff0c;开根没有意义&#xff0c;我们维护区间…

bzoj3211 花神游历各国

传送门&#xff1a;http://www.lydsy.com/JudgeOnline/problem.php?id3211 【题解】 区间开根号&#xff0c;由于每个数被开根号不会很多次就变成1&#xff0c;每次我们暴力开根下去&#xff0c;同时记录s[x]表示x这个区间内是不是全是1&#xff0c;如果是就不用开下去了 这样…