GPT-3.5还没研究明白,GPT-4又来了,chatGPT会进化成什么样?

基于GPT-3.5的chatGPT热度才稍稍减退没多久,GPT-4又来了,文新一言的发布会也槽点满满,差距似乎越来越大了。

chatGPT到底厉害在哪?为什么突然就爆火了呢?

它的爆火,一方面,和它的出现形态有关,另一方面,当然和它的技术有关。

从形态上看

在过去的几年里,AI其实在各领域都有长足的发展。但是这些领域都过于小众。只有圈内的人了解。在这个领域内,人工智能的发展对于普通人而言,人工智能还是一个遥远而又看不见也摸不着的概念。

当然,这也和AI的发展状态有关。决策式AI,通常需要在特定领域的大量数据训练,用于辅助人类决策,使用场景上通常在企业端。而生成式AI则可以生成文字、音频、多媒体等各类内容,这些内容是可以被普通人所感知的。

去年,AI绘图工具——Midjourney创作的《太空歌剧院》(“Théatre D’Opéra Spatial),在美国科罗拉多州博览会艺术比赛上,获得了“ 数字艺术/数字修饰照片”一等奖。
在这里插入图片描述

生成式AI创作的内容跨越了圈层和阶级,超越了种族隔阂,消融了文化差异,不再是小众领域的曲高和寡,而是老少皆宜的雅俗共赏。

而chatGPT采用对话的模式,以更低的门槛让普通人也能体验,更加感觉像人们理想中的通用人工智能。这让很多普通人第一次真正的感知到了人工智能的存在。
所谓人们理想中的通用人工智能,也就是更像人类。那么到底chatGPT是如何做到更像人的呢?这就得从技术上解读了。

从技术上看

从表现上看,chatGPT的核心能力在于三点,第一,它能理解人类的语言;第二,它能输出人类想要的结果;第三,它能从人类的反馈中不断学习,自我进化。

这得益于NLP技术的发展以及大语言模型(LLM)的诞生。

Google在2017年发表了论文《Attention is all your need》,在Transformer框架中引入了注意力的概念,简单来说,这是模拟人类在接受信息时,把有限的注意力集中到重点之上的思路,有助于在长文本中,理解距离较远的词之间的联系。
OpenAI基于Transformer框架推出了生成式预训练模型(Generative Pre-trained Transformers (GPT)),并且每年一迭代,在GPT3推出的时候,其能力已经超乎很多人想象。chatGPT是基于GPT3.5做的微调,在对话方面做了进一步强化。

而GPT4,则在文字输入限制(提升至2.5万字)、回答准确性、风格变化等方面又有了巨大提升。

数据玩家通过这两天的研究,认为chatGPT的在已有技术的基础上,升级的核心主要在于两点:

  1. 训练方法:生成式预训练+Prompting(提示),使得训练的过程大大加速
  2. 训练策略:通过基于人类的反馈的强化学习来进行训练。也就是,终于把强化学习用到了NLP领域

我们知道,训练AI其实是和教育人类的小孩类似的。当AI犯错时,你要提醒他什么是对的,这个过程需要大量的人工标注来实现。

在以往的决策式AI训练中,海量的人工标注数据是训练AI的基础。类似图像识别、自动驾驶、金融领域的信贷风控等,都依赖于大量的样本标注数据。标注的工作需要大量的人力投入,因此,模型的训练成本也很高。

大语言模型LLM的训练方式改变了,直接喂给AI海量的文本,让它自己学。扣掉一些词让它做完形填空(BERT模式),或者让它看了上句猜下句(GPT模式)。

在这样训练之后,AI能够理解人类语言的模式,它知道一个词出现之后,他后面大概率还会出现什么词。

并且,在学习了海量的文本后,AI有了“常识”,这是通用型人工智能的一大特点,也是人类和AI的主要区别之一。

它学习了数理化,也熟读文史哲,它知道明星的名字,也知道现在美国总统是谁,它的的确确更像人了。

另外,从工程上,原来的训练方法(fine-tuning,微调),每更新一次参数,都需要更新模型,换句话说,要重新跑一下;而采用prompting的模式,则完全不用,只需要给AI投喂一些示例,让它自己体会。
这就是为什么你可以追问chatGPT,他会随着你的追问,越来越贴近你想要的结果。

而这个追问的方式,完全不需要你写代码,只需要对话就行,这使得chatGPT可以通过和成千上万,甚至数亿的用户对话来飞速成长,这是人类理想中通用人工智能的样子。

如果AI能够自动从人类的语言中判断一个回答好还是不好,而不用人类去标注他的回答,那将会节省非常多的标注工作量。这就是基于人类的反馈强化学习RLHF(Reinforcement Learning from Human Feedback)。

强化学习是一种训练策略,其他策略还有有监督(有标注样本)、无监督(无标注样本,主要做分类)等。

AlphaGo就是采用的强化学习,通过一个奖励/惩罚函数,来告诉AI这一步是加大获胜概率,还是减小,这样AI就可以不断的和自己对弈。

为什么NLP领域之前没采用这种方式呢?主要是因为这个奖励/惩罚函数太难设计了。

人类针对一个回答可能给出非常多种的评价。比如说:不错、还行、挺好的、很好、太棒了、和我想的一样;或者:这不是我想要的结果、错了、这样不对、还可以更好、我觉得你没有理解我的意思……

这些反馈几乎是难以穷尽的。除非真的找一堆人,来针对AI给出的N种回答,量化的选择自己喜欢哪一种,不喜欢哪一种。

不就是人嘛,不就是钱嘛,OpenAI不差钱,自然也不差人。
在这里插入图片描述

他们找了40个人的专职外包团队,真的开始一条条的标注,所以你看,看起来是个通用人工智能了,还是靠人堆出来的。

现在,上亿的用户正在时时刻刻为chatGPT提供着更多的数据,更多的反馈,毫无疑问,这些数据将会被用于GPT-4的开发,这个数据量级,基本上已经穷尽了人类对于特定回答可能的反应,再往后,chatGPT真的就是边聊边学了。

chatGPT将在哪些领域应用?我们会失业吗?

又该回到那个老生常谈,但又直击灵魂的问题,我们会被AI取代吗?

更具体点,我们会被chatGPT取代吗?

毫无疑问,是的。

内容创作
除了文字创作以外,有点反直觉的是,创意创作的职业有可能会更快的被取代,比如说画家,作曲家等等。

这听上去和大家以往的认知有点不太一样。

按照大家的传统认知,人类最有优势的就在于人类的创意,而创意来自于自主意识,这也是AI所不具备的。

所谓的创新和创意其实是在有限的排列组合里创作出一个人类能够感知到美的唯一组合。

这个有限的空间指的就是音符、绘画的颜色和构图等。

音符和色彩组成的空间,对人类来说并不算是有限的,几乎可以等同于无限空间,但对于AI来说,特别是对于超大算力的AI来说,是可以穷尽的有限空间。

而在一个相对有限的空间里,不断的试错,寻找最优或者次优解这种事情,AI再擅长不过了。

事实上现在有很多的画家已经把寻找灵感这件事,交给AI了。

即先尝试让AI通过给出的一个或几个关键字进行创作,从AI创作的一系列作品中挑选自己喜欢的,用来寻找灵感,再将AI的画作用自己的风格画出来。

也就是说,画家、作曲家,这类人类引以为豪的创意创作职业,已经把自己最核心的竞争优势——灵感,交给AI去处理了。

剩下的所谓作曲或者作画风格,如果要进行模仿,对于AI来说更加不在话下。

在这里插入图片描述

Google Deep Dream 2015年作品

诚然,大师的作品总是难以逾越的,但是对于大多数不那么著名的创作者,自己的作品比起AI来说,到底有什么更打动人心的地方呢?

咨询领域
其他的职业当然也面临同样的危机,比如咨询领域基础的法律,财务金融保险等等咨询包括在线客服针对于某些领域特定知识的解答都可以被AI很好的完成,事实上现在很多人已经在用全gt去寻找。这些领域的问题的答案而不再咨询同类

类似的还有教师,科普工作者等等

程序员
此外,程序员们似乎要被自己写出来的AI隔了自己的命,特别是面向Google编程的,只会ctrl加c,ctrl加v的程序员们。

特定功能的基础代码chatGPT可以很好的完成,并且几乎是瞬间完成。

难点在于如何把一个现实问题转化为一个编程问题,拆解成多个明确的编程模块。

这是以后程序员们应该具备的核心竞争力,也就是编程思维。

总的来看,可能会被AI替代的,仍然是这个职业里面相对不那么资深的从业者。

其实换个角度,他们即使不被AI替代,也会被更优秀的同类替代,被会使用AI的同类替代。

所以对于这一类人来说,他们与其担心AI,不如先审视一下自己。

不过大家也不用过于担心,纵观人类历史,新技术的出现固然会导致一部分人的工作被替代,但是同时也会催生出新的职业和岗位。

蒸汽机的出现使得小作坊难以为继,催生了卢德运动。

在这里插入图片描述

但是蒸汽机普及之后,失业的人们也找到了更适合自己的工作。从整体上来看,人类在技术进步之后,更有余力去从事更加轻松的工作。

AI的出现同样催生了新的职业和岗位,比如AI标注师。AIGC时代的标注师,除了要给样本打标,还要自己创作内容给AI学习,引导AI修改回答,更要为AI创作的多个内容进行排序,以后的AI标注需求会更多样化,更加复杂。

除了催生出新岗位,AI也会赋能一些岗位,从而改变一些职业。

比如程序员不再需要写很多基础的代码,而是更多的需要利用AI去完成更大,更复杂的任务。

人均产能比原来提升了很多,但是技能更偏向于逻辑思维和问题拆解等能力。

同样,数据分析师也不再需要去做基础的数据整理、收集、整合等等工作,而是要更多的把精力放在数据的理解,业务目标的洞察上。

数据的整理、收集、整合,甚至建模的繁重工作,都可以由AI来完成,事实上,现在已经有不少工具支持以上功能了,比如Altair RapidMiner等产品,能够解决预测、聚类和异常值检测三大类问题,大大加快了模型的构建和验证过程。

比如Altair RapidMiner支持自动建模(Auto Model) 和自动数据准备(Turbo Prep)。我主要试用了其中的自动建模功能,它能够解决预测、聚类和异常值检测三大类问题,
在这里插入图片描述
可以在帮助用户评估数据的同时,为问题解决提供相关模型,并在计算完成后帮助用户比较模型结果,大大加快了模型的构建和验证过程。
在这里插入图片描述

自动数据准备功能中最令我印象深刻的是自动数据清洗功能(AUTO CLEANSING),包括移除低质量变量(REMOVE LOW QUALITY),替代缺失值(REPLACE MISSING),标准化(NORMALIZATION),离散化(DISCRETIZATION),哑变量编写(DUMMY ENCODING),PCA等等。
在这里插入图片描述

有了这样高产能的工具,程序员和数据分析师都可以从80%的重复劳动中解脱,把精力投入到实现业务价值、提升程序效率、与前端业务部门更好的沟通和协作上。“时代抛弃你的时候,连一声招呼也不会打”,那个时代已经来了,与其等着被抛弃,不如提前拥抱变化,用更好的工具完成自己耗时耗力的基础工作,从而腾出时间,改变自己的技能树,在这变革的时代中,站稳脚跟。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/11295.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

.IMA格式CT数据转成普通的.png或.jpg

在找医学图像去噪数据集的时候,发现2016 0mayo clinic 的数据格式是.IMA,我现在像把这些.IMA格式的数据都转成为常见的.png格式或者.jpg格式的图。方法如下: 因为这些数据都是以病例形式存在的,如下图,L067、L096...、…

PHPExcel导出网络图片(如果是微信图片需将微信图片转成正常的图片地址)

数据库的格式: 后台: 需求:将用户导到excel表中 //将用户导出到excel表中,并保存用户头像public function export(){$exportId json_decode(Request::param(exportId),true);//需要导出数据的id$exportS Db::name(member);//…

如何将微信电脑图片dat格式文件转换为jpg格式

电脑微信聊天过程中的图片文件格式为dat格式的文件,我们无法用普通的图片查看软件进行查看,那么如何将dat格式文件转换为jpg图片格式呢? 有办法,使用转换软件转换一下即可 首先点这里下载软件: 微信电脑版DAT图片格式…

微信DAT文件转JPG图片(图片恢复)

微信电脑版现在已经是日常工作生活必不可少的工具,有时候删除了聊天记录或者被系统清理软件清理了,但还想查看曾经的微信聊天图片。 这个时候辛辛苦苦找到了文件,却发现无法查看,因为微信电脑版为了保护我们的隐私,把…

微信电脑版聊天图片DAT格式转为普通JPG图片

微信是我们现在最常用的社交软件之一,它的功能越来越强大,我们的手机运行越来越慢。我们手机的运行内存越来越大的原因就是软件的功能越来越多,我们在使用这些功能的时候就会产生越来越多的无用垃圾,处理这种问题只有3种方法。 1.…

年度AI对话|达观陈运文:做私有部署的大模型,数据安全更具优势

本文内容来源于达观数据董事长兼CEO陈运文受邀出席36氪数字时氪的《年度AI对话》专栏采访内容 大模型既带来了压力,也带来了机会 文 | 杨俊 编辑 | 石亚琼 封面来源|企业官方 掌握了人工智能就掌握了新时代的生产力密码。在ChatGPT爆火的当下&#xff…

私有化运行大型语言模型 - 私有化的 GPT

目录 概述 Understanding the Privacy Challenge​了解隐私挑战 Potential Solutions to the Privacy Challenge​隐私挑战的潜在解决方案 Federated Learning​ 联邦学习 Homomorphic Encryption​ 同态加密

零基础,零成本,部署一个属于你的大模型

前言 看了那么多chatGPT的文章,作为一名不精通算法的开发,也对大模型心痒痒。但想要部署自己的大模型,且不说没有算法相关的经验了,光是大模型占用的算力资源,手头的个人电脑其实也很难独立部署。就算使用算法压缩后的…

Metabase可视化BI系统部署安装及简单使用

metabase 是国外开源的一个可视化系统,语言使用了Clojure TypeScript。 Clojure(/ˈkloʊʒər/)是Lisp程式語言在Java平台上的現代、動態及函數式方言。来自维基百科。 我也是第一次看到这个语言,知道它是可以运行在Java环境上的…

常用ChatGPT类模型的总结

做一个现在常用ChatGPT类模型的总结,后续会持续更新,大家如果有新的可以在评论里说 一、商用的(不开源)的: ChatGPT: https://chat.openai.com/ Claude: 可以参考我的这篇文章,北方的郎:Ant…

最新类ChatPDF及AutoGPT开源18大功能平台——闻达手把手超详细环境部署与安装——如何在低显存单显卡上面安装私有ChatGPT GPT-4大语言模型LLM调用平台

目录 前言闻达框架简介前期准备电脑要求安装anaconda安装相应版本的CUDA配置ChatGLM-6B Conda环境安装pytorch 类ChatPDF及AutoGPT开源模型——闻达环境部署及安装相关代码及模型下载解压模型到指定地址配置文件修改根据使用的不同模型,安装相关库运行体验运行chatG…

浅析ChatGPT:历史沿革、应用现状及前景展望

关注公众号,发现CV技术之美 浅析ChatGPT:历史沿革、应用现状及前景展望 刘禹良1,白翔1,金连文2 1华中科技大学人工智能与自动化学院 2华南理工大学电子与信息学院 人工智能已成为新一代信息时代的核心技术,广泛应用于多…

图灵奖得主、AI 教父、神经网络大师——谷歌副总裁 Hinton 离职——称其对毕生工作感到后悔和恐惧

图灵奖得主、AI 教父、神经网络大师——谷歌副总裁 Hinton 离职——称其对毕生工作感到后悔和恐惧 目录

谁是近期全世界最受瞩目的聊天对象?

在今天,答案有且仅有一个,那就是ChatGPT。 Chat GPT——可能很多人被这个冗长的名字搞糊涂了。说实话,我第一眼也看不出到底什么意思,看了英文原文, GPT就是Generative Pre-training Transformer(预训练生…

ChatGPT一枪打服谷歌AI人才!情人节组团加盟OpenAI

金磊 梦晨 发自 凹非寺量子位 | 公众号 QbitAI ChatGPT的号角一吹,连谷歌的顶尖AI人才都开始纷纷倒戈了! 就在今天凌晨,前后仅半个小时功夫,就有2位谷歌大脑人才连夜宣布入盟OpenAI: 他们是Jason Wei和Hyung Won Chung…

ChatGPT 冲击下,特斯拉曾留不住的 AI 大牛,再次回归 OpenAI !

整理 | 屠敏 出品 | CSDN(ID:CSDNnews) 技术圈毕竟还是一个“圈”,兜兜转转都是会遇见。 半年前,特斯拉 AI 的中坚力量,即 AI 部门的主管 Andrej Karpathy 在给自己放了 4 个月的长假之后,选择离…

实测最像ChatGPT的中文产品:能解释三体、懂弱智吧的梗,内测开启人人都能试!...

明敏 发自 凹非寺量子位 | 公众号 QbitAI 最像ChatGPT的中文产品,出现了! 昨晚,一个名叫Inspo的生成式对话AI,刚刚在“民间”开启内测,马上引发不小反响。 体验过的博主表示: 1分钟搞定3份策划,…

ChatGPT 有哪些 “激动人心的时刻“?以及自己的一些思考

文章目录 一、前言二、主要内容三、一些思考 🍉 CSDN 叶庭云:https://yetingyun.blog.csdn.net/ 一、前言 近日,英伟达创始人兼 CEO 黄仁勋与 OpenAI 联合创始人及首席科学家伊尔亚-苏茨克维 (Ilya Sutskever) 展开了一次 “炉边谈话”。 黄…

ChatGPT可能马上取代你,这是它能做的十个工作

“我们必须把这些东西看作提高生产力的工具,而不是完全的替代品。” 文|韩旭阳 来源|华尔街见闻(ID:wallstreetcn) 封面来源|视觉中国 ChatGPT 的横空出世,在业界掀起了惊涛骇浪。专…

AI 2022:浪潮奔涌,百舸争流

编者按:2022年已接近尾声,但技术的发展永不落幕。许多人说,2022是生成式AI的一年。这一年里,我们见证了Stable Diffusion和DALL-E2等AI图像编辑/绘画工具的爆发,也目睹了ChatGPT狂热席卷全球。 但AI技术和产业的发展&a…