对ChatGPT的二十点看法

c4fc71b9b8b9dbd4c8f9871a9b662e67.jpeg

TJUNLP

作者 | 熊德意  编辑 | 黄宇霏

【导读】二十点看法分为五大部分:总体看法、ChatGPT技术发展、国内同类技术、ChatGPT背后大模型技术的争议、未来趋势。

一、总体看法

1. 从人工智能发展角度看,这是认知智能发展的一个重要里程碑,其意义要高于7年前的AlphaGo。

AlphaGo是在人类智慧高强度体现的领域(围棋),机器战胜了人类,基于数据和算法,它刷新了普通大众对人工智能技术的看法,但是其本身并不能广泛应用,普通大众也难以与其直接接触。

ChatGPT则完全不同,它是在人类三岁小孩就逐步形成的语言智能方面有了重大突破。

过去,在人工智能领域,在人比较难做的事情上,比如数学定理证明、下象棋,机器表现很好;但是在人容易做到的事情上,比如说话,常识推理,机器表现反而很差,这些人类基本的智能对机器来说很难,是人工智能最难啃的硬骨头。

这次的ChatGPT是在这方面有了一定的突破,因为是说话,不是下围棋,所以普通大众都可以成为ChatGPT的用户,也就是说ChatGPT天生具有广泛的用户基础,再加上其令人惊艳的表现,这些使得其发布后用户量迅速增长,火出圈!

2. ChatGPT不仅仅是聊天,如果把它限制为聊天,那就显著降低了它的价值和意义。

OpenAI根据自己同类产品API的调用分析,除了纯聊天之外,用户还把它用于文本生成、开放域问答、头脑风暴、改写、摘要、分类等。

ChatGPT是对话式AI迈向真正实现的第一步,从互联网层面看,它可以作为信息入口,与搜索引擎相结合;从文案办公方面看,它可以与办公软件相结合,增强人的办公效率;从人机交互角度看,它体现的是一种基于语言的自然交互方式,可以与元宇宙、数字人结合。

除此之外,它还可以应用于机器人,充当机器人大脑。如果从人类信息发展的历史尺度上看,它是在人与机器之间的信息接口上有了很大突破。

3. ChatGPT是近几年技术快速发展和不断更新迭代、多种技术叠加在一起形成质变的产物,是自然语言处理领域近年来研究的结晶。

其底层的技术,包括Transformer、自监督学习、微调、人类反馈强化学习、AI对齐等,在自然语言处理和人工智能领域都有广泛的研究和应用。

但是ChatGPT将这些技术巧妙地结合在一起,有效规避了大模型的未对齐行为,利用了大模型规模带来的智能突现能力,增强了大模型的指令学习能力和用户意图捕获能力,解锁了大模型的泛化能力,这些能力叠加在一起形成了ChatGPT的质变效果。

4. ChatGPT探索了一种使机器获得语言智能的有效技术路线,但这个方向仍然需要在科学和技术上进一步探索。

技术上,其他的技术路线是否可以达到同样效果?

近几年,大模型研究技术架构上出现了同质化趋势,Transformer独步天下,GPT路线占据绝对统治地位,这对未来技术创新并不是好事;

科学上,ChatGPT一类技术体现了技术先行科学滞后的典型特点,为什么大模型有突现能力?对齐之后的泛化能力是如何形成的?语境学习的机制是什么?

这些问题目前都没有明确的答案,科学回答这些问题,显然可以进一步推动技术发展。

5. ChatGPT技术虽然取得了重要进展,但仍然面临诸多挑战。

第一,虽然采用了人类反馈强化学习(RLHF)AI对齐技术,但是生成的内容仍然存在未对齐行为,如不符合常识,存在偏见、歧视等内容,信息真实性有时存疑(即“一本正经地胡说八道”),未来在AI对齐技术上需要进一步研究和突破;

第二,以ChatGPT为代表的大模型技术通常被具有丰富算力和数据资源的企业垄断,且不开源,不利于大模型技术研究和突破;

第三,目前大模型的算力消耗非常庞大,要实现大规模真实场景应用,模型轻量化技术需要进一步探索;

第四,要提升模型的可解释性,要研制相关技术使得ChatGPT为代表的大模型技术可以自我追溯信息源头,增强可信性;

第五,ChatGPT背后还存在很多科学问题未有明确答案,如大模型突现能力是如何形成的?语境学习机制是什么?AI对齐为什么使大模型具有指令泛化能力?这些科学问题的探索将会推动未来技术更好地发展。

二、ChatGPT技术发展

6. GPT-3之前的大模型技术路线和架构是多种多样的,以BERT为代表的Encoder大模型、以GPT为代表的Decoder大模型、以T5为代表的Encoder-Decoder大模型等,但是从GPT-3之后,大模型技术路线趋于单一化。

包括Google的PaLM、LaMDA,Meta AI的Galactica、OPT,Nvidia/Microsoft的Megatron-Turing,AI21 Labs的Jurassic-1,DeepMind的Gopher、Chinchilla,Hugging Face的BLOOM,国内华为的Pangu-a,浪潮的Yuan-1.0等千亿级参数规模的大模型,基本上都是采用GPT-3的Decoder架构,可能是因为训练成本太高,采用其他未验证的架构,试错成本高,跟随GPT-3成功路线进行微创新是最好的选择。

7. GPT-3 2020年3月发布后,国内外研究机构相继快速跟进,上述提到的大模型基本上都是在2021-2022期间研发出来,也就是说从技术路线上总体滞后GPT-3 1-2年时间。

8. GPT-3文本生成结果比之前的模型有大幅度提升,但同时也存在很多问题,如各种偏见、歧视、潜在的滥用等。

鉴于这些问题,大模型研究开始逐步重视AI对齐研究,即使得大模型输出结果与人的意图、价值观等对齐。

一些瞄准通用人工智能的企业,如OpenAI、DeepMind纷纷成立专门的AI Alignment研究团队,招兵买马,将AI Alignment视为通向AGI之路必须要解决的问题。

来自这两个团队研究人员,甚至成立了一家非盈利研究机构:ARC(对齐研究中心)。

9. 基于大模型的对话agents纷纷在2021-2022期间开始研制,包括Google的 LaMDA、DeepMind的Sparrow、Anthropic的Claude等,这些dialogue agents无一例外都进行了AI对齐。

10. RLHF并不是唯一的AI对齐技术,面向language agents的对齐有很多方法、很多策略,需要更多探索。

11.模型编辑、稀疏模型、半参数检索模型,这些技术,在大模型发展中同样值得深入研究。大模型编码的知识不应该是一成不变的,将知识全部编码到模型链接和神经元中,可能也并不是最优选择。

12. 除了AI对齐和大模型赋能ChatGPT之外,OpenAI在长文档摘要、自然语言描述转为代码等方面也做了很多工作,这些工作同样增强了ChatGPT相应能力。

三、国内同类技术

13. 2020年OpenAI发布1750亿参数的GPT-3之后,国内企业和科研机构,同Google、微软、DeepMind、Meta AI等一样,于2021-2022年间,研制了类似于GPT-3架构的千亿级大模型。

因此,在底层技术上我们不存在任何问题。

14. 但是要实现中国版的ChatGPT,需要在多个方面加强研究,压实工作。

首先,在数据上,我们要使用与GPT-3相当的数据量和计算量训练模型,目前中文缺乏像英文那样的多个开源大规模数据集,各家企业使用的中文数据也很少开源,很多时候数据也未像OpenAI那样进行精细处理以提升质量;

其次,国内在AI对齐研究上需要加强,尤其是在已经预训练的大模型上,要进行对齐,要继续优化和精调大模型;

再次,要充分调动以大模型为代表的新型AI技术的研发活力,鼓励已经研制的大模型向大众公开,接受广大用户检测,同时也要积极培育专攻某一类核心技术(如大模型AI对齐技术)的初创企业,不求短期市场回报。

四、ChatGPT背后大模型技术的争议

15. 大模型的优缺点在业内讨论非常多,也非常激烈,大模型存在伦理问题、环保问题、资源垄断不开源问题等等,这些问题学术界和产业界都在进行研究,寻找技术、策略、机制等方面的解决方案。

16. 个人认为,业内对大模型争议最激烈的地方在于大模型是否是通向AGI之路、是否具备类人理解力、是否具有情绪/意识,这些问题已经不单纯是在自然语言处理领域、人工智能领域讨论了,一些争论已经在哲学层面进行了,包括借助思想实验等。

除此之外,这些问题涉及的AGI、意识等,对它们的定义,本身也没有共识,存在争议。

17.就大模型是否能像人一样“理解”用户输入的句子以及自身生成的文本这个问题而言,从技术层面看,大模型本质上是根据单词共现概率基于已生成的单词序列预测下一个单词,共现概率或依存关系是大模型从海量文本数据中建模学习而来。

由于大模型的数据都是符号,模型是无法像人一样将意义、概念奠基到符号之外的物理世界,符号系统在语意上是不充分的。

符号系统本身并不能真正理解符号的意义,所有的意义都是被外部观察者或设计者所赋予的,即使将视觉模态加入到大模型中,大模型学到的也只是符号和视觉元素之间的统计关联关系,仍然不能奠基到真实的物理世界。

也就是说,大模型无法做到类人理解。这里涉及到人工智能图灵测试、中文屋思想实验、符号奠基问题等,感兴趣者可以参考《神经机器翻译:基础、原理、实践与进阶》第19章短评“预训练技术争议与符号奠基问题”。

18. 自然语言处理和人工智能领域的研究者在学术论文中或者介绍AI模型时,经常使用拟人化的描述,如“理解”、“学习”等,主要是为了让读者或听众更容易理解模型或算法的原理,并不不代表机器、模型真的像人一样思考、学习、理解。

五、未来趋势

19. ChatGPT类技术其背后体现的,首先是预示着一种深层次的信息革命。

人类发明计算机和互联网之后,获取、存储和使用信息的方式出现了翻天覆地的变化,但最近几十年基本上没有大的变动,主要以搜索引擎为主,呈现的信息通常需要用户进行二次处理或再加工才能满足要求。

ChatGPT呈现的信息则通常可以直接满足用户的需求,或通过交互方式逐步达到用户的要求,虽然目前还存在信息可靠性问题,但相信未来这些问题会不断得到改善。

其次是人和机器关系会出现重大转变。

以ChatGPT为代表的一类技术在精准捕获用户的真实意图方面迈出了一大步,一旦机器可以“理解”人类意图并完成相应任务,人和机器的交互就不再需要翻译成机器语言,而是直接使用人类语言作为交互载体。

再次是机器生成内容的能力大大增强。

一些文字内容类工作,机器可以辅助人类,人的工作效率会得到极大提升,一些“枯燥乏味”的文字工作则可交给机器完成,人专注于更高层次的内容、思想编辑工作,或通过人机交互方式协同生成更好的内容。

20. 基于以上趋势,未来人类获取信息的方式、与机器交互的方式都会出现变化。

与人类意图、价值观、伦理准则高度对齐的信息智能体会帮助我们高效获取信息、生成信息和发布信息。

以ChatGPT为代表的大模型及其后续更新技术会逐步充当各种机器、设备、机器人的“大脑”,人机之间的交互会更加以人为中心,而不是以机器为中心。

相应的技术会对多个行业、领域产生影响,如教育(规范使用ChatGPT等类型技术,避免学生使用它们做作业,发挥新技术对教育的积极辅助作用,而不是成为作弊利器)、医疗(将大模型技术应用于医疗问答、药物研发、DNA/蛋白质建模等)等,传统的计算机软件,如搜索引擎、办公软件等,也会受到影响和冲击。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/2063.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

对于chatGPT的评价-ChatGPT的内容生成

chatGPT的优缺点 ChatGPT是一种基于深度学习技术的自然语言处理算法,其相比传统的自然语言处理算法具有很多优势。下面是ChatGPT的优点和缺点: 优点: 可适应多种任务:ChatGPT是一个通用的自然语言处理算法,可以适应多…

chatgpt源码部署教程

chatgpt是一个基于GPT-3模型的聊天机器人项目,它能够与用户进行自然语言交互,并提供各种实用的功能。然而,对于许多开发者来说,将chatgpt源码部署到自己的服务器上并不是一件容易的事情。在本篇文章中,我们将为大家提供…

建立自己的ChatGPT:LLama私有化部署及测试

大语言模型(LLM)现在非常流行,可惜ChatGPT等都不开源。大家没法搭建一个自己的环境来感受以下。幸好Meta开源了LLama,这是LLama的介绍: https://ai.facebook.com/blog/large-language-model-llama-meta-ai/ 具体技术…

保姆级别 Vercel 部署 ChatGPT

最近ChatGPT都火出圈了,你还在用别人的服务吗? 你还在用别人的域名吗?你还在为网络感到烦恼吗?今天,这篇文章带你部署自己的ChatGPT 老规矩看看效果图 准备工作 这里用 ChatGPT项目 进行部署,Vercel 进行…

windows下免费本地部署类ChatGpt的国产ChatGLM-6B

ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 Chat…

ChatGPT API调用+服务器部署【附Git地址】

文章目录 一、关键代码二、使用步骤1.获取代码2.服务器部署 总结 运行对话效果图 一、关键代码 public class Main {public static final String URL "https://api.openai.com/v1/chat/completions";// 你的 API KEYpublic static final String APT_KEY "sk…

部署ChatGPT(在VPS或免费容器上),无需科学上网!

部署ChatGPT(在VPS或免费容器上),无需科学上网! 文章目录 部署ChatGPT(在VPS或免费容器上),无需科学上网!前提方案一(VPS)方案二(免费容器) 前提 已经注册了openAI ,或者…

chatGPT:12.12 之后更新的 chatGPT 的本地部署和接口调用,解决 response 403 (无法连接openai服务器)问题

文章目录 问题源代码改动Session token 的获取cf_clearance 的获取user-agent 的获取将 config.json.sample 内容修改并移动位置附注:环境配置python > 3.7特别提示playwright & cf_clearancerevChatGPT 版本httpxOpenAIAuth删除 import 中的错误 后记 问题 …

【LangChain】如何本地部署基于chatGPT的实时文档和表格数据的助手,在自己的数据上构建chatGPT?

【LangChain】如何本地部署基于chatGPT的实时文档和表格数据的助手,在自己的数据上构建chatGPT 1 相关技术 (1)LangChain 是一个用于自然语言处理的 Python 库,它的目标是尝试简化自然语言处理任务,提高处理效率和准…

ChatGPT一键私有部署,全网可用,让访问、问答不再受限,且安全稳定!

前言 ChatGPT由于在访问上有一些限制,使用并不便利。目前国内可以直接访问的大部分是调用API返回结果,我们去使用时总会有次数限制,而且它们可能随便崩掉。 其实,目前我们访问过的大部分国内的网页包括UI,其实是套用了…

快速部署个人-ChatGPT Next Web

前提:要有梯子、谷歌账号。 目录 一、源码地址: 二、演示地址: 三、获取API密钥 四、 部署 五、重新部署 六、无梯子访问 一、源码地址: GitHub - Yidadaa/ChatGPT-Next-Web: One-Click to deploy well-designed ChatGP…

docker部署chat-web,实现自己的ChatGPT

本篇文章的前提是请确认已获得openai 的API-KEYS,即以sk-开头的keys;是否在服务器上安装了docker以及docker-compose docker以及docker-compose安装请参考我的博文:CENTOS8.0安装DOCKER&DOCKER-COMPOSE_wd520521的博客-CSDN博客 一、&a…

本周热门chatGPT之AutoGPT-AgentGPT,可以实现完全自主实现任务,附部署使用教程

AutoGPT 是一个实验性的开源应用程序,它由GPT-4驱动,但有别于ChatGPT的是,​ 这与ChatGPT的底层语言模型一致。 ​AutoGPT 的定位是将LLM的"思想"串联起来,自主地实现你设定的任何目标。 简单的说,你只用提出…

ChatGLM 本地部署搭建及测试运行

这篇简要说下清华开源项目 ChatGLM 本地部署的详细教程。清华开源项目 ChatGLM-6B 已发布开源版本,这一项目可以直接部署在本地计算机上做测试,无需联网即可体验与 AI 聊天的乐趣。 项目地址:GitHub - THUDM/ChatGLM-6B: ChatGLM-6B&#xf…

部署了一个ChatGPT

部署了一个ChatGPT ChatGPT火爆了一段时间了,但是基于一些不可描述的原因,不能注册使用。为了方便大家体验,我部署了一个服务,能简单地体验一下ChatGPT的强大。话不多说,直接展示几个例子截图。文章最后放上体验地址和…

一键部署自己的ChatGPT!

昨晚咱们群友推荐了一个叫做ChatGPT-Next-Web项目,可以一键免费部署你的私人 ChatGPT 网页应用。 今早起来尝试了下,整体过程非常丝滑,觉得有必要推荐给大家。 项目整体是基于Vercel平台开发的,只要提供api key,即可在…

史上最简单的自建ChatGPT部署方案,只需要一个HTML文件

今天发现一个史上最简单的自建ChatGPT部署方案,只需要一个HTML文件,把它配置到Nginx就能跑起来。 效果如下: 他能做什么用? 平常我们使用chatgpt需要配魔法上网才能登上官方网站,对于很多人来说这是个很棘手的问题&a…

【ChatGPT本地部署-- ChatGLM】

这里写自定义目录标题 ChatGPT本地部署--- ChatGLM(转载)一、什么是ChatGLM?二、本地部署三、模型与ChatGPT和GPT4AII 效果对比 ChatGPT本地部署— ChatGLM(转载) 目录 一、什么是ChatGLM? 二、本地部署 2.1 模型下载 2.2 模型部署 2.3 模型运行 …

跟AI唠嗑,年入33万美金!ChatGPT时代的必备新技能

编|好困 Aeneas源|新智元 AI在我们的生活中,越来越不可或缺。显然,谁能更好地掌握提示工程,就能比别人多掌握一个强大的利器。 ChatGPT的爆火,也让提示工程师的薪水水涨船高。 现在,已经有人拿到…

如何利用ChatGPT搞科研?

这位研究僧,GPT-4都发布了,你还在纯人工搞科研吗? 已经有人实测: ChatGPT科研全流程都能用,尤其是对于 英语非母语的科研人员,可以极大地提高日常科研工作效率。 连写给导师的请假信,都能编得有…