Google内部文件首次泄漏:ChatGPT 没有护城河,开源才是大模型未来

6b7927858b25c8f62e9da88814f3bf47.jpeg

来源:爱范儿

今晨,一篇来自 Google 内部泄漏的文件在 SemiAnalysis 博客传播,声称开源 AI 会击败 Google 与 OpenAI,获得最终的胜利。「我们没有护城河,OpenAI 也没有」的观点,引起了热烈讨论。

据彭博社报道,此文作者为 Google 高级软件工程师 Luke Sernau,4 月初在 Google 内部发布后就被分享了数千次。

1b729365b69aa4639ab58f01bfed44d8.jpeg

自称 AI-first 的 Google,近几个月以来一直在经历挫败。

2 月,Google Bard 公开演示失误,市值蒸发千亿。3 月,将 AI 整合进办公场景的 Workspace 发布,却被整合了 GPT-4 的 Copilot 抢尽风头。

在赶潮的过程中,Google 一直显得谨小慎微,未能抢占先机。

在此背后,是 Google CEO 皮查伊倾向渐进式,而不是大刀阔斧的改进产品。部分高管也不听从他的调度,或许是因为,大权压根不在皮查伊手里。

如今,Google 联合创始人拉里·佩奇虽然已经不太插手 Google 内部事务,但他仍然是 Alphabet 的董事会成员,并通过特殊股票控制着公司,近几个月还参加了多场内部 AI 战略会议。

Google 面临的问题,每一个都困难重重:

1.CEO 行事低调, 联合创始人拉里·佩奇通过股权控制着公司;

2.「开发产品但不发布」的谨慎,让 Google 多次失去先机;

3.更加视觉化、更具交互性的互联网,对 Google 搜索造成威胁;

4.多款 AI 产品市场表现不佳。

内忧外患之中,Google 被笼罩在类似学术或政府机构的企业文化之下,充斥着官僚主义,高层又总是规避风险。

我们整合翻译了全文,对 Google 来说,开源或许不是压死骆驼的最后一棵稻草,而是它的救命稻草。

核心信息提炼

Google 和 OpenAI 都不会获得竞争的胜利,胜利者会是开源 AI

开源 AI 用极低成本的高速迭代,已经赶上了 ChatGPT 的实力

数据质量远比数据数量重要

与开源 AI 竞争的结果,必然是失败

比起开源社区需要 Google,Google 更需要开源社区

Google 没有护城河,OpenAI 也没有

我们一直在关注 OpenAI 的动向,谁会达到下一个里程碑?下一步会是什么?

但不得不承认,我们和 OpenAI 都没有赢得这场竞争,在我们竞争的同时,第三方力量已经取得了优势。

我说的是开源社区。简单地说,他们正在超越我们。我们认为的「重大问题」如今已经得到解决并投入使用。举几个例子:

手机上的 LLM:人们可以在 Pixel 6 上以每秒 5 token 的速度运行基础模型;

可扩展的个人 AI:你可以一个晚上就在笔记本电脑上微调一个个性化 AI;

负责任的发布:这个问题不是「解决了」,而是「消除了」。互联网充满了没有限制的艺术模型,语言模型也要来了;

多模态:当前的多模态 ScienceQA SOTA 在一小时就能完成训练。

虽然我们的模型在质量方面仍然有优势,但差距正在以惊人地速度缩小。开源模型更快、更可定制、更私密,而且性能更强。他们用 100 美元和 130 亿参数做到了我们使用 1000 万美元和 5400 亿参数下也很难完成的事情。而且他们用的时间只有几周,而不是几个月。这对我们意味着:

我们没有秘密武器。我们最好的方法是向 Google 外的其他人学习并与他们合作,应该优先考虑启用第三方集成。

当有免费、无限制的替代品时,人们不会为受限制的模型付费,我们应该考虑我们真正的价值在哪里。

庞大的模型正在拖慢我们的步伐。从长远来看,最好的模型是可以快速迭代的模型。既然我们知道在参数少于200亿的情况下有什么可能,我们应该更关注小型变体。

b94cedab619b46a949eb0ceb419a4bf9.jpeg

开源社区迎来了 LLaMA

今年 3 月初,开源社区第一次获得了一款真正强大的基础模型,来自 Meta 的 LLaMA。它没有指令或对话调整,也没有强化学习人类反馈(RLHF),但社区依然立即意识到 LLaMA 的重要性。

随后,一个巨大的创新浪潮随之而来,每个重大发展之间只有几天的时间(详见文末时间线)。一个月之后,已经有指令调整(instruction tuning)、量化(quantization)、质量改进(quality improvements)、人类评估(human evals)、多模态、RLHF等功能的变体,其中许多变体是相互依赖的。

最重要的是,他们已经解决了规模问题,让任何人都可以参与其中,许多新的想法来自普通人。实验和训练的门槛从一个大型机构降低到了一个人、一个夜晚或者一台强大的笔记本电脑。

LLM 的 Stable Diffusion 时刻

在很多方面,这对任何人都不该是一个惊喜。当前开源 LLM 的复兴紧随着图像生成的复兴之后。社区没有忽视这种相似之处,许多人将其称之为 LLM 的「Stable Diffusion Moment」。

在两种情况下,低成本的公众参与得以实现,因为有一种称为低秩适应(Low rank adaptation,LoRA)的微调机制大大降低了成本,结合规模方面的重大突破(图像合成的 Latent Diffusion,LLM 的 Chinchilla)。在这两种情况下,开源社区很快超过了大型参与者。

这些贡献在图像生成领域起到了关键作用,使 Stable Diffusion 走上了与 Dall-E 不同的道路。拥有开源模型导致了产品集成、市场、用户界面和创新,在 Dall-E 上并未发生。

这个效果是非常明显的:在影响方面,相对于 OpenAI 的解决方案,Stable Diffusion 迅速占领主导,让前者逐渐变得越来越无关紧要。

LLM 上是否会发生同样的情况还有待观察,但其基本的结构元素是相同的。

d51caf6510afcfc076b07322621e04d9.jpeg

Google 本不应该错过

近期开源社区创新的成功直接解决了我们仍在苦苦应对的问题。关注它们的工作可以帮我们避免重复造轮子。

LoRA 是一种我们应该关注的强大的技术。

LoRA 通过将模型更新表示为低秩分解(low-rank factorizations)来工作,将更新矩阵的大小减少了几千倍。这使得模型微调的成本和时间大大降低。在消费级硬件上在几个小时内个性化一个语言模型是一件大事,尤其是对于涉及近乎实时地整合新的、多样化知识的愿景。

这项技术在 Google 内部并未被重视,尽管它直接影响了我们一些最具有雄心壮志的项目。

从头训练模型比不过 LoRA

LoRA 有效的原因在于它的微调是是可堆叠的。

例如,指令调整之类的改进可以直接应用,然后在其他贡献者添加对话、推理或工具使用时加以利用。虽然单个微调是低秩(low rank)的,但它们的总和不如此,从而形成全秩(full-rank)更新。

这意味着,随着新的和更好的数据集以及任务变得可用,模型可以廉价地保持更新,而不必支付全面运行的成本。

相比之下,从头开始训练巨型模型不仅丢弃了预训练,还丢弃了已经进行过的迭代更新,在开源世界中,这些改进很快就会占据主导,使得进行全面重训练的成本极高。

我们应该认真考虑新的应用或想法是否真的需要一个全新的模型来实现。如果模型架构的改变使得已训练的模型权重无法直接应用,那么我们应该积极采用蒸馏技术,以尽可能地保留之前训练好的模型权重所带来的能力。

注:模型训练的成果是模型权重文件;蒸馏是一种简化大型模型的方法。

快速迭代,让小模型优于大模型

LoRA 更新对于最受欢迎的模型大小非常便宜(约 100 美元)。这意味着几乎任何人都可以产生并分发一个模型。

不到一天的训练时间是常态,在这种速度下,所有这些微调的累积效果很快就会弥补起起始大小的劣势。实际上,从工程师的角度来看,这些模型的改进速度远远超过我们最大的模型,而且最好的模型已经基本上与 ChatGPT 无异。专注于维护一些地球上最大的模型实际上会使我们处于劣势。

bc2b1e112b2a696dc5d2386d25120c71.jpeg

数据质量比数据大小更重要

许多项目通过在小而高度精选后的数据集上训练来节省时间。

这表明数据扩展定律具有一定的灵活性。这些数据集的存在遵循了《数据并非你所想(Data Doesn't Do What You Think)》中的思路,并且它们正在迅速成为 Google 外部训练的标准方式。

这些数据集使用合成方法构建(例如,过滤现有模型中的最佳响应)并从其他项目中获取,这两种方法在 Google 中都不占主导地位。幸运的是,这些高质量数据集是开源的,所以可以免费使用。

与开源竞争必定失败

最近的进展对我们的商业策略有直接、即时的影响。如果有一个免费的、高质量、没有限制的替代方案,谁会选择使用有限制且付费的 Google 产品?

而且我们不应该指望能够追赶上来。现代互联网依赖开源,开源有我们无法复制的重要优势。

b9a43d2c8b8fed1267c22a19bcd4bdbd.jpeg

比起被开源需要,Google 更需要开源

我们很难确保技术机密的保密性。一旦 Google 的研究人员跳槽至其他公司,我们就应该假设其他公司掌握了我们所知道的所有信息。而且,只要有人离职,这个问题就无法得到解决。

如今,保持技术竞争优势更加困难,全世界的研究机构正在相互借鉴,以广度优先的方式探索解决方案空间,远远超出我们自身的能力范围。我们可以试图紧紧抓住机密,但在外部创新会稀释它们的价值,或者我们可以试着互相学习。

与公司相比,个人受许可证的限制更少

许多创新都是基于 Meta 泄露模型的基础上进行的。虽然这肯定会随着真正的开源模型变得更好而改变,但关键是他们不必等待。

法律保护的「个人使用」以及起诉个人的实际困难,意味着在这些技术炙手可热时,人人都可以有使用的机会。

成为自己的客户,意味着了解使用案例

在浏览人们使用图像生成领域创建的模型时,可以看到大量创意的涌现,从动漫生成器到 HDR 风景图。这些模型是由深度沉浸在其特定子流派中的人们使用和创建的,赋予了我们无法企及的知识深度和共鸣。

拥有生态系统:让开源为 Google 工作

矛盾的是,所有这些中唯一的赢家是 Meta。因为泄露的模型是他们的,所以他们实际上获得了全球大量免费劳动力。由于大多数开源创新是在他们的架构之上进行的,所以没有任何东西能够阻止他们直接将其纳入其产品中。

拥有生态系统的价值不言而喻。Google 本身已经在其开源产品(如 Chrome 和 Android)中成功使用了这种范例。通过拥有创新发生的平台,Google 巩固了自己作为思想领袖和方向指示者的地位,赢得了塑造超越自身的思想的能力。

我们越是严格控制我们的模型,人们就越对开源替代方案感兴趣。Google 和 OpenAI 都倾向于采取防御性的发布模式,以保持对模型使用方式的严格控制。但这种控制只是虚幻,任何想要将 LLM 用于未经授权的目的的人都会选择自由提供的模型。

Google 应该在开源社区确立自己的领导地位,通过合作来引领社区。

这可能意味着采取一些令人不安的步骤,比如发布小型 ULM 变体的模型权重。这必然意味着放弃对我们的模型的某些控制。但这种妥协是不可避免的。我们不能希望同时推动创新和控制它。

73ef65fb3d0e969fabb6307e06f162c9.jpeg

OpenAI 们的未来在何方?

这些关于开源的讨论可能会让人感到不公平,因为 OpenAI 目前的政策是封闭的。如果他们不分享,为什么我们要分享呢?但事实是,我们已经通过不断流失的高级研究人员与他们分享了一切。在我们阻止这种流失之前,保密毫无意义。

最终,OpenAI 并不重要。他们在与开源的立场上犯了和我们一样的错误,他们保持优势的能力必然受到质疑。除非他们改变立场,否则开源替代方案最终会替代并超越他们。

至少在这方面,我们可以率先行动。

这篇文章在 Twitter 等社交平台上引起了广泛关注,来自德克萨斯大学的教授 Alex Dimakis 的观点得到了不少人的认可:

1.

我同意开源 AI 正在取得胜利的观点,这对世界和竞争激烈的生态系统来说都是好事。虽然在 LLM 领域还没有做到,但我们用 Open Clip 战胜了 OpenAI Clip,Stable Diffusion 确实比封闭模型更好;

2.

你不需要庞大的模型,高质量的数据更加重要,API 背后的羊驼模型进一步削弱了护城河;

3.

从一个拥有良好基础的模型和参数有效微调(PEFT)算法开始,比如 Lora 在一天内就能运行的很好,算法创新的大门终于打开了;

4.

大学和开源社区应该组织更多的精选数据集,用来培训基础模型、并像 Stable Diffusion 那样建立社区。

1a0c7cfc44e4076ff7dad31283787ec8.jpeg

但同时,也有不少人对开源 AI 的能力持怀疑态度,表示它与 ChatGPT 还有一定距离。

50d8a92ada5ffc2e5149d6fbfd5cdb30.jpeg

但不论如何,开源 AI 降低了每个人参与研究的门槛,我们也期待 Google 能把握住机会,「率先行动」。

*原文链接:
https://www.semianalysis.com/p/google-we-have-no-moat-and-neither
*配图来自 Bing Image Creator

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

56da38f7bf8d59ec6118f6a72ff50265.jpeg

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/43115.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

人与机器全面协同作战的智能时代

前言 ChatGPT全球热浪来袭,无数行业、场景和产品都将面临自我革新,我们已经进入了“人与机器全面协同作战的智能时代”。 自2019年创业以来,雾帜智能始终坚持将人工智能技术精准落地到现实应用场景中;并在网络安全领域&#xff…

掌握AI图像篡改检测工具,轻松识别图片造假

文章目录 一、前言1.1 背景与危害1.2会议探讨1.3 技术先行 二、亮点技术1:AI图像篡改检测技术2.1 传统方法Python实现步骤2.2 合合信息——PS纂改检测体验 三、亮点技术2:生成式图像鉴别3.1 生成式图像安全问题3.2 传统方法Python实现步骤3.2 合合信息—…

使用第三方打码平台图鉴识别滑动验证码模拟登录

文章目录 一.图鉴的账户注册识别流程 二.欧模网案例滑动验证码模拟登录页面分析 三.代码分析四.欧模网案例展示总结 一.图鉴的账户注册 图鉴网页地址: http://www.ttshitu.com/ 登录后充值一个提分 把这个python脚本复制保存到一个python文件中去 识别流程 首先你要先确定验…

通信工程考研英语复试专有名词翻译

中文英文频分多址Frequency Division Multiple Access码分多址Code Division Multiple Access时分多址Time Division Multiple Access移动通信mobile communication人工智能artificial intelligence水声通信Middle-Range Uwa Communication正交频分复用Orthogonal frequency di…

程序员普遍都有工伤!

作为加班一族、通宵一族、买房一族…程序员的压力可以说非常大了,然而这就出现了一个恶性循环,项目上线要加班,不上线也加班,加班烧脑容易饿,公司福利好,管三餐,待在公司就像家,bug改…

一文看懂新个税计算

目录 一、个税如何计算 1.速算扣除数的使用 2.速算扣除数原理 二、全年应纳税所得额包含什么 1.计算公式 2.减除费用 三、每月个税为啥不一样 一、个税如何计算 最新税率如上表。新个人所得税法的施行时间为2019年1月1日。 1.速算扣除数的使用 举例,小李全…

[附源码]java+ssm计算机毕业设计工伤事故管理系统bzc3b(源码+程序+数据库+部署)

项目运行 项目含有源码(见文末)、文档、程序、数据库、配套开发软件、软件安装教程 环境配置: Jdk1.8 Tomcat7.0 Mysql HBuilderX(Webstorm也行) Eclispe(IntelliJ IDEA,Eclispe,MyEclispe,Sts都支持)。 项目技术&a…

计算机专业退休有退休金,我参加工作42年,国家公务员退休,二级警督,退休工资为什么按2014年10月份的工资计算机退休费...

咨询我 帮助人数:3463719 退休年龄 根据1978年6月国务院颁发的《关于工人退休、退职的暂行办法》和《关于安置老弱病残干部的暂行办法》(国发[1978]104号)规定,下列几种情况可以办理退休: (1)男性干部、工人年满60周岁,女干部年满…

上海社保金额精确计算公式

公司缴纳社保金额用自己的Excel表格拉出来的数值总是与税务局的《社会保险费缴纳通知书》不一致,网上搜了半天,没有说的清楚的。几个所谓社保计算器,计算的都不对,只有自己琢磨了。 目前积累的经验 公司单位缴纳除了“工伤保险费…

计算机专业毕业设计题目汇总-最新题目 选题 推荐 毕业设计 - 毕设指导 开题报告 论文

计算机专业毕业设计题目汇总-最新题目 选题 推荐 毕业设计 - 毕设指导 开题报告 论文 文末见 点赞再看,养成习惯 小游戏推荐: Java 实现 捕鱼达人 小游戏【附源码】 Java 实现 贪吃蛇 小游戏【附源码】 Java 实现 1024 小游戏【附源码】 Java实现一…

微软语音合成助手 v1.5.1 文本转语音工具,真实语音AI生成器

前言 微软语音合成助手由bill3k使用易语言开发,虽然界面比较简陋,但在功能及使用体验上都是非常优秀的 软件调用官方接口,全部支持ssml,将文字转语音大部分功能都给集成了 虽然用的都是免费接口,原本有字数限制 但…

基于趋动云部署复旦大学MOSS大模型

首先新建项目: MOSS部署项目,然后选择镜像,直接用官方的镜像就可以。 之后选择数据集: 公开数据集中,MOSS_复旦大学_superx 这个数据集就是了,大小31G多 完成选择后: 点击创建,…

微软赢麻了!数十亿文本-图像对训练,多模态Florence开启免费体验,登上Azure...

视学算法报道 编辑:LRS 【导读】前有ChatGPT,后有Florence,微软简直赢麻了! 2021年11月,微软发布了一个多模态视觉基础模型Florence(佛罗伦萨),横扫超过40个基准任务,轻…

重磅炸弹!OpenAI 现场演示官方版 AutoGPT!

编辑:丰色 明敏 转自:量子位 | 公众号 QbitAI OpenAI官方AutoGPT,要来了! 就在AutoGPT项目破10万Star之际,OpenAI也放出重磅炸弹,由联合创始人格雷格布洛克曼(Greg Brockman)亲自现场…

Java数组解析(详解)

数组 前言一、数组的概述1.数组的理解2.数组相关的概念3.数组的特点4. 数组的分类 二、一维数组的使用1. 声明和初始化2. 数组元素的引用3. 如何获取数组的长度4.如何遍历数组5.数组元素的默认初始化值6.数组的内存解析 三、二维数组的使用1. 声明和初始化2. 数组元素的引用3.如…

Unlimited “使用GPT-4 ”!它来了!

备注本文末尾附录注册登录过程 平台介绍: 聊天机器Chat.fore人front.ai是一为款基于人主工智能的题聊天的机器人主平台,旨在帮菜助企,业提可以高客户服务质是量和一效率。该平款台利用自然语精言处理技术和机器致学习的算法,能够自牛动排回答客,户的问题,提供个性化的服…

Android应用耗电量测试

测试方法 测试工具为adb,测试步骤如下: 关闭手机上无关软件。 连接电脑,运行adb shell dumpsys batterystats --reset重置电池记录,重置成功显示“Battery stats reset.”。 断开手机与电脑的连接(连着电脑充电结果…

Android 应用开发的耗电量控制

对于移动平台来说,设备电量有限一直是制约其发展的一个重要因素,作为开发者,功能实现虽然优先级高,但是开发过程中,针对耗电量进行优化也是应该牢记在心的,毕竟一款优质的App在耗电量方面也必须让广大用户满…

使用Batterystats和Battery Historian进行耗电检测

本文主要介绍Batterystats和Battery Historian的基本使用步骤和工作流程,如果您要想学习怎样使用Battery Historian分析耗电详情,请参考文档: Analyze power use with Battery Historian。 Batterystats是一个Android framework中的工具&…

APP-耗电量测试-battery-historian-master

这里主要是比较简单的Battery historian的操作,这个脚本文件只能用在python2版本,python3会语法报错 1.首先要下载并且解压historian的压缩包文件 battery-historian-master.zip Github下载地址 2.然后用adb命令开始操作手机 首先是清除测试前电量的数据 adb she…