OpenAI CEO亮相“AI春晚”,与张宏江隔空问答:10年内会有超强AI

fe8e781b0890ea6f37fe4fe535678f3d.png

《AI未来指北》栏目由腾讯新闻推出,邀约全球业内专家、创业者、投资人,探讨AI领域的技术发展、商业模式、应用场景、及治理挑战。

文 / 腾讯科技 苏扬 、郝博阳

凭借ChatGPT走红的OpenAI,成为行业争相追逐的对象,刚刚,第三方机构宣布其月活突破10亿大关,跻身全球网站TOP20榜单。

作为OpenAI的联合创始人、CEO,萨姆·奥特曼(Sam Altman)也被誉为硅谷新一代创业明星领袖和人工智能领域的布道师,持续不断地在公开场合对外输出关于人工智能发展路径、监管等一系列问题的认知和思考。

6月10日,萨姆·奥特曼出席被称之为中国“AI春晚”的2023年智源大会,线上发表主题演讲,并与智源研究院理事长张宏江隔空问答,交流关于AGI的未来、GPT-5、开源大模型等话题。

a03da36567fda06d00b09f2edc756196.jpeg

演讲中,萨姆·奥特曼用了超长篇幅来强调全球AI安全对齐与监管的必要性,甚至应用《道德经》里的名句——”千里之行始于足下“来呼吁加快推进全球合作。

萨姆·奥特曼认为,人工智能爆发式增长的背景下,未来10年就可能会出现超强AI,呼吁全球共同监管,并且在相关的研究部署上对齐,建立全球信任,而萨姆·奥特曼之所以持续呼吁协同监管,一方面是因为AI全球大爆发,另一方面则是因为”最小化风险“的理念。

此前,萨姆·奥特曼在播客节目中,以非常低的姿态来介绍GPT-4这款被全行业所追逐的大模型,“GPT-4是一个人类在未来会回看的AI系统,它还处于发展早期,运行缓慢且有错误,很多事情做得不够好,需要几十年的演变。”

对于大模型在实际应用场景中可能存在的错误,萨姆·奥特曼的看法是“希望在风险较低的时候犯错”,然后通过迭代来让其变得更好,以此来阐释OpenAI的人工智能迭代理念。

另外,在演讲中,萨姆·奥特曼还积极评价了中国在人工智能安全对齐上的意义,他表示”中国拥有世界上最优秀的人才,而解决人工智能系统对齐的困难,需要来自世界各地的人才。“

演讲之后的问答环节,在被张宏江问及距离通用人工智能(AGI)时代还有多远时,萨姆·奥特曼表示,“未来10年内会有超强AI系统诞生,但很难预估具体的时间点”,他也强调,“新技术彻底改变世界的速度远超想象。”

提及超强AI,此前未来生命研究所曾发起呼吁“暂停GPT-4以上大模型研发6个月”的公开信,OpenAI在这块的动作,包括后续GPT-5的规划一直是业内关注的焦点,今天的线上问答环节,在被张宏江问及了AGI的未来,以及是否会很快看到GPT-5时,萨姆·奥特曼称自己也不确定,但明确表示GPT-5的诞生,”不会很快“。

关于OpenAI是否会提供开源大模型时,萨姆·奥特曼称”会有很多开源大模型“,但同样没有具体的时间表。

1、划重点

  • 千里之行始于足下,现在就要与国际科技界合作,推动增加AGI安全技术进展的透明度;鼓励推动国际合作,同时尊重和保护知识产权,推动并引导与安全研究一致的投资;

  • 目前很难判断AGI这种级别人工智能是否会损害人类,希望AI协助人类监督AI,并增加模型的可解释性;关于AI系统的对齐,最重要的是如何获得安全的AI;

  • 未来10年会有超强AI诞生,没有具体时间表,新技术彻底改变世界的速度超乎想象;

  • 中国拥有许多世界上最优秀的AI系统,但数量太多也增加了解决问题的难度;

  • OpenAI已经开放了一些模型源代码,未来陆续还会开放更多的模型;

2、以下为演讲及问答实录(有删减)

  • 萨姆·奥特曼演讲部分

我最近在做全球巡回的访问,期间穿越五大洲近20个国家,接触了诸多的学生、开发者,这趟出行令人振奋,我们见证了全球各地的人们利用OpenAI的新技术来改变生活方式,我们也获得了非常宝贵的意见,以便于让我们的工具优化得更好。此外,我也有机会拜访了多位外国领导人,讨论确保越来越强大的人工智能系统安全部署所需的各种基础工作。

坦白说,世界的注意力主要集中在解决当今的人工智能问题上,很多问题的解决非常迫切,我们还有很多工作要做,不过鉴于我们已经取得的进展,我相信我们会实现目标。

今天,我想谈谈未来。具体来说,我们正在看到人工智能能力的迅速增长,现在需要做的是负责任地将其应用到世界中去。科学的历史告诉我们,技术进步遵循指数曲线。这在农业、工业和计算革命中得到了验证。现在,我们亲眼目睹人工智能变革,不仅因为我们正在见证它,而且因为它带来的变革速度。

它正在迅速拓展人类的想象力。想象一下,在未来十年,人工通用智能系统(常称为AGI)将会超过90年代初,人类所具备的专业水平,这些系统最终可能超过人类最大体量公司的总体生产力,这里的潜在收益是巨大的。

人工智能革命将带来可共享的财富,使改善人类互动标准成为可能,但我们必须管理好风险,并共同努力来实现预期目标。我时常感觉一些人放弃他们应有的权益来实现人类共同的目标,在今天很多领域仍然如此——大国之间经常通过合作的方式来实现共同目标,这种形式的合作对关键的医学和科学进展都会带来好处,比如根除小儿麻痹症和天花等疾病,以及全球减少气候变化风险的努力。

随着越来越强大的人工智能系统的出现,全球合作的利益变得前所未有地重要。如果我们不做好规划,一个设计用于改善公共卫生结果的未对齐的AI系统,可能会通过提供不平衡的建议来破坏整个集体系统。同样,一个旨在优化农业实践的人工智能系统可能会无意中损害经济和资源的消耗,缺乏对长期可持续性的考虑,从而影响食物生产和环境平衡。我希望我们都能认同,推进AGI安全是我们寻找共同立场的最重要领域之一,我希望把时间都集中在我们已经开始的领域。

其中一个领域是AGI治理。AGI的力量可以从根本上改变我们的文明,这突显了有意义的国际合作、协调的必要性,每个人都会从积极的治理方法中受益。如果我们将这个核心的最先进政策网络化,AGI系统可以为全球经济创造无与伦比的经济丰富,解决共同的挑战,如气候变化、全球健康安全,并在无数其他方面提升社会福祉。我深信这也是未来,我们深处同一个星球,需要明确投资AGI的安全性的意义。

我们必须为鲁莽的开发和部署可能引发的问题负起责任,其中最重要的两个领域是:首先,我们需要建立起包容的国际准则和标准,并在所有国家对AGI的使用中建立平等、统一的防护措施。其次,我们需要国际合作,以可验证的方式在全球范围内建立对越来越强大的AGI系统安全开发的信任,我知道这并不容易。

作为国际社会,我们需要对安全进行长期的关注和投入,以确保我们做得正确。《道德经》提醒我们,“千里之行,始于足下”,最有建设性的第一步是与国际科技界展开合作,推动增加AGI安全技术进展的透明度和知识的机制,发现紧急问题的研究人员应该与更多人共享研究成果。

我们需要更加深入地思考如何在鼓励推动国际合作的同时尊重和保护知识产权。如果我们做得好,这将为我们打开深化合作的新大门。更广泛地说,我们应该推动并引导与安全研究一致的投资。

当前,我们关注的是如何使AI系统成为一个有益和安全的助手,这对应的是如何训练模型,使其在没有安全威胁的前提下发挥积极作用,不过,随着AGI时代的接近,其带来的潜在影响、问题将呈指数级增长,所以,我们需要通过主动应对AGI带来的潜在挑战,将未来灾难性后果的风险降至最低。

从GPT-4完成预训练到部署,我们花了八个月的时间来研究这个如何前置预判风险并给出对策的问题,我们认为我们走在了正确的道路上,GPT-4的对齐程度超过当前所有的代码。不过,对于更高级的系统,对齐仍然是一个尚未解决的问题,我们认为需要新的技术方法以及加强治理监督,毕竟未来的AGI,可能是一个十万行二进制代码的系统。

人类监督者很难判断如此规模的模型是否在做一些损害的事情。因此,我们正在投资于几个新的,并且希望能取得成果的方向,其中之一是可扩展的监督,尝试使用AI系统来协助人类监督其他AI系统。例如,我们可以训练一个模型来帮助人类监督员找出其他模型代码中的缺陷。

第二个方向是可解释性。我们希望更好地理解模型内部发生的事情,我们最近发表了一篇论文,使用GPT-4来解释计算机的复杂状态。虽然还有很长的路要走,但我们相信先进的机器学习技术可以进一步提高我们解释的能力。

最终,我们的目标是训练AI系统具备更好地优化自身的能力,这种方法的一个有前景的方面在于——它可以与AI的发展速度相适应。随着未来的模型变得越来越智能和强大,作为助手,我们将找到更好的学习技术,在充分发挥AI的非凡好处的同时降低风险。

我们认为,美国、中国乃至世界各地的研究人员,在应对AI领域的技术挑战上的合作,存在巨大潜力,想象人类可以利用AI来解决世界上最重要的问题,大幅改善生存条件和质量。

  • 萨姆·奥特曼与张宏江问答部分

张宏江:

您提到了正在和欧盟以及其他AI领域沟通全球治理,现在进展如何?我们距离AGI时代还有多远,有没有什么可以证明距离这一天还很遥远?假设我们发现了安全的人工智能,是否意味着也找到了不安全的人工智能?

萨姆·奥特曼:

这很难预测,仍然需要不断地研究才能提供结论,并且这条路不会一帆风顺,但AGI可能很快就会发生,但在未来的10年内,我们可能会拥超强的AI系统。

在那种情况下,全球监管就非常的紧迫,而且历史上也出现过很多新技术改变世界的相关的案例,现在这种改变速度正变得更快,考虑到这种紧迫性,我认为准备好迎接这一切并就安全问题作出正确回答非常重要。

张宏江:

所以,您觉得这(正确回答安全相关的问题)是我们的优先事项?

萨姆·奥特曼:

我想强调的是,我们并不确切知道(未来可能会如何),尤其是现在对人工智能的定义存在差异,但我认为在10年内,我们应该为一个拥有超强AI系统的世界做好准备。

张宏江:

您提到,OpenAI是一个致力于全球合作的机构,你们正在推动的全球合作有哪些,获得了哪些回应,有什么感受?

萨姆·奥特曼:

我认为人们非常重视AGI的风险和机遇。在过去的六个月里,相关讨论已经发生了很大变化。人们似乎真心致力于找到一种机制,既能让我们享受这些好处,又能在全球范围内共同努力减轻风险,我认为我们在这方面做的不错。

全球合作始终是困难的,但我认为这种机遇和威胁确实能够让世界走到一起,我们可以为这些系统制定一个框架和安全标准,这非常有帮助。

张宏江:

在之前有没有的成功的案例,您能举个例子吗?

萨姆·奥特曼: 

我们已经消除了一些全球合作的障碍。我们已经解决了技术上的困难,例如真实世界交易的问题。有很多例子可以说明我们已经有所突破。

张宏江:

您提到了先进AI系统的对齐问题,我也注意到在过去几年中,许多AI系统都付出了很多努力来优化其对齐性能,我们可以在近些年里完成对AI安全的研究吗?

萨姆·奥特曼:

我认为“对齐”这个词在不同的方式中被使用。我认为我们需要解决整个挑战,即能够安全地访问系统意味着什么。从传统意义上讲,让模型按照用户意图进行沟通的对齐是其中的一部分。还会有其他问题,例如我们如何验证系统正在按照我们的意愿行事,以及我们将系统与哪些价值观对齐。我认为重要的是全面考虑如何获得安全的AI。

我认为对齐工作还在不断演变中。我们将纳入市场上已有的工作模式。很多这些技术仍处于纸面之上,但是我们需要超越技术的其他因素。这是一个复杂的问题。AI安全是最新的技术。因此,技术方面的创新是我们需要考虑的因素之一。我们需要思考关键的AI安全问题。我们如何应对这些挑战?就像我们大多数人都是科学家一样去思考。我们为什么要做这个?这是一个非常复杂的问题。我认为,为了确保我们解决了技术方面的安全问题,需要投入大量精力。

正如我之前提到的,确定我们要与之保持一致的价值观并不是一个技术问题。我们确实需要技术的参与,但这更是一个值得全社会深入讨论的问题。我们必须设计出公平的、有代表性和包容性的系统。正如您所指出的,我们不仅需要考虑AI模型本身的安全性,还需要考虑整个系统的安全性。因此,我们需要构建安全的分类器和检测器,以监测符合用户政策的情况。这一点很重要。

此外,我认为很难预测和预先解决任何技术可能出现的问题。因此,通过从实际使用中学习并快速部署数据,观察在一个国家中会发生什么,并给人们提供时间来学习、更新和思考这些模型将如何影响他们的生活,这也非常重要。

张宏江: 

中国、美国和欧洲是推动人工智能和创新的三个主要力量。您认为国际合作解决人工智能需求和决策方面的优势有哪些?这些优势如何结合起来产生影响?

萨姆·奥特曼:

我认为在人工智能安全性方面,普遍存在着需要许多不同观点的情况。我们还没有所有的答案,解决这个问题非常困难且重要。正如我提到的,这不仅仅是一个技术问题。使人工智能变得安全这件事受益于了解不同国家和不同背景下用户的偏好。因此,我们需要许多不同的观念来实现这一目标。中国拥有世界上一些最优秀的AI系统,从根本上讲,我认为这使研究人员在解决许多不同的AI系统的问题上面临困难。中国是世界上最好的地方,我真诚希望中国和美国的研究人员能对此做出巨大贡献。

张宏江:

您能分享一些在这方面取得的成就吗?在这项工作中,您的计划或想法是什么?

萨姆·奥特曼:

我认为一个重要的进展是人们开始对如何安全开发先进AI系统的国际标准感到兴奋了。我们希望在训练广泛模型并在其部署之前,思考应该进行什么样的测试。我们还就构建反映人们目标、价值观和实践的数据库进行了新的讨论,人们可以利用这些数据库来使他们的系统与之对齐,并探讨了开展共享AI安全性研究的形式问题。所以,这些可能是目前出现的三个最具体的事情。

张宏江:

我在这里有一个很棒的问题,来自观众——您是否打算重新开放GPT的源代码,就像在3.0之前一样?

萨姆·奥特曼:

关于源代码,我不太清楚,但可以确认一下。我们开源了一些模型,而其他模型则不开源,但随着时间的推移,我认为我们可以期望开源的模型会更多,我没有具体的模型或时间表,但这是我们正在努力的事情我不确定您是否听说过,但是我主持了一个开源机构,我们在开放源代码方面付出了很多努力,包括模型。

我将采用一种算法来开发模型,并引入新的Python模型和A-15模型。我们相信需要倾听并理解听众的反馈。所以,如果您明天对此有类似的见解,是否有什么可以去讨论以回应两位现在正在谈论的同事之间的担忧?是的,我的意思是,开源确实起着重要的作用。

开源模型的发展已经相当多了。我认为A-15模型也起着重要的作用,它为我们提供了额外的安全控制。您可以阻止某些用户,可以阻止某些类型的微调。这是一个重要的回归点。就目前模型的规模而言,我对此并不太担心,但随着模型变得越来越大,确保正确性可能会变得昂贵。我认为开源一切可能不是最优的路径,尽管这确实是正确的路径。我认为我们只需小心地朝着这些节点前进。

张宏江:

是的,我认为开源模型确实有优势。总结一下我所说的,无论是GPT-4还是开源的模型及简化性AI,我们有没有可能需要改变整个基础设施或者模型的架构,使其像GPT-2一样简单?对此您有何想法?从能力和安全性的角度来看,我们可能确实需要一些非常不同的架构。

萨姆·奥特曼:

我认为我们将在这个能力上取得一些良好的进展,但在当前的模型类型中他们展现的效果更好,这是一个原因。但是,如果在10年后出现另一个巨大的飞跃,我也不会感到惊讶。我不记得很多年间有什么东西真正改变了的架构。另外,作为一名研究人员,我相信在座的许多人都会有这种好奇心,就是关于大模型和大容量模型的人工智能用户体验方面的下一步发展方向。我们是否会很快落后于增长曲线,或者下一个前沿是具有体现能力的模型,或者自主机器人是人工智能所关注的下一个前沿?我也非常好奇接下来会发生什么。我最喜欢做这项工作的事情就是能够处在研究的前沿,这是令人兴奋和惊喜的,我们还没有答案。因此,我们正在探索许多关于接下来可能出现什么、可能的新领域的想法。

当然,并不是说我们现在就能在序列中找到新的抗衰老模型,而是不用过于担心具体的时间点。我们在刚开始的时候就做过机器人方面的工作,并且我们对此非常兴奋,也经历了困难。我希望有一天我们能够回到这个话题。

张宏江: 

您还提到您正在研究如何制作更安全的模型,特别是使用CT4数据,在CT6的神经元有这个数据。这个工作在这个方向上是否有效?您是否能够在未来(用这种方法)推进人工智能领域?

我们将继续在这方面努力。所以,如果我认为我们会考虑到这一点,它是否具有可扩展性?因为我在向一群生物学科学家提问,他们专注于人类的学习。他们想借鉴这些思想并从中学习,以研究人类在工作中的表现。观察人工神经元比观察生物神经元更容易。

萨姆·奥特曼: 

我认为这对人工神经网络是可行的。我认为使用更强大的模型或使用类似其他(生物)模型的模型的方法是可行的。但我不太确定如何将其应用于人脑。另外,我们正在讨论人工智能安全和API控制的话题。我们刚才在辩论,如果我们只有三个模型,那么我们会更安全。这就像一个核计划。您不希望(每个人)拥有核武器。因此,当我在控制模型数量时,如果控制不了接触模型和数据的人数的话是不安全的。

那么,我们是要控制模型的数量吗?从人类的角度来看,无论是拥有少量模型还是大量模型,都不能让我们更安全。更重要的是,我们是否有一种机制,确保任何柯林斯模型都需要经过足够的安全测试。我们是否有一个框架,让那些创建了完备柯林斯模型的人具备足够的资源和责任心,确保他们创造的东西是安全可靠的?来自麻省理工学院的教授Max是莱布尼兹研究所的一位教师,他提到了一种方法,但他认为这个方法不够具体。

从一个角度来看,我们可以研究如何控制隐私的泄露。如果您丢失了一封电子邮件,您仍然可以获取一份副本。在这个过程中您无法证明它是怎么获取到的。如果那家公司可以借用您的资料,那这将产生重大影响。我认为有一些行业正在发展不同的许可框架,将新技术引入市场,我认为我们应该借鉴它们。但我认为从根本上说,我们有着很好的购买数据的历史。

张宏江:

最后一个问题,您对人工智能社区的设想是什么,以及在这个方向上可能具有很大推动力的因素是什么?

萨姆·奥特曼:

在过去我说过:是什么推动您如此高度地激励去从事人工智能安全性工作?对我而言,没有比安全性工作更令人兴奋、活力四溢、充实且重要的事情了。我坚信,如果您个人对一项重要的倡议非常认可,您将会有无穷的力量去解决它。这对我们团队来说确实如此。当我们刚开始的时侯,我觉得成功的概率会非常低。但如果我们能够找出如何构建人工智能,那它肯定会产生巨大变革。我们必须进行安全方面的工作对吧?这就是其中的一部分。但您不能阻止AI的发展。

- 点击查看原文 观看大会回放 -

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/12535.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

诸神之战!一文盘点中国“大模型”玩家们

开年以来,全球 AI 大模型行业,鲜花着锦,比肩继踵。微软、Google、Meta、百度等科技巨头你追我赶,掀开了大模型“军备竞赛”时代的序幕。新的挑战者入局,大模型概念不断走高,众多 AI 企业纷纷宣告进军&#…

Chat的提问工程师,要上线了你慌不慌?

一、什么是Prompt? (1)Prompt的概念 我们在使用GPT的时候,给GPT发送的消息就是Prompt. 例如,当我们问ChatGPT"WPS是什么软件?"时: 其中,"WPS是什么软件?"这句话就是Prompt. (2)为什么要学习Prompt? Prompt是我们和GPT交流的方式,我们需要让GPT了解…

前端已死?全栈当立?取法于中,仅得其下。

开篇明义,前端已死?根本就是扯淡。前端技术精微渊深,驳杂宽广,除了基础的 HTML、CSS 和 JavaScript 技术外,前端技术还涉及到许多其他相关技术和工具,比如前端框架、UI 库、自动化构建工具、代码管理工具等…

我发现ChatGPT的一个规律,只要向他确认它就可能否定自己先前的回答

今年以来ChatGPT火爆了,我也经常使用它来做一些文案优化,很多时候确实挺聪明的。 例如: 我的问题:玉皇大帝住平流层还是对流层 它的回答:玉皇大帝是道教中的神明,关于他的居住地在道教经典中并没有明确的…

985本科生虽然水,但学历还是很管用!

原文链接: https://www.zhihu.com/question/354234322 01 前言 最近网上有个话题比较有争议:「为什么有些 985、211 的本科学生即使在大学里混得很水,在找工作时学历却那么管用?」考上了重点大学,就真的能够高枕无忧了…

Stable Diffusion云端部署只需三步, 不吃电脑配置, 模型快速部署

牙叔教程 简单易懂 我是小白, 小白跟我一步一步做就可以了, 鼠标点两下就OK了, 学点新东西, 好吗? 不想学的就走吧, 离我远点. Stable Diffusion是什么 Stable diffusion是一个基于Latent Diffusion Models(潜在扩散模型,LDMs)的文图生成…

ChatGLM-6B的P-Tuning微调详细步骤及结果验证

文章目录 1. ChatGLM-6B 1.1 P-Tuning v2简介 2. 运行环境 2.1 项目准备 3.数据准备4.使用P-Tuning v2对ChatGLM-6B微调5. 模型评估6. 利用微调后的模型进行验证 6.1 微调后的模型6.2 原始ChatGLM-6B模型6.3 结果对比 1. ChatGLM-6B ChatGLM-6B仓库地址:https://g…

源码中常见的 where 1=1 是一种高级优化技巧?

你是否曾在 SELECT 查询中看到过 WHERE 11 条件。我在许多不同的查询和许多 SQL 引擎中都有看过。这条件显然意味着 WHERE TRUE,所以它只是返回与没有 WHERE 子句时相同的查询结果。此外,由于查询优化器几乎肯定会删除它,因此对查询执行时间没…

启动您的 MySQL 查询:ChatGPT 如何帮助您检索 MySQL 数据

本文涉及到的相关软件,dbForge Studio for MySQL和ChatGPT,在您尝操作前,请务必先确保两个程序都正常运作哦,废话不多说,开始上干货! Devart 提供包括Oracle、SQL Server、MySQL、PostgreSQL、InterBase以及Firebird在…

ChatGPT与深度学习的完美融合:打造智能化推荐系统新时代

PNN | AutoRec | 推荐算法 NFM | ChatGPT | 深度学习 新技术如ChatGPT、LLM、AIGC等的兴起,使推荐系统拥有更强的学习和预测能力。然而,推荐算法仍然是深度学习推荐系统中不可或缺的关键技术。推荐算法和这些技术应相辅相成,相互补充。推荐…

为什么有些 985 的本科学生即使在大学里混得很水,在找工作时学历却那么管用?...

大家好,我是老赵 最近网上有个话题比较有争议:「为什么有些 985、211 的本科学生即使在大学里混得很水,在找工作时学历却那么管用?」考上了重点大学,就真的能够高枕无忧了吗?让我们一起来了解一下吧。 我做…

如何使用租用的云服务器实现神经网络训练过程(超详细教程,新手小白适用)

超级感谢up主7_xun的B站教学视频:适合深度学习小白的CV实战——在AutoDL上租用云服务器跑YOLOv5的全过程 链接:https://www.bilibili.com/video/BV1jA4y1o7Ph/?spm_id_from333.1007.top_right_bar_window_history.content.click&vd_sourcee482aea0f…

FBEC大会 | 全球元宇宙CEO峰会演讲干货汇总

2023年2月24日,由广东省游戏产业协会、深圳市互联网文化市场协会指导,陀螺科技主办的FBEC未来商业生态链接大会,在深圳福田大中华喜来登酒店6楼宴会厅盛大召开! FBEC大会以“勇毅前行逐光而上”为主题,以具有行业前瞻洞…

GPT-4老板称害怕ChatGPT/ 李彦宏:文心一言符合预期/ 马斯克欠账不还…今日更多新鲜事在此...

日报君 发自 凹非寺量子位 | 公众号 QbitAI 大家好,今天是3月20日星期一,又是元气满满的一周。 经历了上一周GPT-4带来的疯狂,科技圈又发生了哪些新鲜事,一起来和日报君看看~ 李彦宏回应外界对文心一言反馈 这两天&…

芯片架构标准首次由中国企业牵头/ 周鸿祎建议大学生做AI训练师/ 港科大不禁ChatGPT…今日更多新鲜事在此...

日报君 发自 凹非寺量子位 | 公众号 QbitAI 工作日最后一天,明天就能尽情嗨皮了~ 今天科技圈都有哪些大事,一起来和日报君康康吧。 周鸿祎称大学生可做人工智能训练师 训练AI,在数据知识标注方面还有所欠缺? 周鸿祎直接…

ChatGPT吸走谷歌人才,谷歌云CEO:AI新游戏刚开场,莫慌

鱼羊 发自 凹非寺量子位 | 公众号 QbitAI ChatGPT搜索被微软抢先一步,内部AI人才又被OpenAI频繁挖角。 最近的谷歌,着实有些内忧外患。 最新曝出的信息是,谷歌的高管们,正在努力安抚员工们不安的情绪。 据Insider消息,…

寻找中国版ChatGPT,量子位邀你共同参与中国AIGC产业峰会

组委会 发自 凹非寺量子位 | 公众号 QbitAI ChatGPT一声枪响,AIGC直接起飞,晋升科技圈最热话题。 问题和争论随之而来: 谁能做出中国版ChatGPT? AIGC是概念炒作,还是真正的「互联网诞生时刻」? …… 机遇与…

总价61亿,“ChatGPT之父”即将收获一个核能公司IPO|钛媒体焦点

OpenAI CEO奥特曼(Sam Altman) ▎“20世纪是碳基能源的世纪。我相信22世纪将是原子能(核能)的世纪”,OpenAI CEO奥特曼表示。 作者|林志佳 编辑|李小年 本文首发于钛媒体APP “ChatGPT之父”、O…

ChatGPT之父:OpenAI不会很快上市 因为会限制我的决策权

雷递网 乐天 6月7日 随着ChatGPT的走红,人工智能企业OpenAI及ChatGPT之父、CEO Sam Altman也炙手可热,公司何时上市,也成为外界关注点。 据外媒披露,Sam Altman参加一场活动时表示,OpenAI不会很快走向资本市场&#xf…

ChatGPT之父提新版摩尔定律!宇宙智能数量每18个月翻一番

来源:新智元 本文约2200字,建议阅读5分钟ChatGPT之父Sam Altman提出了新版摩尔定律,即宇宙中的智能数量每18个月翻一番。 [ 导读 ] 一直以来,半导体行业有自己的摩尔定律。近期,ChatGPT之父Sam Altman提出了新版摩尔定…