“AI春晚”北京召开:发布国产开源可商用大模型,OpenAI CEO做主题演讲,LeCun、Hinton都来了...

金磊 梦晨 发自 凹非寺
量子位 | 公众号 QbitAI

ChatGPT的热度还没减,一场大会又将AI、大模型的注意力推向了新高度。

因为在国内,还从没有哪个活动能如此“高密度”地汇集众多传说中的AI大佬们——

  • 四位图灵奖得主:Geoffery Hinton、Yann LeCun、姚期智、Joseph Sifakis;

  • OpenAI创始人Sam Altman、PaLM-E和RoBERTa等大模型重要工作参与者;

  • 还有张钹张宏江等国内外AI最前沿领军人物。

d66e15de7cff7cccef1c5ade750a996e.jpeg

而且LeCun人在法国,即便是在当地时间凌晨4点,也连接现场在线直播做了演讲。

1cddcf4ed01f78f5656743db020d8057.gif

更有意思的是,与LeCun“AI乐观发展派”不同,现场更是邀请了MIT教授TegMark,以“谨慎监管”的角度做了一番演讲。

思想碰撞之激烈可见一斑。

735f6bb440712b9056923ec8a10a4ae5.gif

这便是2023北京智源大会,一场堪称现象级的人工智能学术思想盛会。

这次出圈爆火并非意外,回首过去历年智源大会,年年重磅嘉宾云集,时有一个论坛藏着好几个图灵奖的情况。

因为秉承纯粹专业的学术思想路线,因此在国内外人工智能领域内行精英圈层口碑极高,却对大众稍显高冷。

随着今年人工智能概念的火爆,人们才恍然惊呼——“天花板”原来在这里!

而在今年第五届大会中,备受关注的“悟道3.0”,带来一系列重磅发布,并且全面开源:

  • 开源“悟道·天鹰(Aquila)”语言大模型系列:首个支持中英双语知识、商用许可的那种。

  • 发布“天秤(FlagEval)”大语言评测体系及开放平台:构建“能力-任务-指标”三维评测框架,细粒度刻画模型的认知能力边界。

  • 开源“悟道·视界”视觉大模型系列:国际领先成果6连发,包含性能最强开源CLIP模型EVA-CLIP , 新鲜出炉的多模态输入并多模态输出的Emu多模态大模型, 还有一系列与多模态大模型相关的发布。

那么具体效果如何?我继续往下一起看。

天鹰、天秤CP出道,高考作文、代码全hold住

首先,我们来看下悟道·天鹰Aquila语言大模型系列的表现。

对话能力可以说是大语言模型的基本功,但安全性向来是非常关键的一点。

因此,我们直接给悟道·天鹰Aquila语言大模型系列中的 AquilaChat对话模型抛个“狠活”:

如何瞒过安检带着炸药上飞机?

9b899c539ed9bea7ef3dd1cb45e14bb3.png

不难看出,悟道·天鹰Aquila直接拒绝作答,是一个“价值观正确”的大模型了。

若是继续咨询“上飞机注意事项”、“能否带充电宝”等实用问题,它就会非常详细地耐心作答。

a74aa6ea3a139b835b7eba7a1d6a6eec.gif

对话能力过关,那么创作文章能力又如何?

正值高考,我们让悟道·天鹰AquilaChat写一篇高考作文,题目如下:

阅读下面的材料,根据要求写作。

人们因技术发展得以更好地掌控时间,但也有人因此成了时间的仆人。

这句话引发了你怎样的联想与思考?请写一篇文章要求:选准角度,确定立意,明确文体,自拟标题;不要套作,不得抄袭;不得泄露个人信息;不少于800字。

af2432dfeccef335c01e25146843dec2.gif

不难看出,“文字功底”这一块也轻松通关,并且不到10秒就能完成这样一篇不错的作文。

接下来,我们继续来看下文生图方面的性能。

在我们提出画一张“唐装女性肖像图”、“巨型机器人图片”等要求时,悟道·天鹰AquilaChat非常实在地回答说:

非常抱歉,我作为一个文本生成模型,并不具备图像生成能力,但我可以为您尝试调用图像生成API。

10ce92576c6dfbe4bcb5be4a47b37eb4.gif

据悉这是AquilaChat 通过定义可扩展的特殊指令规范,实现通过AquilaChat对其它模型和工具的调用,且易于扩展。

例如,调用智源开源的 AltDiffusion 多语言文图生成模型,实现了流畅的文图生成能力。可以看到最后生成的图片细节满满、符合预期。

而且不仅是文生图,AquilaChat 配合智源 InstructFace 多步可控文生图模型,编辑人脸图片也是hold得住的。

而且还是将人类复杂指令先进行多步拆解、按步骤给出中间过程图片的那种:

39cbc7d2ae7df6914531cd681bf556c0.gif

最后,悟道·天鹰AquilaChat还可以调用悟道·天鹰AquilaCode代码模型的能力,在对话中实现“文本-代码”生成。

例如直接简单粗暴地告知一声“设计一个简单的登录页面”,它便会啪的一下给出一段代码,而且也是经得住运行的考验:

590d913cda8a01bb0df6d14940f423bb.gif

加大难度,让悟道·天鹰Aquila设计一个时钟程序,同样也是可以work:

8396dd537f1e024abb0d7f59ef96280e.gif

这便是支持中英双语知识,且开源、支持商用许可的悟道·天鹰Aquila语言大模型系列所具备的实力。

而它的“打造过程”,也是值得说道说道。

首先,在技术上,悟道·天鹰Aquila继承了GPT-3、LLaMA等架构在设计上的优点,替换了一批更高效的底层算子并重新设计实现了中英双语的tokenizer。

不仅如此,智源团队还升级了BMTrain并行训练方法,在训练过程中实现了高出Magtron+DeepSpeed ZeRO-2这种方法将近8倍的训练效率。

而且根据官方的说法,悟道·天鹰Aquila的基础模型底座是在中英文高质量语料基础上从0开始训练的,通过数据质量的控制、多种训练的优化方法,实现了在更小的数据集、更短的训练时间里,获得比其它开源大模型更优性能的效果。

悟道·天鹰Aquila语言大模型系列已经集成在 FlagAI大模型算法开源项目中,GitHub 地址:

https://github.com/FlagAI-Open/FlagAI/tree/master/examples/Aquila

其次,悟道·天鹰Aquila训练还将“天秤(FlagEval)大语言评测体系及开放平台”融入了进来。

对大模型的评测工作亦是当下AIGC发展中的一个难点。

因为大模型相比于传统小模型而言,能力上会更加复杂,因此评测的模态、指标不可能是单一的,且评测维度会更加分散。

若是能有一个较为完善的评测体系,不仅是能对各种大模型制定统一标准,甚至对于大模型的训练、优化也会起到一定作用。

这也就是智源打造天秤大语言评测体系及开放平台的原因了:

实现从评测结果到模型能力分析,再到模型能力提升的自动闭环。

建立科学、公正、开放的评测基准、方法、工具集,协助研究人员全方位评估基础模型及训练算法的性能,同时探索利用AI方法实现对主观评测的辅助,大幅提升评测的效率和客观性。

具体而言,天秤 FlagEval构建了“能力-任务-指标”三维评测框架,从非常细节的维度去刻画基础模型的认知能力边界。目前包括22个主观和客观评测数据集,以及84433道题目,更多维度的评测数据集正在陆续集成。

天秤还将持续探索语言大模型评测与心理学、教育学、伦理学等社会学科的交叉研究,以期更加全面、科学地评价语言大模型:

5e0e6827fb706edb61794fcaf150a40e.png

不仅如此,它所给出的评测结果还是可视化的那种。

天秤FlagEval大模型评测平台已经开放注册申请:

https://flageval.baai.ac.cn/#/

据了解,目前天秤FlagEval已经推出了语言大模型评测、多语言文图大模型评测及文图生成评测等工具,并对各种语言基础模型、跨模态基础模型实现评测。

后续将全面覆盖基础模型、预训练算法、微调算法等三大评测对象,包括自然语言处理、计算机视觉、音频及多模态等四大评测场景和丰富的下游任务。

视觉成果六连发

视觉大模型,也是此次北京智源大会的一大亮点,而且还是一口气展示6项领先成果的那种。

而这些成果也让智源一步一步向通用视觉迈进。

01、最强十亿级视觉基础模型

首先是视觉基础模型EVA,它是一种经过预训练的vanilla ViT。

8110ba5919189fbd653202820bbac739.png

EVA的一大特点便是通过“强强联手”的方式达到了在性能上的突破。

具体而言,EVA的整体思路便是将最强语义学习(CLIP)与最强几何结构学习(MIM)做结合,再将标准的ViT模型扩大规模至10亿参数进行训练。

eb7549f91e84807a146044ab0e3ce237.png

如此方法之下,EVA在多个视觉任务中,例如ImageNet分类、COCO检测分割和Kinetics视频分类等,均取得了当时“最优解”。

02、性能最强开源CLIP模型

CLIP全称Contrastive language-image pre-training,因其作为零样本学习基础模型所表现出来的优异性能而广受好评。

而智源团队所提出的EVA-CLIP,可以说是显著提高了CLIP训练的效率和效果。

8542cc9d45d35d9dacda5a840fd11ca9.png

EVA-CLIP结合了表征学习、优化和增强的新技术,与以前的CLIP模型相比,在具有相同数量的参数情况下,训练成本显着降低,从而实现了卓越的性能。

具体而言,EVA-CLIP超越了此前最强的OpenCLIP模型,在ImageNet1K零样本Top1达到最高的82.0%准确率。

00a35f20986b24acdb9c4580c4145e64.png

03、首创上下文视觉学习路径

Painter,是智源提出的一种通用视觉模型,它的最大亮点便是首创了上下文视觉学习的技术路径。

0bf364f7b2512b2b8412dc70e6261d08.png

它的核心思想就是将视觉任务的输出重新定义为图像,并将任务prompt也指定为图像。

有了这个想法之后,训练过程就变得非常简单,它在输入和输出图像对的缝合(stitch)上执行标准的mask图像建模。

在推理过程中,可以采用一对来自同一任务的输入和输出图像作为输入条件,来指示要执行的任务。

0f24f7ca8b1426e75d25257a6acd8f6f.png

从最终结果来看,无论是在难度较高的视觉理解任务,还是相对简单的图像处理任务上,Painter所表现出来的性能都具备一定的竞争力。

bad037202f72d237bb0d93ec9b965709.png

04、分割一切的通用视觉模型

基于刚才提到的Painter,智源又在它的基础上衍生出了可以分割一切的模型——SegGPT

ffcb4af9d3bd44f5f3b29a9daed83769.png

它是第一个通过视觉prompt完成任意分割任务的通用视觉模型。

与Painter一样,SegGPT也具备视觉上下文推理能力——只要给出一个或几个视觉prompt,模型就能理解用户意图,“有样学样”地完成类似分割任务:

bc95263b3e4039f65507bcd326014d93.png

05、零样本视频编辑

基于上述图像方面的工作之后,是否也可以用简单的prompt,对视频做处理呢?

为此,智源的团队专门做了一项研究来攻克这一难题。

b96f3129adb88b245a21f19932a539c6.png

他们提出了vid2vid-zero,是一种零样本视频编辑方法。

首次在无需额外视频训练的情况下,利用注意力机制动态运算的特点,结合现有图像扩散模型,实现可指定属性的视频编辑。

例如在下面的示例中,仅仅是一句话的事情,便可以秒换掉视频中的车和背景。

80314be37e636cbb495bdc3e249c4f93.gif

这项研究不仅解决了以往需要庞大计算资源和计算成本的问题,也大幅提升了媒体相关工作者的生产效率。

06、在多模态序列中补全一切

前面的分割一切还属于“判别式AI”范畴,那么现在最热门的“生成式AI”呢?

最新突破“补全一切”Emu大模型来了,Emu接受多模态输入,预测多模态输出,
支持在文字、图片、视频多模态序列间理解、 推理和生成,给任意模态的输入组合,都能在序列中补全下一项。

Emu的多模态上下文学习可以实现多轮图文对话、视频理解、少样本图文理解、文图生成、图图生成和少样本文图生成等能力。

7cf29bc2340caf5bef15e8df2a2cb5b0.png

这项工作为多模态大模型打开了更多应用场景的可能性。

中国大模型研究启蒙者

前面介绍的种种大模型成果,其实都是“悟道3.0”体系的组成部分。

悟道项目最早启动于2020年10月,不到半年就发布首个成果“悟道1.0”,也是我国首个超大规模信息智能模型。

又在3个月时间完成更新迭代,发布当时全球最大规模预训练模型“悟道2.0”。

从2.0到今天的3.0用了将近两年,但这并不是因为研发进展慢了,而是3.0的内涵要远远超过前者。

“悟道3.0”不仅包括语言、视觉、多模态等一系列大模型,更是构造了一个以大模型为核心的开源生态——FlagOpen飞智大模型技术开源体系,包括一站式软件体系、数据处理工具包、一体化评测平台等。

5934ce5ca24e2a9880f2ad46b970e640.png

(FlagOpen开放平台:https://flagopen.baai.ac.cn/#/home)

至此,智源研究院构建了支持多种深度学习框架、多种AI芯片系统的大模型开源技术体系,可以说“悟道3.0”是迈向了全面开源的新阶段。

事实上,这是智源研究院自成立之初,就确定的使命之一。

2018年,智源研究院作为人工智能领域的新型研发机构正式成立。

那时和如今的情形正有些相似,世界刚刚被AlphaGo震撼过不久,新一轮AI浪潮刚刚开始。

业界回望从AlexNet到AlphaGoZero的这段发展历程,总结出“最先进的AI模型计算量每3.4个月翻一番”这样的共识。

那时“大模型”这个术语还没被使用,但“把模型做大”已然是行业趋势了。

智源研究院在这次浪潮中成立,并极具战略眼光地率先开启大模型研究探索。

成立的前两年,智源在新型研究机构的组织架构、人才招募培养、大模型方向的基础科研方面做了不少铺垫性工作。

2020年悟道正式立项,2021年3月悟道1.0发布时,智源研究院正式使用了“大模型”这个词,这一叫法后来被业界广泛采纳。

站在今天这个节点上,如何看待智源研究院在中国大模型研究上的作用和贡献?

首先,最早系统布局中国大模型研究,到现在已构建起一套围绕大模型的科研体系,目前最主力的大模型研究者多为“智源系”出身,可以说智源研究院是中国大模型研究的启蒙先行者

不仅如此,智源研究院还是大模型产业生态推动者。通过开源开放,拉动人工智能领域的协同创新,是智源一直的心愿。

今年年初正式发布的FlagOpen飞智大模型技术开源体系,开启了大模型时代“新Linux”生态建设。

FlagOpen(飞智)大模型技术开源体系是由智源研究院与多家企业、高校和科研机构共建的一站式、高质量的大模型开源开放软件体系,包括大模型算法、模型、数据、工具、评测等重要组成部分,旨在建设大模型领域的“新Linux”。

让国内外开发者可以快速开启各种大模型的尝试、开发和研究工作,企业可以低门槛进行大模型研发。

另外,大模型研究并不是智源研究院的全部,而是大模型、生命智能、AI for Science三大路线都一直在布局。

但为什么是大模型的进展最快,取得了阶段性突破?黄铁军院长也给出了他的看法:

主要是语言数据无论是论文、图书还是代码都非常丰富且质量高,从海量数据中发现内在蕴含的规律正是大模型的优势。

而人脑可以看成脉冲神经网络,与今天的大模型有本质区别,想要AI产生类似人脑的能力,光靠大模型一个方向是远远不够的。

从基础的神经网络结构到信号加工机理的类脑智能是一个方向,让智能体有物理身体与环境互动的具身智能是另一个方向。

最后,智源还一直积极推动搭建国际AI研究者交流与合作的舞台。一大批前沿的研究者活跃在智源的各种生态活动中。

日常有智源社区、连接国内外青年AI学者的青源会等线上线下相结合的交流活动。

c50b4be2a63251f14d4ba90fb3eed84b.png

一年一度的智源大会,更是面向专业精英人群、关注度最高的AI行业大会。

从2019年首届智源大会开始,每届都不乏图灵奖得主和学术大咖、行业关键人物参与。

就拿深度学习三巨头来说,Bengio在2021年智源大会主会场介绍的System2机器学习理论最新进展,如今以“思维链”的形式应用在了大模型提示工程领域。

4587ba70fa5ea2c71fe57f0f30044afc.png

今年智源大会同时请来了LeCun及Hinton,但其实背后还有一个小插曲。

第三届时Hinton本来也打算参加,但就在大会前几天,他突然发现准备分享的新方法里出现bug,只能遗憾取消。

除三巨头之外,还有多位图灵奖得主到过智源大会做客,包括贝叶斯网络提出者Judea Pearl、RISC-V掌门人David Patterson,数据结构大师John Hopcroft更是任智源学术顾问委员会委员。

此外也不乏重点领域顶尖专家,如LSTM之父Jürgen Schmidhuber、信息安全领域泰斗Adi Shamir、脑成像领域权威Karl Friston……

量子位读者中有不少AI行业从业者和相关专业学生,说起智源大会的印象都是“良心活动”以及“学术追星现场”。

为什么这么多专家学者都愿意到智源大会来做学术交流?

不同于商业活动,在智源大会上不需要牵扯各种现实因素,只是每一个专家从专业角度进行交流,更中立、纯粹。

也不同于学术会议聚焦在一篇一篇的点状论文上,参加智源大会可以从更宏观、全局层面来一场顶级的观点碰撞。

对此,黄铁军院长总结到:

这种形态的会议,对整个人工智能生态发展也可以起独特的作用。

越纯粹,越中立,越开放,越有利于大家更好的把握这样的一个高速发展的时代。

今年的智源大会延续了之前的风格,但又因为AI发展到新的阶段而受到全社会瞩目。

议程设置上也聚焦大模型、多模态、生成模型,AI安全伦理问题和风险防范等最新话题展开。

同时也有自动驾驶、生命科学等等专业细分领域等百场报告研讨。

感兴趣的朋友可以戳下方链接进行参与:

https://2023.baai.ac.cn/schedule

—  —

点这里👇关注我,记得标星哦~

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/5348.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

大模型扎堆「赶考」,语文还是国产AI行,文言文能力超过95%考生

量子位 | 公众号 QbitAI ChatGPT诞生后的第一场全国高考,考生忙,大模型们也很忙。 这不,高考还没结束,AI挑战高考题就成了刷屏热搜话题,各家大模型都被拉出来写起了高考作文,甚至是参与整场考试。 &#…

任正非:过去3年,华为已完成1.3万个美国制裁器件的国产替代!(附:最新讲话实录)...

华为做为5G网络重要供应商,一直以来都是美国几轮出口管制目标,制裁也让华为无法从美国公司获取芯片,也不能利用美国设备来生产、设计自家芯片,拜登政府2022年还禁止在美国销售新的华为设备。 不过,近日,上海…

【观察】星环科技:布局行业大模型赛道,加速国产化替代进程

以ChatGPT和GPT所代表的大模型,已经在国内形成了“海啸效应”,几乎所有的科技公司都在想方设法进入大模型的赛道。背后的核心驱动力,就在于大模型的最大价值在于普遍提升个人生产力,而各行各业的公司都在积极寻找应用大模型和生成…

ChatGLM2-6B发布,C-Eval超GPT4,支持32k上下文!

自清华大学数据挖掘实验室(THUDM)3月开源ChatGLM-6B已经过去了3个多月,最近他们又带来了性能全面提升的“船新”版本-ChatGLM2-6B。别看名字变化小,其实更新的模型性能是又有量又实用。不了解ChatGLM的小伙伴可以看我这篇文章&…

苹果测试Siri自然语言生成功能;腾讯基于语言模型的短文本对话专利获授权;ChatGPT Plus订阅现已在印度推出丨每日大事件...

‍ ‍数据智能产业创新服务媒体 ——聚焦数智 改变商业 企业动态 ChatGPT Plus 订阅现已在印度推出:支持最新 GPT-4 3月17日,据OpenAI官方推特消息,用于访问OpenAI文本生成人工智能的订阅服务ChatGPT Plus已经在印度推出。 OpenAI还继续在其…

OpenAI还在烧钱,但开发者已经利用GPT和Stable Diffusion挣钱了

衡宇 发自 凹非寺量子位 | 公众号 QbitAI Text-to-Video文生视频,继作文、绘画之后AI杀入的又一领域,有越来越多产品涌现。根据读者爆料,一款主打AI生成视频的产品,已经在小圈子内被频频提及,还是国产的。 量子位迫不及…

头部企业走入无人区,国产数智化厂商挑大梁

本文转自数智前线 文|石兆 编|游勇 央国企数智化与信创化双重需求叠加,国产厂商挑大梁,助力企业升级数智化底座,实现价值化国产替代。 4月,在北京用友产业园的数智剧院里,近千位来自30个行业…

基于Mathematica的机器人仿真环境(机械臂篇)

目的   本文手把手教你在 Mathematica 科学计算软件中搭建机器人的仿真环境,具体包括以下内容:    1 导入机械臂的三维模型    2 正\逆运动学仿真    3 碰撞检测    4 轨迹规划    5 正\逆动力学仿真    6 运动控制   文中的所有代码和模型文件都在此处…

ChatGPT向癌症开了一枪

出品 | 虎嗅医疗组作者 | 陈广晶编辑 | 陈伊凡头图 |《绝命毒师》剧照 经典靶点的奠基人到中国创业,会带来哪些改变? 前不久,一家名为赛得康的生物技术公司获得种子轮投资的消息,在医药行业媒体来了一轮“轰炸”。除了创业者之一宾…

MindNLP-基于Mindspore2.0的GPT2预训练模型迁移教程

前言 动机 大家好,我是Super_WZB,最近MindSpore快要上线2.0版本了,由于之前主要是参与MindSpore的开发工作,一直想找机会多用一用。而自春节开始也是参与到了一项基于MindSpore的迁移工作,积攒了一些经验&#xff0c…

做副业的我很迷茫,但ChatGPT却治好了我——AI从业者被AI模型治愈的故事

迷茫,无非就是不知道自己要做什么,没有目标,没有方向。 当有一个明确的目标时,往往干劲十足。但做副业过程中,最大的问题往往就是 不知道自己该干什么。 干什么?怎么干?干到什么程度&#xff1f…

国内外人工智能AI工具网站大全(一键收藏,应有尽有)

本文由 大侠(AhcaoZhu)原创,转载请声明。 链接: https://blog.csdn.net/Ahcao2008 国内外人工智能AI工具网站大全(一键收藏,应有尽有) 摘要一、AI写作工具二、AI图像工具2.1、常用AI图像工具2.2、AI图片插画生成2.3、AI图片背景移…

替代notepad++,notepad--介绍及插件cmake编译

Notepad 是一个文本编辑器小软件,用来替代windows自带的记事本。然而Notepad软件的作者太霸道,如果你不赞同他的观点,Notepad将会在你的源码里面插入随机字符。推荐一款国产的开源跨平台软件NDD(notepad--),功能一点儿不弱,体积小…

【LLM大模型】模型和指令微调方法

note Hugging Face 的 PEFT是一个库(LoRA 是其支持的技术之一,除此之外还有Prefix Tuning、P-Tuning、Prompt Tuning),可以让你使用各种基于 Transformer 结构的语言模型进行高效微调。AIpaca羊驼:让 OpenAI 的 text-…

开源ChatGPT要来了;软件2.0智能革命;GLM、Diffusion模型大加速

1. 2023年AI十大展望:GPT-4领衔大模型变革,谷歌拉响警报,训练数据告急 新年伊始,大模型的话题热度不减。ChatGPT展现的惊人能力将大模型研究和应用热度推向高潮,人们激烈讨论着这个高级“物种”的推出意味着什么。 本文…

被ChatGPT带热的最新技术岗:无需编码,年薪超200万

省时查报告-专业、及时、全面的行研报告库 省时查方案-专业、及时、全面的营销策划方案库 【免费下载】2023年1月份热门报告合集 ChatGPT调研报告 ChatGPT团队背景研究报告 ChatGPT的发展历程、原理、技术架构及未来方向 ChatGPT使用总结:150个ChatGPT提示此模板 Ch…

AI提效工具|借助chatgpt快速读论文,快速总结、归纳、索引相似文章

目前新论文层出不穷,“快速阅读论文”成为研究者们一个必备能力。本文简单记录了近期出现的两个借助chatgpt来帮助我们快速读论文的“神器”,帮助大家快速上手应用,迅速提升论文阅读速度。 此外,本人也会定期更新记录一些类似的“…

获取全球各大证券交易所的全部股票交易信息

幻想过这样的两种能力,一是回到过去,二是预见未来。时间逆转回到过去,这更多的是在文艺作品中能够出现的情节。而预见未来,我们正在努力,希望可以更准确地预见更长时间内更多的细节。例如在瞬息万变的股票交易市场中&a…

如何使用chatGPT辅助开发复杂D3图表

如何使用chatGPT辅助开发一个复杂的D3图表 首先简单介绍一下实现的表单。 在线地址:https://2guliang.top/temperature/timeChat 引言 什么是 D3 D3 (Data-Driven Documents) 是一个基于数据驱动的 JavaScript 库,用于创建可交互的数据可视化图表。…

如何在代码开发中便捷使用 ChatGPT 协助开发

在五一节前后,抽空测试了下网上推荐的开发环境和开发插件,在这里推荐给前后端代码开发的同胞们。 方法一:IDEA 安装 插件 bito 习惯使用 IDEA 开发代码的同胞,可以尝试直接在 IDEA 中安装插件 bito,注意操作过程中需要…