极客公园对话 Zilliz 星爵:大模型时代,需要新的「存储基建」

在这里插入图片描述

大模型在以「日更」进展的同时,不知不觉也带来一股焦虑情绪:估值 130 亿美元的 AI 写作工具 Grammarly 在 ChatGPT 发布后网站用户直线下降;AI 聊天机器人独角兽公司 Character.AI 的自建大模型在 ChatGPT 进步之下,被质疑能否形成足够的竞争壁垒 …

ChatGPT Plugins 插件发布之后,更多创业者开始担忧大模型的技术进步会把自己卷入「打击射程」,瞬时抹掉自己所在领域的技术积累和优势。

我们好像陷入了大模型所带来的「WTF 综合症」——在过山车般的技术加速度中,人们会在「what the fuck」的惊讶和「what’s the future」的思索之间,反复横跳。

冷静下来思考,在底层大模型的国产化浪潮以及应用层的红红火火之外,大模型领域还有什么是值得被关注的?

向量数据库(Vector database)在我们与行业人士的各种交流中屡被提及。它被看做 AI Infra 中的关键一环,这种专门用于存储、索引和查询嵌入向量的数据库系统,可以让大模型更高效率的存储和读取知识库,并且以更低的成本进行 finetune(模型微调),还将进一步在 AI Native 应用的演进中扮演重要作用。

  • 向量数据库之于大模型的价值和意义究竟是什么?它会不会被大模型本身的进步吞掉?

  • 围绕着大模型的软件开发范式将会被如何构建?向量数据库能发挥的作用是什么?

带着这些问题,极客公园找到了 Zilliz 创始人 & CEO 星爵进行交流。Zilliz 成立于中国上海,总部在美国硅谷,于 2019 年开源了全球首个向量数据库产品 Milvus,它在 GitHub 上获得了超过 1.8 万颗 Star,在全球拥有超过 1000 家企业用户,成为目前全球最流行的开源向量数据库。而早在 2022 年,Zilliz 就完成了累计超过 1.03 亿美金的 B 轮融资,估值达到惊人的 6 亿美金。


图|Zilliz 在 SIGMOD’21 发表的论文,Milvus 是全球真正意义的第一款向量数据库产品

在大模型热潮之前,整个向量数据库市场一年只有几亿美元。直到去年 ChatGPT 推出,如 killer app(杀手级应用)一般拉高了市场天花板,也让大模型和向量数据库开始真正出圈。

在今年 3 月的 NVIDIA GTC 大会,黄仁勋首次提及向量数据库,并强调对于构建专有大型语言模型的组织而言,向量数据库至关重要,而 Zilliz 也被官宣是 NVIDIA 的向量存储的官方合作伙伴。紧接着,OpenAI ChatGPT plugins 发布的官方文章中,Milvus 和 Zilliz Cloud 同时作为首批插件合作伙伴被提及,成为唯一一家开源项目与商业化云产品同时入选的向量数据库公司。而在近一个月之内,向量数据库迎来了融资潮,Qdrant 、Chroma 和 Weaviate 纷纷获得融资;而 Pinecone 也正式官宣了新的 1 亿美金 B 轮融资,估值达到了 7.5 亿美元 …

从 3 月 到 5 月,我们与星爵一起见证了向量数据库从默默无闻到成为行业大热的完整过程,并和他陆续探讨了大模型的演化、向量数据库的价值和意义,以及 AI Native 应用演进等一系列问题。

以下是对话精选,由极客公园整理:

01 大模型和小模型的混合时代

极客公园:在你看来大模型是什么?

星爵:大模型是一个智能处理器,是一个大脑。传统处理器是人工去编排电路,而大模型是用神经网络去编排电路。

大模型未来发展会更加强大,一方面会有中央处理的大模型,像 ChatGPT 的云端大脑,后面有数万块 GPU,它会奔着更大规模、更强能力的方向发展,但它的缺点也很明显,能耗和成本也比较高;另外一个维度,它会往更高的效率、更低的能耗比方向走,会有小模型出来,像 Dolly 模型(注:Databricks 发布的拥有 120 亿参数,类 ChatGPT 开源模型),每个人手提一个「大脑」。

极客公园:这个结论是怎么得出来的?

星爵:我是站在人类的科技发展史去看的,而不是大模型本身。

大模型本质是开启了人类智能计算的一个时代,但是计算能力一定会分化的,不可能说只有一个。

人类的计算最终都是从大分化成小的,「大」不见得是一个适合所有产品的需求。计算机最开始是主机时代,是在大机房里面的大型机,而现在 ChatGPT 本质也是如此。对于这种计算方式来说,缺点明显,响应很慢,吞吐率也不高。

出现小型化的趋势是因为功能的需求在分化,如果你要办公,你买一个上网的笔记本电脑就可以了,不需要一个超级计算机。

极客公园:会像主机到微机的时代演变,有清晰的阶段划分吗?还是说会是一个大模型和小模型混合的时代?

星爵:从大模型到小模型的大量涌现,这个演进其实就花了 6 个月,人类文明的进化已经变得更快了。现在如果你想跑一个微软出的 Deep Speed Chat 这种小模型,在笔记本上就行。

你可以认为小模型就相当于现在的 PC,大模型是现在的超级计算机。

我觉得大模型和小模型两者会并存下去。需求分化的本质背后,并不是一个技术问题,而是资源如何最优化配置的问题。如果说集中式的管理是最优的话,那么一定会做集中式的。

极客公园:大模型和向量数据库是什么关系?大多数向量数据库公司其实在大模型热潮出现前就有了,比较好奇大模型给向量数据库带来了什么?

星爵:在我看来,大模型是新一代的 AI 处理器,提供的是数据处理能力;那么向量数据库提供就是 memory,是它的存储。

向量数据库之前应用比较分散,ChatGPT 的出现,让向量数据库迎来了 killer app 时刻,一下子把行业的天花板拉高了几个数量级,把向量数据库面向的开发者从几万提升到全球几千万。就像过去做移动开发和应用开发,可能大家都会人手一个 MongoDB 数据库,以后也会人手一个向量数据库。

极客公园:目前大模型发展非常迅猛,会不会把向量数据库提供的价值直接被吞到大模型的体系里?

星爵:不管是大模型还是小模型,它本质上是对全世界的知识和运行规则的一个编码,是对我们人类所有数据的一个压缩。

但很难真的把所有数据放到大模型里面。比如有一种观点,ChatGPT 是一个相当高效的压缩编码方式,但它并不是无损压缩,并不能拥有所有知识,这个过程必然带来熵减和信息损失。如果把所有信息都编码到神经网络里面去,那么神经网络就会变得特别臃肿,参数规模会巨大无比,从而导致运行缓慢。所以不能全放进去,这意味着它可能需要外部的存储。

在计算机结构中也有类似的情况:CPU 里会有一个片上存储 SRAM,一般会做得比较小,因为片上存储的价格比内存 DRAM 要贵 100 倍,比磁盘要贵 1 万倍。神经网络就是大模型的片上存储,更大规模的模型拥有更多的片上存储。但是用神经网络来存储数据是相当昂贵的,会导致网络规模的急剧增大,所以大模型也需要一种更高效的数据存储方式,这就是神经网络外的片外存储,向量数据库就是它的片外存储。如果运行时发现有信息不知道,就到向量数据库里面来取。而向量数据库的存储成本比存到神经网络的成本要低 2 到 4 个数量级。

极客公园:你拿硬件做了类比,但是我们也可以看到有芯片公司是在做存算一体的架构,存储和计算放在一起。

星爵:本质上每一种计算都需要存储,计算和存储是两个最基本的抽象,但它们是可以相互转化的,可以用存储换计算,也可以用计算换存储。在达到一个更好地投入产出比的过程中,需要有一个平衡。

人类的第一个计算机就是存算一体的,后来为什么要分开?因为效率和成本。为什么说大模型不能够完全取代向量数据库,这是因为向量数据库的存储成本比大模型要低一个 1 千倍到 1 万倍,就看你要不要这么做而已。历史上,存储永远比计算便宜,计算也在降价,但你发现存储一直更便宜。

极客公园:但这个逻辑其实是硬件的逻辑,软件也会如此吗?

星爵:软件和硬件是相辅相成,互为支撑的。软件里为什么要把中间计算过程保存下来,不重算一次?为什么要做缓存,要保存中间结果?因为保存是为了少算,少算的原因是用空间换时间,用存储换计算资源,这在软件里面是最经典的一种设计模式。之所以软件这么设计,也是硬件特性所决定的:存储比计算要更便宜。

02 重新理解向量数据库的价值

极客公园:最近有个玩笑说,上一波投 AIGC 的 VC 公司基本上都后悔了,意思是在大模型之下很多应用层公司的壁垒都被抹掉了。私域数据会不会是构成竞争力的核心,向量数据库是不是可以在这个方向起作用?

星爵:帮助用户管理私域数据,确实是目前向量数据库提供的核心应用场景。很多公司和个人不愿意让大模型拿到自己的数据。

那么我们怎么样利用向量数据库和 OpenAI 这种大模型厂商交换数据呢?首先说一点,大模型本身是可以将互联网上的公域数据都爬到,对于私域数据可以用向量数据库先做好编排,转成向量数据库里的向量。现在要从私域数据的知识库里要找到问题的回答,可以利用向量数据库的相似查找能力,精确定位到库里的相关数据,然后把这几个信息编成一个 prompt。

尽管 prompt 的容量理论上可以无限,但这样效率太低,并且也难以实现。通过以上这样的方式就可以很容易控制是 2000 个 tokens,或者 8000 个 tokens,把它传给大模型给出一个答案。所以说,通过向量数据库可以用私域数据和大模型做一个增强和互补。

极客公园:大模型不会把私有数据都拿走?

星爵:国外这一波 AI 起来之后还有一个特别好的点,就是把隐私数据保护都搞清楚了。

为什么有那么多开发者敢用,那么多百亿美金的公司愿把自己的服务接到 OpenAI 里面去,就是 OpenAI 已经保证 prompt 只能作为 input(输入),不能存、不能训练、不能学习。要不然我把数据都给你了,你学完以后把我踢掉怎么办。国外已经在公有数据和私有数据之间划出了一个很大边界。我相信中国最后也会立法,走到这一步的。

极客公园:向量数据库在大模型中还有什么应用?

星爵:短期还有一种应用方式,用向量数据库给大模型更新数据。

其实这也是个成本的考虑,模型的 finetune(微调)更新的成本,是远大于使用向量数据库数据做存储。

不管是大模型还是小模型的 finetune 都比较慢。除非你做一个超级无敌计算机,实时获取新数据,也实时更新模型,但没必要。像 ChatGPT 训练所用的数据是截止到 2021 年 9 月,后面的事情它就不知道了,会给出错误答案。所以通过用向量数据库给大模型更新数据,也是可以一定程度上解决大模型「胡言乱语」的问题。

极客公园:Zilliz 还推出了 GPTCache,要给 ChatGPT 做缓存层。这个怎么理解?

星爵:缓存也是个很好的应用场景。我们认为全球的 CDN 和缓存会有重做一次的机会。未来 AI 的公共场景中信息交换的方式会发生变化,会向更智能,更偏向语义这个方向转变,并且消化的是更加非结构化的数据。以前的 CDN 是基于精确条件的查询,现在可以基于一些近似条件的查询。未来需要一个更智能的一个 CDN,更智能的一个缓存。

极客公园:最近很火的 AutoGPT 和向量数据库也有关联,向量数据库在其中扮演了什么角色?

星爵:向量数据库是 AutoGPT 中最为核心的组件之一。我们的产品 Milvus 已经接入到了 AutoGPT 中,这给我们带来了很大的流量。你可以这样理解,AutoGPT 等于 ChatGPT 加上向量数据库。通过向量数据库让 AutoGPT 具备了长期记忆能力,它知道之前搜的是什么,把历史全部记进去了,不然每次查询是没有上下文的。

极客公园:斯坦福大学和谷歌联手发布的论文《Generative Agents: Interactive Simulacra of Human Behavior》也引起了行业强烈关注,实验构建了一个虚拟小镇,小镇有 25 个有「记忆」的虚拟人,他们可以结合自己的「人设」,在社交活动中产生不同的决策和行为,这让我们看到了现实版的《西部世界》构建的可能性。这个实验里面非常重要的是虚拟人的记忆机制,向量数据库能做吗?


图|虚拟小镇

星爵:能。AutoGPT 加一个人物的头像,就可以打造一个最简单的智能 Avatar。以后各种智能体都要有个记忆,而记忆是向量数据库来提供,这个想象空间蛮大的。那它可能是个什么机会呢?还真不好去定义,人类历史上首次出现拥有独立记忆体的虚拟人,这是一个历史性的机会,对向量数据库的需求会有几万倍的增长。

这本质上还是使用向量数据库作为大模型的 memory,应用在了虚拟智能体这个场景。我觉得慢慢地大家在达成共识,只要做大模型的应用,就会用向量数据库来做记忆体。

极客公园:大模型要想处理复杂任务,首先要有记忆能力,然后基于记忆(上下文)做推理,而向量数据便是记忆体。那是只有向量数据库就够了,还是需要再加一些其他的?

星爵:基本就够了。因为所有大模型和 AI 里面的数据交换都是用向量。这个本质上是说片外跟片内的存储数据的交换格式是统一的。这也就是说为什么不能拿 Oracle 去做智能体的记忆;ChatGPT 也没有选 MongoDB,也没有选 Oracle,因为它们都是不适合大模型的。

极客公园:是不是可以这样理解,把大模型看成是一个基于自然语言编程的新型计算机,向量数据是它最原生的数据,向量数据库是它最原生的数据库,这其实是一个完整的体系?

星爵:是的。神经网络的确是向量,因为它所有的信息传输都是向量,每一层的参数也都是向量。所以能看成是个以向量(embedding)为基础架构的一套新的计算体系结构。

这个体系结构简单说来就是「CVP Stack」。其中「C」是 ChatGPT 这类大模型,负责向量的计算;「V」是向量数据库(vector database),负责向量的存储;「P」是 Prompt Engineering,负责向量的交互。

03 AI Native 时代的应用演进

极客公园:对于 AI Native 时代的应用开发来说,什么变得更重要了?什么不重要了?

星爵:在大模型开发时代,我率先提出了前面提到的「CVP Stack」概念,现在也逐渐被广泛接受了。

这里要特别指出的是,我对于「P」的定义和理解会更加开放一些,不限于 prompt engineering。它本质上是个创造的过程,而不是说简单的写 prompt。「P」的核心是提问能力,或者说是找到需求、找到市场的一个能力,比如说你如何设计你的用户流程,如何找到一个好的商业化落地的场景,这都是包含在「P」中。

对于现在的开发者来说,不管你是产品经理还是前端工程师,用 ChatGPT 加上向量数据库,写好 prompt,再用 LangChain 把项目串起来,基本用上一周就可以写个应用出来,这极大地降低了大模型应用的开发成本。

极客公园:面向大模型时代,你对 Zilliz 这家公司更准确的定义是什么?

星爵:我们是一家 DB for AI 的公司,大概 3 年前,我们发了这个领域第一篇 SIGMOD 论文的时候,提出了这个概念,但它是一个学术界的讲法。如果按照更好理解的方式,我们其实的是一个 AI Native 的数据库公司。

过去 10 年最大的机会是做 Cloud Native(云原生)的 Data Infra,产生了 Snowflake 这样的巨头;未来 10 年最大的机会是做 AI Native(AI 原生)的 Data Infra,像 Zilliz 这样的向量数据库公司将会迎来历史性机遇。

极客公园:这一波大模型创业,应用层创业者被问得最多的是,怎么去建立自己的竞争壁垒,而不被大模型本身的进步「淹死」?你怎么看壁垒这个问题?

星爵:应用层其实是有壁垒,技术壁垒变低了,那么其他的壁垒就变高了,我觉得创意和运营变得更重要了。

极客公园:与中国关注应用层和大模型层不同,美国在 AI Infra 上迎来了开源的繁荣,AI Infra 的竞争格局会是怎么样?中国接下来在 AI Infra 上有什么值得期待的吗?

星爵:Infra 是一个赢者通吃的市场,像 Snowflake 在云原生数据库领域就是一马当先。

我觉得中国在这一块还没开始,中国大模型比国外大概落后了半年。Infra 的话,我觉得中国可能还会落后半年到 1 年。我觉得 AI Infra 在接下来的半年里会有一个史无前例的快速发展。

04 爆火背后的坚持和运气

极客公园:3 月的 NVIDIA GTC 大会上,黄仁勋强调向量数据库对于大模型至关重要,还宣布了你们是 NVIDIA 的向量数据库的合作伙伴。这中间发生了什么故事?


图|NVIDIA GTC 大会,黄仁勋首次提及向量数据库,并强调对于构建专有大型语言模型的组织而言,向量数据库至关重要

星爵:我们在创业之初就坚定地认为 AI 时代的计算一定是异构的,也一直在坚持包括 GPU 加速在内的异构计算的技术路线。

NVIDIA 是在去年下半年看到整个 AI 的发展趋势中,向量数据的处理会越来越重要,非常希望更多的企业能够把 GPU 加速用起来。他们在全球范围内调研和接触向量数据库领域的公司和团队,但也发现真正能够在异构计算上面有布局、有实力的只有我们一家。

NVIDIA 在深入地了解我们之后,也成为了我们 Milvus 开源社区里一个很重要的贡献者。除了共同发布 GPU 加速向量数据库,NVIDIA 还派了几名的工程师专门给 Milvus 贡献代码。

此外,NVIDIA 还有一个用 GPU 加速的开源推荐系统框架 Merlin,它把 Milvus 也做成 Merlin 中的一个关键部件,帮推荐系统去管理下面的数据。现在 NVIDIA 不仅仅是我们的合作伙伴,同时也成为我们的一个大用户。

极客公园:OpenAI 又是什么样的故事?我看到在公布 ChatGPT plugins 发布的官方文章中,Milvus 和 Zilliz 是首批的合作伙伴,贡献了向量数据库插件。


图|OpenAI 发布 ChatGPT plugins 的官方文章中,Zilliz 的产品被提及了两次

星爵:OpenAI 的话就更加简单了,一年前就已经有一些合作了。他们和我们说要做一个平台,就是 ChatGPT plugins,看到我们的向量数据库是全球最流行和最具开发者社区影响力的,因此希望加入。最开始我们的心态很平和,觉得是基础的开源兼容合作。但 plugins 发布后,我们获得了来自大模型领域开发者和 GPT 用户群体的空前关注,这个是我始料未及的。

极客公园:既然向量数据库这么重要,会不会担心国内别人再做一个向量数据库?

星爵:说实话我们很欢迎,因为向量数据库还处于发展的早期阶段,还需要更多的市场教育。

极客公园:对于「为什么是你们」这个问题,你是怎么思考的?

星爵:我也想不到今年会有机会和大家都去谈向量数据库。之前我每年都跟别人讲,向量数据库是接下来特别牛逼的事情,但大部分人听完之后说,有趣,你有这个想法和愿景,就好好干。

现在回头看,没有坚定的愿景和长期主义的坚持,我们不可能走到现在。

当然,一个成功的企业也需要有些好的运气。比如说,我们历史上每次融资都能够遇到一些拥有相同愿景、坚持长期主义的投资人。我们今年开始准备做商业化,刚好遇到大模型的「iPhone 时刻」,一下子把我们推到了聚光灯下。之前有人会怀疑我们的商业化潜力,但现在有人和我说 Zilliz 想不挣钱都很难。

很多时候,你坚持在做一些难的事情,但是很多时间点你没有赶上,你可能会死。因为其实很多优秀的企业也是这么死掉的,尽管它的产品和技术很好,但它跟市场经济发展的趋势不吻合,跟用户需求爆发的时间点不吻合。

对于可以掌控的,那我们就拼命去做成功的必要条件;而有些是无法控制的,对我们来说的话,很感恩这种运气。

极客公园:所以你是怎么看自己的?是长期主义的胜利者?

星爵:幸存者更恰当一些。

极客公园:大模型给向量数据库带来的是什么程度的加速?

星爵:是指数级的增长,过去 6 个月开发者的增长量大概能顶得上我们过去三年的。

这是一个向量数据库开始疯狂增长的时代,也是 AI-native 数据库未来十年高速增长的开端。

本文为转载文章,原文于 2023 年 5 月 10 日 刊发于「极客公园」,作者为王式。


  • 如果在使用 Milvus 或Zilliz 产品有任何问题,可添加小助手微信 “zilliz-tech” 加入交流群

  • 欢迎关注微信公众号“Zilliz”,了解最新资讯。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/24085.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

云平台的ChatGLM部署

最近ChatGPT很火,国内清华也发布了ChatGLM,于是想在云平台上实现一下小型的ChatGLM。目前准备在趋动云这个平台上试试ChatGLM-6B-int8。 目前ChatGLM-6B-int8显存最少需要10G 可以参考GitHub - THUDM/ChatGLM-6B: ChatGLM-6B: An Open Bilingual Dialo…

高通Ziad Asghar:AI处理的重心从云端向边缘侧转移,智能手机是最佳平台 | MEET 2023...

萧箫 整理自 MEET 2023量子位 | 公众号 QbitAI 从Stable Diffusion到ChatGPT,这半年AI算法应用可谓突飞猛进。 但对于硬件领域而言,AI计算的下一个突破口或未来趋势究竟是什么? 尤其是AI应用最大的领域之一——移动端,大量AI算法在…

Stable Diffusion免费(三个月)通过阿里云轻松部署服务

温馨提示:划重点,活动入口在这里喔,不要迷路了。 其实我就在AIGC_有没有一种可能,其实你早就在AIGC了?阿里云邀请你,体验一把AIGC级的毕加索、达芬奇、梵高等大师作画的快感。阿里云将提供免费云产品资源&…

如何通过限制 IP 相关信息 | 控制用户访问站点频率

文章目录 通过 IP 限制反爬实验介绍知识点课程环境 IP 限制实战用 Nginx 限制特定 IP关于 allow 和 deny 的使用说明Nginx 限制 IP 访问频率Python Flask 模拟 IP 黑名单 实验总结 通过 IP 限制反爬 实验介绍 在常规的反爬手段中,IP 限制是应用广泛且比较有效的&a…

win11 报错 你的IT管理员已经限制对此应用一些区域的访问 解决方法

你的IT管理员已经限制对此应用一些区域的访问,你尝试访问的项目不可用。有关详细,请与你的IT支持人员联系。 1.按下wins,在框中输入cmd,右键管理员身份运行 2.在命令提示符中输入 reg add “HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Microsoft\Windows Def…

wordpress开放注册和邮件问题解决

1开放注册 WordPress后台,设置-常规,勾选任何人都可以注册前面的复选框,新用户角色改为作者,保存即可开启。 2新用户注册收不到邮件问题解决 wordpress配置SMTP服务发送邮件(以qq邮箱为例) 第一步、配置邮箱(这里介绍qq邮箱) 我试过多个…

SLAM基础知识汇总【长期更新】

SLAM基础知识汇总 特征点相关 特征点由关键点和描述子构成: 关键点:特征点在图像里的位置描述子:通常是一个向量,描述了该关键点周围的信息,朝向大小等 [ORB-SLAM2] ORB-SLAM中的ORB特征(提取&#xff…

国科大数字图像处理(复习与整理)

图像处理复习笔记: 1、证明一个系统是线性系统2、证明函数卷积的傅里叶变换等于函数傅氏变换后的乘积3、采样定理与混叠4、直方图均衡化第一节课知识点第二节课知识点第三节课知识点第四节课知识点第五节课知识点第六节课知识点第七节课知识点第八节课知识点第九节课…

3D视觉感知新SOTA BEVFormer复现nuscenes数据集测试demo

0 写在前面 分享最近在BEV感知方面的工作,欢迎自动驾驶同行交流学习,助力自动驾驶早日落地。 1.概述 对于自动驾驶而言,BEV(鸟瞰图)下的目标检测是一项十分重要的任务。尽管这项任务已经吸引了大量的研究投入&#…

CCF认证202305-1重复局面

题目背景 国际象棋在对局时,同一局面连续或间断出现3次或3次以上,可由任意一方提出和棋。 问题描述 国际象棋每一个局面可以用大小为 的字符数组来表示,其中每一位对应棋盘上的一个格子。六种棋子王、后、车、象、马、兵分别用字母 k、q、…

地鼠君黑盒测试--小白如何梳理需求,告别听不懂

没有需求文档的痛苦 刚开始作黑盒(功能)测试时,小白难免会遇到这种情况,就是需求梳理不清晰,没有需求文档或者需求文档太简单。这种一开始没人带时,不容易发觉后续测试多痛苦。 笔者一开始时,就…

记一次购买海外服务器的经历和python包管理小记

概述 最近在研究ChatGPT,需要有个服务器一直挂着,刚好看到raksmart在搞活动; 可以关注下,他们的活动页面 https://billing.raksmart.com/whmcs/index.php?rp%2Fannouncements&languagechinese-cn 刚好四月,有便…

No signature of method: build_*.android() is applicable for argument types

意思很直观:就是build的时候,android()的参数错误。 更新android studio 后出现这种问题,主要是新版本的生成的app和module模版有所变化引起的。 Android Studio Electric Eel | 2022.1.1 Patch 1 Build #AI-221.6008.13.2211.9514443, built…

01 Faster R-CNN系列

目录 一、 R-CNN 1. R-CNN流程(4个步骤 ) 2. RP的确定 3. 预训练模型微调(backbone) 4. SVM的分类 5. bbox regression的训练 6. NMS 二、 Fast R-CNN 1. Fast R-CNN算法流程 2. 候选区域生成 3. 预训练模型微调&#…

ChatGPT API 遇见 Tistory:自动化英语学习博客

这是通过集成 ChatGPT API 创建自动化英语学习内容系列中的第三部分。 转发: ChatGPT API Meets Tistory: The Automated English Learning Blogs 项目介绍 介绍 这是通过集成 ChatGPT API 创建自动化英语学习内容系列中的第三部分。 我正在尝试整合各种平台。 第一个是 Se…

cahtgpt算法压力测试(丁真版,更新gpt4(暴风哭泣了已经))

更新 补充了gpt-4版本的答案,只能说牛逼,我收回之前的替代不了高级科研工作者的结论,话不多说上答案: 可以看到这里已经吊打got3.5了,它能把这个问题解释的很清楚了 那么关于GPF算法和varimax的关系呢 可以看到gpt3…

连音乐都可以创作!Google AI部门推出交互式体验

机器学习也能应用在音乐上吗?Google AI部门的Magenta研究项目PAIR计划团队打造出第一个由AI驱动的Doodle服务,Doodle为一项交互式体验,让用户自行创造一段旋律,按下和声演奏(Harmonized)的按钮后&#xff0…

现在程序员的工资是不是被高估了?

图片来源:AIGC 文章来源:www.zhihu.com/question/295009798 韩冬 不是程序员的工资被高估了。而是在中国,IT行业是少有的劳动者议价能力强,能够比较公平的和资方分配公司收入的行业。 最近三十年我国经济突飞猛进,GDP从…

im即时通讯开发/聊天软件系统/社交APP源码搭建/私有化部署聊天原生开发源码快速搭建

由IM技术专家打造的基于 Java 实现的即时通讯(IM)项目 我们提供私有化即时通讯解决方案,独立部署在您自己的服务器上、代码可以开源、支持二次开发、苹果端上线指导,源码出售,提供远程技术指导,全程指导服务…

微分销机制设计_免费快速搭建微信分销商城_OctShop源码

现在微信的流量以及用户基数的庞大,让很多企业或商家都想在微信里面分一杯羹。搭建一个微信分销商城是一个很明智的选择, 而一个比较完善的商城系统,它的设计与开发是庞大复杂的系统工程,比较耗时耗财。 如何快速免费搭建一个大型专业级的微信…