Agents改变游戏规则,亚马逊云科技生成式AI让基础模型加速工作流

最近,Stability AI正式发布了下一代文生图模型——Stable Diffusion XL 1.0这次的1.0版本是Stability AI的旗舰版生图模型,也是最先进的开源生图模型。

在目前的开放式图像模型中,SDXL 1.0是参数数量最多的。官方表示,这次采用的是全新的架构,基础模型的参数规模达到35亿,同时还有一个66亿参数大小的细化模型。而如此强大的生图模型,已经可以在亚马逊云科技Amazon Bedrock上一键访问了!

基础模型全面上新

就在上周,亚马逊云科技发布了一大波基础模型上新。除了刚刚提到的SDXL 1.0,Amazon Bedrock还增加了对Cohere基础模型以及ChatGPT最强竞品——Anthropic的Claude 2的支持。

ecf21220f48b4138aba051de60749e5a.png

 

Cohere研发的大语言模型Command,是一个能够接受用户个性化命令训练的模型,专注于提供文本搜索、文本分类和文本生成三大AI能力。另外,Anthropic推出的Claude 2,其处理能力已经更新到10万个token。相较之前版本,Claude 2在数学、代码、推理能力方面有明显的提升。同时,开发者还可以通过机器学习中心Amazon SageMaker Jumpstart,一键开发各类热门开源模型。比如,Meta最新的Llama 2、世界最大开源社区Hugging Face托管的Falcon、Flan等等。

 

Agents改变游戏规则

不过,基础模型虽然在各种任务上有强大的泛化能力,但随着应用场景的不断扩展,仅靠模型本身已经很难去完成一些复杂的任务了。而前段时间AutoGPT的爆火,则给了学界和工业界一个全新的探索方向——集成了大语言模型的Agent。

概括来说,Agent可以通过最简单的形式运行循环,并且在每一次的迭代中,都会生成自主指令和操作。因此,它们既无需依赖人类来引导对话,还具有高度的可扩展性。

亚马逊云科技也在这个领域进行了自己的探索,并且创新性地提出了全新的Amazon Bedrock Agents。基于Amazon Bedrock提供的Agents功能,开发者可以轻松创建各种生成式AI应用,来完成复杂任务,并根据专有知识源提供最新答案。以往得耗费几个小时编码来实现的过程,现在无需任何手动编码,只要单击几下,Agents就能自动分解任务,创建计划。这样一来,生成式AI应用程序分分钟就搞出来了。

那么,Amazon Bedrock Agents是如何让基础模型加速工作流的呢?具体可分为以下四个步骤:

● 第一步:定义指令和编排,将复杂任务分解为多个步骤

● 第二步:检索增强生成(RAG),配置FM与公司数据互动

● 第三步:完成交互,执行API调用以满足用户请求

● 第四步:在云中安全托管

Amazon Bedrock Agents可以通过简单的API链接到公司数据,将其转换为机器可读的格式,就能生成准确响应。然后自动调用API,满足用户请求。

 

英伟达H100最强加持

然而,基础模型性能不断提升,所带来的是动辄几百万亿的参数。这种复杂性的暴涨,也极大地增加了模型训练和微调的时间——最新的LLM需要数月的时间来进行训练。与此同时,HPC领域也呈现出了类似的趋势。随着精度的提高,用户收集的数据集已经达到了Exabyte级别。为了满足高性能和可扩展性的算力需求,亚马逊云科技全新推出了搭载英伟达最强GPU——H100的Amazon Elastic Compute Cloud(EC2)P5实例。

相较于上一代,Amazon EC2 P5 实例不仅可以将训练时间缩短高达6倍(从几天缩短到几小时),而且还能使训练成本降低高达40%。具体来说,Amazon EC2 P5 实例共搭载了8个NVIDIA H100 Tensor Core GPU,配备640 GB高带宽GPU显存,同时还有第三代AMD EPYC处理器、2 TB系统内存、30 TB本地NVMe存储,以及高达3200 Gbps的总网络带宽。

堪称配置拉满的性能,为最苛刻、计算密集的生成式AI应用提供了支持,包括问答系统、代码生成、视频和图像生成、语音识别等,非常适合训练和运行日益复杂的LLM和CV模型。

基于全新的Amazon EC2 P5 实例,用户可以探索此前难以触及的问题,并且更快地迭代出解决方案。此外,为了满足用户对大规模和低延迟的需求,亚马逊云科技还推出了搭载有Amazon EC2 P5实例的第二代EC2 UltraClusters。作为云中规模最大的ML基础设施,EC2 UltraClusters可提供高达20 exaflops的总计算能力,以及跨20,000多个NVIDIA H100 GPU的低延迟。

 

给模型插入「外接大脑」

从Agent的构建中我们不难看到,所有基于大模型搭建好的应用,想要获取实时数据,都需要建立在检索增强生成(RAG)之上。而这一技术是向量数据库能够在AI应用中发挥重要作用的根本。

在亚马逊云科技峰会上,首次推出了——Amazon OpenSearch Serverless向量引擎。开发者们通过这个工具,就可以轻松使用向量数据库,快速构建基于大模型的搜索体验。总的来说,Amazon OpenSearch Serverless向量引擎引入了简单、可扩展和高性能的向量存储和搜索功能。开发者可以快速存储和查询各种ML模型(包括Amazon BedRock提供的模型)生成的数十亿个向量嵌入,响应时间仅为毫秒级。

当前,生成式AI大爆发,所有垂直领域的企业都在转向这一热潮,并探索通过集成高级对话生成AI应用程序,以改变用户体验,以及和数字平台交互的方法。亚马逊云科技推出的这项工具,通过使用向量嵌入,能够增强ML搜索和生成式AI。

向量嵌入在用户私有数据上进行训练,并能表示信息的语义和上下文属性。这样做的优势在于,能够及时处理用户的查询,以查找最接近的向量,并将其与其他元数据组合在一起,进而无需依赖外部数据源或其他应用程序代码集成结果。

值得一提的是,向量引擎是基于Amazon OpenSearch Serverless构建,因此无需担心后端基础架构的大小、调整和扩展。所有数据都持久保存在Amazon Simple Storage Service(Amazon S3)中。当向量数量从原型开发时的几千个增长到生产时的上亿个甚至更多,向量引擎将无缝扩展,无需重新索引或重新加载数据来扩展基础架构。

此外,向量引擎还为索引和搜索工作负载提供独立计算,因此开发者可以实时无缝地摄取、更新和删除向量,同时确保用户体验不受查询性能的影响。借助对Amazon OpenSearch Serverless的向量引擎支持,开发人员将拥有一个简单、可扩展和高性能的解决方案,来构建机器学习增强的搜索体验和生成性人工智能应用程序,而无需管理向量数据库基础设施。

 

全球生成式AI领导者

随着数据量大爆发、可高度扩展算力的可用性、以及机器学习技术的进步,让生成式AI足以改变每个行业。因此,越来越多的企业希望快速采用最新技术,创造价值。选择正确的模型,使用公司数据安全定制模型,并将其集成到应用程序中是一个复杂的过程,都需要花费大量时间、和高度专业化的知识。恰恰,亚马逊云科技Amazon Bedrock简化了这一流程,通过简单的API访问一流的基础模型。

通过Amazon Bedrock Agents这一完全托管的服务,开发者能够轻松创建基于生成式AI的应用程序,以完成各种用例的复杂任务。其中Vector Database,能够帮助开发者的应用程序实时存储数据,及时召回信息,提供更好的用户体验。Amazon EC2 P5实例更是为模型训练节省大量时间和算力。基于以上的创新,真正诠释了亚马逊云科技是端到端的生成式AI领导者,帮助企业开发者释放生成式AI的潜力,创造价值。

同时,亚马逊云科技不断降低生成式AI的门槛,更是致力于GenAI普惠的领导者。

前段时间,亚马逊云科技刚刚宣布了编程助手Amazon CodeWhisperer可用,能够使用底层基础模型帮助开发人员提高工作效率。它可以根据开发人员使用自然语言留下的注释和IDE(集成开发环境)中的历史代码实时生成代码建议。

这次,Amazon CodeWhisperer首次与Amazon Glue Studio Notebooks实现集成,能够帮助用户优化使用体验,提高开发效率。通过Amazon Glue Studio Notebooks,开发人员用特定语言来编写任务,然后Amazon CodeWhisperer会推荐一个或多个可以完成此任务的代码片段。

Amazon CodeWhisperer针对最常用的API进行了优化,例如Amazon Lambda或Amazon Simple Storage Service(Amazon S3),使其成为构建应用程序开发者们的绝佳编码伴侣。除此之外,亚马逊云科技还提供了7门免费的技能培训课程,帮助开发者以使用生成式AI。其中,还联手吴恩达推出了「用大型语言模型构建生成式AI」新课程。

● 医疗领域已有落地应用

今年这波AI大模型的浪潮,也激发了人们对生成式AI在医疗行业的应用的探索。对于AI在医疗行业的应用,亚马逊云科技也同样有所行动,发布了一款面向医疗保健软件提供商的全新服务——Amazon HealthScribe。

Amazon HealthScribe通过使用使用生成式AI的机器学习模型和语音识别,能自动起草临床文档,帮助临床医生转录和分析他们与患者的对话。它的自然语言处理功能,还可以从对话中提取复杂的医学术语,比如药物和医学状况。病史、要点、就诊原因,一应俱全。Amazon HealthScribe中的AI功能,正是由Amazon Bedrock提供支持的,通过预训练模型,用户就可以从初创公司以及亚马逊自身构建生成式AI了。

可以说,作为全球云计算的开创者,亚马逊云科技看到了AI浪潮当下,生成式人工智能的潜力和重要性。生成式AI能够有改变每一个应用程序、每一个业务、甚至每一个行业。数据处理、算力和机器学习的进步,正在加速许多企业从实验到部署的转变。

通过提供Amazon Bedrock等服务,以及与行业领导者的合作,这家公司正在普及对生成性人工智能的访问。在不断创新的基础上,亚马逊云科技正在让开发者,让世界重新构想体验,把最好的产品带入生活。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/74945.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【运维】hive 终端突然不能使用:Hive Schema version does not match metastore‘s schema version

文章目录 一. 问题描述二. 常规排查1. 元数据库2. hive-site.xml相关meta连接信息检查 三. 正解 一. 问题描述 进入hive终端,执行如下命令报错: hive> show tables; FAILED: SemanticException org.apache.hadoop.hive.ql.metadata.HiveException: …

基于图片、无人机、摄像头拍摄进行智能检测功能

根据要求进行无人机拍摄的视频或图片进行智能识别,开发过程需要事项 1、根据图片案例进行标记,进行模型训练 2、视频模型训练 开发语言为python 根据需求功能进行测试结果如下 根据车辆识别标记进行的测试结果截图 测经过查看视频 8月1日

小白到运维工程师自学之路 第六十四集 (dockerfile构建tomcat、mysql、lnmp、redis镜像)

一、tomcat&#xff08;更换jdk&#xff09; mkdir tomcat cd tomcat/ tar xf jdk-8u191-linux-x64.tar.gz tar xf apache-tomcat-8.5.40.tar.gzvim Dockerfile FROM centos:7 MAINTAINER Crushlinux <syh163.com> ADD jdk1.8.0_191 /usr/local/java ENV JAVA_HOME /us…

解决多线程环境下单例模式同时访问生成多个实例

如何满足单例&#xff1a;1.构造方法是private、static方法、if语句判断 ①、单线程 Single类 //Single类&#xff0c;定义一个GetInstance操作&#xff0c;允许客户访问它的唯一实例。GetInstance是一个静态方法&#xff0c;主要负责创建自己的唯一实例 public class LazySi…

服务器安装系统教程

虽然装好了显卡&#xff0c;但是机器运行一会&#xff0c;CPU就飙升到100%。找售后解决&#xff0c;也没有完全解决。所以这次试试换个别的系统是否能修复。 本来计划是后面组raid、重装系统的&#xff0c;得&#xff0c;又提前了。 这里说一下&#xff0c;这个流程未必是最好…

ChatGPT在工作中的七种用途

1. 用 ChatGPT 替代谷歌搜索引擎 工作时&#xff0c;你一天会访问几次搜索引擎&#xff1f;有了 ChatGPT&#xff0c;使用搜索引擎的频率可能大大下降。 据报道&#xff0c;谷歌这样的搜索引擎巨头&#xff0c;实际上很担心用户最终会把自己的搜索工具换成 ChatGPT。该公司针对…

【FAQ】RTSP/Onvif协议安防监控EasyNVR调用接口录像会被自动删除是什么原因?

EasyNVR安防视频云服务是基于RTSP/Onvif协议接入的视频平台&#xff0c;可支持将接入的视频流进行全平台、全终端的分发&#xff0c;分发的视频流包括RTSP、RTMP、HTTP-FLV、WS-FLV、HLS、WebRTC等。平台丰富灵活的视频能力&#xff0c;可应用在智慧校园、智慧工厂、智慧水利等…

Docker Compose编排部署LNMP服务

目录 安装docker-ce 阿里云镜像加速器 文件 启动 安装docker-ce [rootlocalhost ~]# wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo --2023-08-03 18:34:32-- http://mirrors.aliyun.com/repo/Centos-7.repo 正在解析主机 m…

Hive数据仓库

数据仓库概念与起源发展由来 数仓概念 数据仓库&#xff08;英语&#xff1a;Data Warehouse&#xff0c;简称数仓、DW&#xff09;&#xff0c;是一个用于存储、分析、报告的数据系统。数据仓库的目的是构建面相分析的集成化数据环境&#xff0c;分析结果为企业提供决策支持…

iTOP-RK3568开发板Windows 安装 RKTool 驱动

在烧写镜像之前首先需要安装 RKTool 驱动。 RKTool 驱动在网盘资料“iTOP-3568 开发板\01_【iTOP-RK3568 开发板】基础资料 \02_iTOP-RK3568 开发板烧写工具及驱动”路径下。 驱动如下图所示&#xff1a; 解压缩后&#xff0c;进入文件夹&#xff0c;如下图所示&#xff1a;…

LeetCode 热题 100 JavaScript--102. 二叉树的层序遍历

给你二叉树的根节点 root &#xff0c;返回其节点值的 层序遍历 。 &#xff08;即逐层地&#xff0c;从左到右访问所有节点&#xff09;。 输入&#xff1a;root [3,9,20,null,null,15,7] 输出&#xff1a;[[3],[9,20],[15,7]] 示例 2&#xff1a; 输入&#xff1a;root [1…

Postgresql源码(109)并行框架实例与分析

1 PostgreSQL并行参数 系统参数 系统总worker限制&#xff1a;max_worker_processes 默认8 系统总并发限制&#xff1a;max_parallel_workers 默认8 单Query限制&#xff1a;max_parallel_workers_per_gather 默认2 表参数限制&#xff1a;parallel_workers alter table tbl …

easyui实用点

easyui实用点 1.下拉框&#xff08;input框只能选不能手动输入编辑&#xff09; data-options"editable:false"//不可编辑2.日期框&#xff0c;下拉框&#xff0c;文本框等class class"easyui-datebox"//不带时分秒 class"easyui-datetimebox"…

C++类与对象(上)

目录 类的定义类的访问限定符类的实例化类对象大小和储存方式this指针 C语言是面向过程的&#xff0c;关注的是过程&#xff0c;分析出求解问题的步骤&#xff0c;通过函数调用逐步解决问题。 C是基于面向对象的&#xff0c;关注的是对象&#xff0c;将一件事情拆分成不同的对象…

WSL2安装CentOS7和CentOS8

提示&#xff1a;文章写完后&#xff0c;目录可以自动生成&#xff0c;如何生成可参考右边的帮助文档 文章目录 前言一、下载ZIP包&#xff1f;二、安装1.打开Windows子系统支持2.安装到指定位置3.管理虚拟机4.配置虚拟机1.配置国内源2.安装软件3.安装第三方源 5.配置用户1.创建…

【ASP.NET MVC】数据到客户端(7)

前文ViewBag数据在服务端动态生成页面&#xff0c;也可以传到客户端浏览器供JS使用。 一、数据从控制器到客户端 前文介绍&#xff0c;动态生成页面时&#xff0c;控制器的数据 并没有传递到 客户端&#xff0c;而是给自己来用&#xff0c;生成View 再利用http传递到客户端浏…

神经概率语言模型

本文主要参考《A Neural Probabilistic Language Model》这是一篇很重要的语言模型论文,发表于2003年。主要贡献如下: 提出了一种基于神经网络的语言模型&#xff0c;是较早将神经网络应用于语言模型领域的工作之一&#xff0c;具有里程碑意义。采用神经网络模型预测下一个单词…

Linux环境下VS code的python与C++调试环境的安装

Linux环境下VS code的python与C调试环境的安装 文章目录 Linux环境下VS code的python与C调试环境的安装前言一、云服务器的环境二、VS code相关信息三、python 开发环境配置四、C开发环境配置1.测试main.cpp2.进行debug3.进行debug程序4.运行main.cpp程序步骤 前言 最近写的 C&…

Meta AI研究团队新AI模型: Llama 2 大语言模型

Llama是Facebook Research团队开发的基础语言模型集&#xff0c;旨在提供广泛的语言理解能力。它基于转换器架构&#xff0c;参数范围从7B到65B。通过使用Llama模型&#xff0c;研究人员和开发人员可以构建更先进的自然语言处理系统。您可以在GitHub上找到相关的代码和资源&…

【BASH】回顾与知识点梳理(二)

【BASH】回顾与知识点梳理 二 二. Shell 的变量功能2.1 什么是变量&#xff1f;2.2 变量的取用与设定: echo, 变量设定规则: set/unset2.3 环境变量的功能用 set 观察所有变量 (含环境变量与自定义变量)export&#xff1a; 自定义变量转成环境变量那如何将环境变量转成自定义变…