炸裂——关于Azure OpenAI的几个更新

   感觉好久没有写随笔了,虽然从年初至今,一直被持续不断涌现的新 AI 消息震惊,也一直不断组织和参与各种 AI 相关的活动、直播,但确实挺久没有写文字了。今天是下半年的第一天,也是暑假的第一天,忙完家务,晚上正好趁着最近几个更新写几笔。

   从 GPT-3 惊艳世界开始,到 Azure OpenAI 的发布,到 GPT-4…这段时间真的是——根本停不下来。首先容我得瑟一下,我应该算是第一批用上 AOAI 的、特别是 GPT-4 模型 AOAI 的人了。这需要感谢 Microsoft MVP 计划,以及 Azure 和 AI 奖励方向之下 PG 对我们的支持。正如大家知道的,OpenAI 在我生日那天(算上时差哈哈),发布了新的模型版本 0613,同时也提供了新的使用 GPT 的方式——Function calling。

   得知这一消息后我第一时间就联系了 PG,他们反馈说月底这个模型版本就会部署到 AOAI 上,function calling 则还需要等一阵子。可惜限于 NDA 的约束,我不能公开这个好消息。今天,我终于把自己 AOAI 的模型部署升级到了 0613 版本。

Azure OpenAI Studio

   先看看 AOAI 的工作室有些什么更新。

升级部署模型

   有了 0613 版本,当然是要升级了。升级模型版本并不需要删除现有模型,也不需要部署一个新的,只需要“编辑部署”,然后在模型版本处,选择需要的模型版本就行。

349efc9efa05e7485c877e661da46672.png

   当然,如果想省事情,直接选择自动更新也行。AOAI将会自动把模型更新到新版本。

ea5f680b4c7e3ac9ef976f8f52d73242.png

   上图可以看到,我把 GPT-3.5-turbo 和 GPT-4/32K 的几个模型都升级到最新的 0613 了。一会试试有什么不同。

调整内容过滤

   细心的你可能发现了,在 Content Filter 这一列,有几个模型没有使用默认的值,取而代之的是一个另外的内容过滤器。内容过滤是 AOAI 使用多模态大语言模型模型的重要组成部分,负责对用户输入的提示,以及模型的输出内容进行筛选过滤,避免出现诸如仇恨、色情、自残和暴力等内容。

f03bc783b9b378bf82f690fb7615f43e.png

   默认内容过滤是开启的,且不能被关闭。默认设置为低,可以改成中或高。内容过滤有效的避免了不适当的内容进入到人和模型的交互,对于运行在 Azure 的 OpenAI 模型,触发内容过滤还会导致微软的人工审核。但对于一些研究场景来说,可能需要观察未开启内容过滤的提示过程,或者设置调试自己的内容过滤流程或模型。因此微软也提供了自定义内容过滤的选项,前提是填表申请,通过之后就可以像上图一样,进行自定义设置了。

使用自己的数据

   全称应该是“在 GPT 的 Chat Playground 通过认知搜索使用自己的数据”这么长吧……

   这个功能在 Build 以及之前的 PGI 会议看到过。最早结合认知搜索的 GPT 使用示例其实是通过 Azure 模板等手动部署的,使用了很多 Python 代码和其他。所以一看到 AOAI Studio 里面可以直接配置,还是挺兴奋的,当时也是问 PG 什么时候可以使用——很快。于是现在我们就看到了~

925db68cd7f4e7fab3c4ad4903d6cab4.png

   我看了一下,不论是直接使用 Azure 认知搜索,或让认知搜索使用 Azure Blob 存储,还是上传文件到 Blob 存储再使用认知搜索(这不是差不多一码事么…)都离不开使用认知搜索服务。

c66b9954a33d6fe8a3a66c9c39081480.png

   直接使用配置好的 Azure 认知搜索,只要指定认知搜索服务实例,并指定索引。

b29efdc8efcacad6ded656a8bae2168c.png

    选择使用 Azure Blob 存储的话,就需要指定已有 Blob 存储的实例和容器,然后连接到认知搜索实例上,指定索引。

0291b5e814abfebd9d83ca9ffded14ab.png

   如果选择上传文件,其实也是指定 Blob 存储实例。可以自动配置好 CORS 设置,然后连接到认知搜索实例,指定索引。

   这几种方式,都需要使用非免费定价层的认知搜索(注意图中黄色提示)。所以我暂时都没创建。等开个非免费定价层的实例运行,再另外写一点吧。

直接发布WebApp

   在我拿到 AOAI 的预览不久,我就很想把这个 GPT 模型做成一个 Web 应用,这样其他人就可以通过浏览器,而不需要通过访问 AOAI 工作室来使用 GPT 了。为了实现这个目的,我还特意用 Python 写了点代码放在 Hugging Face 上,通过 API 调用来实现。

   ( https://huggingface.co/spaces/haohoo/Azure-OpenAI-QuickDemo )

   如今,做这件事就太简单了~

4e2fe79697aeab9a4d8eed875249874a.png

‍    在 Azure OpenAI Studio 里,进入聊天的 Play Ground,在右上角可以看到多了一个 Deploy to 的按钮,通过它就可以直接将当前的 Playground 部署到 Web App。

8a97e628d0ae38f6bd6c57d6b4c620e5.png

‍   整个部署过程都是自动的,需要说明的是,部署的 WebApp 会使用 Azure AD 作为用户验证方式。想让其他人来访问你的 Chat App,可以在 AAD 的控制台里添加用户和 B2B/B2C 账户。

8d5194da2a3fdf2746a9c5ade4b6d76b.png

   看,不用写一行代码,你专用的 ChatGPT 站点就有了~整个具体的过程,到时候和使用自己的数据一起再开一篇吧。

Azure ML Studio

   再看看机器学习工作室有啥更新吧。

   我告诉你 Build 上被惊艳了之后,我就通过 PG 整了整“船新”的 ML Studio,可惜 NDA 不能说,只在 Build After Party 上偷偷秀了一下,可憋坏我了。现在终于发布 PuPr,也就是 Public Preview 了,那么就可以放开聊聊了。

模型目录

   如以往的活动和文章介绍,机器学习工作室是学习使用机器学习的一站式工作环境。对于不同要求和基础的用户,提供记事本、脱拽式机器学习管道线设计器和自动化机器学习。现在,机器学习工作室又新增了模型目录功能。

f0e8ed580c37b02e5a6eeb9399130b7c.png

   如图所示,在新推出的模型目录中,除了由 Azure ML 提供的可用模型,也将很多开源社区 Hugging Face 的模型放进了模型目录。可以按照模型分类和许可类型筛选模型,也可以在搜索框里使用关键字查找模型。如果模型未出现在目录中,可以点击右上角“建议模型”建议微软将模型放入目录。

   点击目录中的模型,会显示简介以及模型发布的链接,例如 Hugging Face 目录中的可以链接到模型卡。如果已经有示例部署,可以直接进行模型的尝试。模型的一些示例和性能参考也会提供,甚至有示例的记事本直接运行。如果觉得合适就可以直接部署,和以往机器学习工作室部署模型一样,部署模型可选实时终结点和批处理终结点。

b56f6b70aa9a70538817c97deb4f896a.png

   而实际在 Hugging Face 站点上,也可以将 Azure ML 支持的(已经引入的)模型直接部署到 Azure ML 服务。

f52e0fbcb33039d357ebabdcdd2c8e53.png

   可以通过 AzureML Studio 按钮打开机器学习工作室、Python 代码或使用 YAML描述的 CLI Shell 进行部署。

4c07522be839428a9b18b321486e7632.png

   Python 或 Shell 自动部署时,需要提供 Azure 订阅、资源组名称、ML 工作空间名称等信息。以 Python 为例:

import time# follow steps here to connect to workspace: https://aka.ms/AzureML-WorkspaceHandlePython
ml_client = MLClient(credential=DefaultAzureCredential(),subscription_id="<SUBSCRIPTION_ID>",resource_group_name="<RESOURCE_GROUP>",workspace_name="<WORKSPACE_NAME>",
)
# fetch model
registry_ml_client = MLClient(credential=DefaultAzureCredential(), registry_name="HuggingFace"
)
foundation_model = registry_ml_client.models.get("<model-name>", version="<model-version>"
)
# create endpoint
endpoint_name = "hf-ep-" + str(int(time.time())
)  # endpoint name must be unique per Azure region, hence appending timestamp
ml_client.begin_create_or_update(ManagedOnlineEndpoint(name=endpoint_name)).wait()
# create deployment
ml_client.online_deployments.begin_create_or_update(ManagedOnlineDeployment(name="demo",endpoint_name=endpoint_name,model=foundation_model.id,instance_type="Standard_DS2_v2",instance_count=1,)
).wait()
endpoint.traffic = {"demo": 100}
ml_client.begin_create_or_update(endpoint_name).result()
# go to Endpoints hub in AzureML Studio to get the endpoint URL and test your endpoint

提示流

   更新的 Azure ML Studio 提供了提示流的预览。何谓提示流呢?如果你已经是 Azure 机器学习工作室的老司机,你肯定知道在设计器里,通过拖拽就能建立起机器学习的管道线。提示流就是将我们说的提示工程,使用这种可视化管道线的方式进行设计,然后运行起来。

83bdaa6e0ffdb495a79fa8335c0f107f.png

   光说肯定难理解,不如就看看提供的示例吧。下图是一个跟 Wikipedia 在线百科全书站点聊天的提示流示例。首先设置一个输入模块,提供会话历史和提出的问题。由于使用的 GPT 模型的 Chat 方式,会话历史和我们使用 API 调用 一样,需要 List。然后设置一个输出模块,用于显示 GPT 模型的输出。

846132bfeec94affc773a2016d7d9475.png

   在输入和输出之间,还有几个模块处理整个提示流。

首先是“从问题中解析查询”,通过 GPT 的完成方式,从自然语言的问题中,解析出需要查询的关键字。在示例里,使用了单样本提示,将传入的会话历史作为参考,将输入的提问作为人类输入,将 GPT 完成的输出作为 AI 的输出。

   接下来是“获取搜索的URL”,使用 Wiki 自己的查询,将上一模块输出的查询关键字构造为 Wiki 的查询 URL,并且获取查询给出的 URL。

   再下来是“URL的搜索结果”,通过前一步骤获得的 URL 访问 Wiki,并将内容转化为文本输出。

   如果你也使用过 new Bing 的 chat 功能,估计看过对话回复中会提供引用内容的链接。所以在接下来的模块里,需要“处理搜索结果”,将前一步骤获得的内容加上引用的 URL。

   内容有了,现在可以让 GPT 来聊天了。在这一模块里,使用 GPT 模型的 Chat 方式,对 system 角色进行定义,规范 GPT 的输出方式,然后引用前一模块的内容输出以及会话历史,构成完整的上下文。user 角色会添加输入模块的问题, assistant 角色会添加输出的答案。调用 GPT 的 Chat 方法,就能够输出关于查询 Wiki 之后,以自然语言表述对话的结果了。

   这样的提示流基本上不用写代码,或只需要简单修改代码,即可完成一些常见的 ChatGPT 的要求,逻辑上说我们也可以基于这样的示例,做一个和 new Bing 差不多的聊天应用。可以看到,提示流的设计方式大大地降低了定制使用 GPT 的复杂度。

   一篇随笔里放了不少惊艳的更新,可惜篇幅有限。后续看看把这些更新再单独做一些更详细的介绍吧~ 顺手把下面几个图标都点一下吧,哈哈哈多谢啦~

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/13002.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

腾讯员工痛诉:从阿里来的同事秀“内卷”

推荐专门分享AI技术的公众号 关注后&#xff0c;回复&#xff1a;ChatGPT &#xff0c;领取账号 来源丨蚂蚁大喇叭 https://mp.weixin.qq.com/s/DblmMOXYQ7yHE_NbhaGoCA 反内卷&#xff0c;你该反的是你周围的“卷王”同事&#xff01; 最近大厂员工手撕领导&#xff0c;反内卷…

为什么是毫末智行成为了DriveGPT的破壁人?

作者 | 魏启扬 来源 | 洞见新研社 毫末智行有着天生的紧迫感。 很多科技公司一年才举办一次的品牌日活动&#xff0c;毫末智行硬是办成了一个季度一次&#xff0c;活动频次的提高&#xff0c;则意味着组织内部新陈代谢的提速&#xff0c;从研发到落地乃至运营&#xff0c;都要…

有了数据湖,数据仓库究竟能不能被取代?

ChatGPT狂飙160天&#xff0c;世界已经不是之前的样子。 新建了人工智能中文站https://ai.weoknow.com 每天给大家更新可用的国内可用chatGPT资源 数据湖是近两年中比较新的技术在大数据领域中&#xff0c;对于一个真正的数据湖应该是什么样子&#xff0c;现在对数据湖认知还是…

DriveGPT自动驾驶大模型中国玩家首发!1200亿参数,毫末智行出品

贾浩楠 发自 凹非寺量子位 | 公众号 QbitAI 早知道会有这一天&#xff0c;但没想到如此快&#xff1a; GPT技术&#xff0c;“上车”&#xff01; DriveGPT&#xff0c;首个应用GPT模型和技术逻辑的自动驾驶算法模型&#xff0c;正式官宣&#xff0c;中文名雪湖海若。 可能你已…

写个AI虚拟主播:看懂弹幕,妙语连珠,悲欢形于色,以一种简单的实现

这不是你期望的介绍深度学习大模型的文章。而是使用人人都能理解、编程、运行的简单技术&#xff08;包括机器学习和非机器学习技术&#xff09;&#xff0c;通过一系列工程进行整合、组装&#xff0c;从而实现一个 AI 虚拟主播的故事。 muvtuber 让 AI 成为虚拟主播&#xff…

chatgpt赋能python:Python遍历-一种高效的数据处理技术

Python 遍历 - 一种高效的数据处理技术 对于程序员来说&#xff0c;数据处理是一个常见的任务。而在处理数据时&#xff0c;遍历是最常用的技术之一。Python 是一种强大的编程语言&#xff0c;它提供了很多用于数据遍历的工具和函数。在本文中&#xff0c;我们将介绍 Python 中…

ChatGpt输出结果时,文字中间有一根长长的删除线标记是什么意思?(ChatGpt删除线标记)

如图&#xff0c;这根删除线的含义是&#xff1a; 表示该文字不可信或是不准确的&#xff0c;建议仔细核实其内容。 这是系统为了提醒用户注意文字中可能存在的错误&#xff0c;避免对实际操作产生误导。

Stack Overflow 临时禁用 ChatGPT 生成内容,网友:人类和AI快打起来!

如果有一天我们查询到的「知识」真假难辨&#xff0c;那这就太可怕了。 要问最近 AI 圈哪个模型最火爆&#xff0c;你不得不把 OpenAI 推出的 ChatGPT 排在前面。自从发布以来&#xff0c;这个对话模型可谓是出尽风头&#xff0c;很多人更是对其产生了一百个新玩法&#xff0c;…

chatgpt开发内核定时器模块的完整过程

描述任务需求后&#xff0c;几乎在同一时刻chatgpt给出响应&#xff0c;开始进入代码刷屏模式&#xff0c;coding过程中还不忘给代码添加注释。 要求它顺便将Makefile文件写好提供给我&#xff0c;刷完代码后&#xff0c;进跟着开始刷Makefie文件&#xff1a; 编译生成的代码时…

MyBatisX插件没有出现蓝色鸟

如题&#xff0c;新版1.5.~的MyBatisX插件下载后&#xff0c;只有xml文件前出现红色鸟&#xff0c;对应的mapper接口中没有蓝色鸟。 解决办法&#xff1a;在idea中卸载掉该插件&#xff0c;加入插件页面中给出的qq群号&#xff0c;去群文件里下载1.4版本的压缩包&#xff0c;并…

新概念2-课文名称和知识点

目录 一、新概念2课文特点 二、新概念2知识点 1、新概念2知识点思维导图 2、简单句的核心 3、简单句的扩展 4、复合句 三、新概念2课文明细 一、新概念2课文特点 1&#xff09;总计96篇课文&#xff0c;4个单元&#xff0c;每个单元都是逐步加深知识点 2&#xff09;一…

蓝鸟BIP-1300无线终端解锁未签名程序运行权限

我司有一批BIP-1300&#xff0c;安装WM6系统。因为机器服役时间过长&#xff0c;系统很慢&#xff0c;于是将其中两台机器恢复了出厂设置。&#xff08;F6Reset&#xff09; 但是出现了一个问题&#xff0c;重置后的系统拒绝执行未经签名的应用程序&#xff0c;也拒绝Windows …

ChatGPT 成学生“作弊神器”?教授:“我感到极度恐惧”

上线没到一个月&#xff0c;ChatGPT 已经被网友玩出了“花”&#xff1a;写诗、编剧本、写代码、做计算题……在 ChatGPT 获得颇多赞誉的同时&#xff0c;近来一些学术界教授却发现了它另一种令人担忧的用途&#xff1a;学生正在利用 ChatGPT 代写论文。 为此&#xff0c;弗曼…

ChatGPT已死?AutoGPT太强?

今天聊聊 AutoGPT。 OpenAI 的 Andrej Karpathy 都大力宣传&#xff0c;认为 AutoGPT 是 prompt 工程的下一个前沿。 近日&#xff0c;AI 界貌似出现了一种新的趋势&#xff1a;自主人工智能。 这不是空穴来风&#xff0c;最近一个名为 AutoGPT 的研究开始走进大众视野。特斯拉…

Midjourney|文心一格 Prompt:完整参数列表、风格汇总、文生图词典合集

Midjourney|文心一格 Prompt&#xff1a;完整参数列表、风格汇总、文生图词典合集 1.Midjourney 完整参数列表 参数名称 调用方法使用案例注意事项V5V4V3niji版本在关键词后加空格&#xff0c;然后带上版本参数&#xff1a; --v 或者 —v –version 或者 —versionvibrant cali…

AI本地绘画软件(无需联网)+7Glatest模型+10G数据整合包

今年的AI技术实在太强了......AI对话、AI绘画...后面围绕AI演变出的无数产品正在跃跃欲试&#xff0c;颇有种让人跟不上时代的感觉;如果说ChatGPT是AI对话领域的老大哥&#xff0c;那么Midjourney就是全网最强的AI绘画平台&#xff0c;只要关键词描述得够好&#xff0c;它生成的…

元宇宙走进现实,被黑科技普照的生活日常真的来了

开年热播的《三体》&#xff0c;开启了对科技文明的全新想象。今年ChatGPT更是引发热议&#xff0c;人工智能、科技创新成为高频词汇&#xff0c;“元宇宙看两会”系列更是融合了比特数智人形象生成、AR互动技术、定位跟踪等技术&#xff0c;将科技互动感和沉浸感拉满。当下&am…

2023上海车展,智能汽车发烧友逛展攻略

来了&#xff0c;来了&#xff01;我们来了&#xff01; 2023上海国际汽车工业展览会&#xff0c;上海国家会展中心&#xff0c;一直持续到4月27日&#xff01; 各大汽车先锋企业汇聚于此。诸多全球首发/国内首发新车首次展现锋芒&#xff0c;众多领先汽车科技集聚于此。 什…

巴比特 | 元宇宙每日必读:美国网红利用“AI版的自己”和网友谈恋爱,收费每分钟1美元,GPT时代,数字人会变得更加普及吗?...

摘要&#xff1a;据科技新知报道&#xff0c;国外拥有180万粉丝的Snapchat网红Caryn Marjorie&#xff0c;开发AI版本的自己&#xff0c;结合GPT-4&#xff0c;利用不同版本的Caryn AI和粉丝谈恋爱&#xff0c;按分钟收费。除了视频博主&#xff0c;线上讲师、带货主播、导游、…

想成为顶级 AI 绘画师?先让这 7 个平台帮你成为 Prompt 高手

ChatGPT 的流行使得 AI 成为 2023 最大的科技风口&#xff0c;同时驱动了各种类型的 AI 发展。这些 AI 正在改变甚至颠覆很多行业的业务模式。ChatGPT 推动了 生成式 AI 革命的到来&#xff0c;这正在彻底颠覆内容的生产方式。自PGC、UGC 之后&#xff0c;内容生成终于迎来下一…