ChatGPT可以做WebRTC音视频质量性能优化,惊艳到我了

摘要

随着GPT-4的发布,AI的风越吹越旺。GPT-4可以回答问题,可以写作,甚至可以基于一张草图生成html代码搭建一个网站。即构社区的一位开发者@倪同学就基于目前在研究的WebRTC QoS技术点对GPT-3.5跟GPT-4进行一场实验,ChatGPT会取代程序员还是成为最强辅助?

以下为@倪同学的博文。


ChatGPT取代程序员还是给程序员加Buff?

这两周,AI新闻一个接着一个,3月23日,Google开放了内测已久的AI对话服务Bard,Google强调,这是一款定位为用户提供创意之源的产品,可生成写作草稿或生活中的聊天机器人。早在一周前3月15日凌晨,OpenAI距发布GPT-3.5后四个月发布了升级版模型GPT-4,据发布会说,GPT-4可支持图片输入,角色扮演,写作能力更强了。紧接着3月16日百度发布了文心一言,一共有五大功能:文学创作、商业文案创作、数理逻辑推算、中文理解、多模态生成。

随着近日各大厂商AI产品的接连发布,AI取代人工这个话题持续在发酵。AI大幅解放人的生产力或是将冲击一大批职业?

博主近期在输出WebRTC相关的技术博客,不如向AI提问看他有什么见解。

和大部分人一样,博主都还没拿到Bard跟文心一言的内测资格。得知New Bing用的是GPT-4的模型,下面就着WebRTC通过哪些QoS技术提升音视频通话质量,向GPT-3.5和Newbing(GPT-4)分别提问,看看他们的答案有何差异。

如下图,技术科普类问题都难不倒GPT-3.5和GPT-4,我就该问题继续深挖让它们举实例说明:

New Bing(GPT-4)

WebRTC Qos 技术概览776.png

GPT-3.5给出的结果

WebRTC Qos 技术概览791.png

New Bing(GPT-4)直接给出了具体操作实例

WebRTC Qos 技术概览821.png

GPT-3.5给出的结果(有些空泛)

WebRTC Qos 技术概览844.png

GPT-4和GPT-3.5对比结论

通过实验,我们比较了同一问题两个版本的回答。在普通的文本处理当中,GPT-4和GPT-3.5的区别可能比较小,但是当问题足够具体和复杂时,GPT-4就会比GPT-3.5更精准、更有创意,而且能够处理用户更细微的指令。

当然,本篇内容不是要讨论GPT-3.5跟GPT-4的具体差别,而是程序员如何利用ChatGPT提升工作效率,加上最强Buff。以下我将以个人开发经验为音视频开发者分享《WebRTC的QoS如何提升音视频质量》。

WebRTC技术概述

WebRTC 通过一系列的QOS 技术来提升音视频通话质量: 抗丢包策略(NACK、 FEC), 拥塞控制策略(TWCC/REMB), SVC或多视轨, 视频质量自适应策略, Pacer、JitterBuffer等.

总体QOS架构如下图所示:

WebRTC Qos 技术概览1225.png

图 1

1 丢包恢复策略

1.1 NACK

NACK(Negative Acknowledgment)相较于ACK是通过"非到达确认"进行选择性重传的机制。基本原理是发送端对数据进行缓存,接收端通过到达包连续性检测丢包,结合rtt 和乱序情况在合适的时机向发送端发起重传请求。

WebRTC Qos 技术概览1398.png

图 2

如图所示,Receiver在收到报文4之后发现报文2、3未到达,暂时将报文2、3放入丢失nack列表。在超过一定乱序阈值(通过乱序直方图计算得到,假设这里是2,那么收到包4可认为包2丢失),或者超过一定抖动时间(根据rtt计算),向Sender请求重传丢失的报文2、3。 Receiver的请求通过RTP FB 发送给Sender, 具体NACK 请求格式参考RFC4585。Sender 在收到NACK请求后重新发送报文2、3。

值得注意的是,NACK 策略丢包恢复效果取决于重传请求时机。一是rtt的计算(webrtc 默认rtt是100ms),一是乱序阈值计算。重传请求节奏控制不好容易造成重传风暴,加重拥塞导致拉流出现卡顿。

参考:https://www.rfc-editor.org/rfc/rfc4585.html#page-34

1.2 FEC

FEC(Forward Error Correction),前向纠错, 在数据传输和存储中普遍用于数据纠错。WebRTC中也使用了该技术进行丢包恢复。

webrtc实现该冗余功能,有三种方式:

1.2.1、RED

将前面的报文直接打入到新包里面,在接收端解析主包和冗余包。

WebRTC Qos 技术概览2037.png

图 3

如图,后面的报文直接包含前面报文,所以当其中某个报文丢失了,可以通过其相邻报文直接恢复。这种方式缺点是抗连续丢包效果差,但是实现简单。

Opus In-band FEC 正是使用这种方式进行纠错: 将重要信息以较低的比特率再次编码之后添加到后续数据包中,opsu 解码器根据收包情况决定是否利用当前包携带的冗余包进行丢包恢复。

Opus In-band FEC 详细参考:https://datatracker.ietf.org/doc/html/rfc6716#section-2.1.7

RED 详细介绍参考:https://www.rfc-editor.org/rfc/rfc2198.html

1.2.2、ULPFEC

在多个数据包之间使用 XOR 来生成此冗余信息,并能够在需要时在接收方恢复丢失的数据包。 ULPFEC 能够通过选择受保护的字节数并应用 XOR 的先前数据包的数量,为不同的数据包提供不同级别的保护。

WebRTC Qos 技术概览2659.png

图 4

如图,FEC packet 1 保护L0级报文A、B。 FEC packet 2 及保护L0级的A、B, 也保护L1级报文C、D。

参考:https://www.rfc-editor.org/rfc/rfc5109.html

1.2.3、FLEXFEC

较ULPFEC,FLEXFEC可以灵活选择1D行异或、列异或以及2D行列异或,增加网络抗丢包能力。

1-D 行异或纠错

WebRTC Qos 技术概览2932.png

图 5

1-D 列异或纠错

WebRTC Qos 技术概览2963.png

图 6

2-D 行列异或纠错

WebRTC Qos 技术概览3000.png

图 7

FLEXFEC 虽然相比前面两个有更强的恢复能力,行列交错丢包比如图7中(1、2、5、6)丢失就会出现无法纠错的情况。

WebRTC 用到FEC策略整体丢包恢复能力都偏弱,业界普遍应用Reed-Solomon FEC 进行丢包恢复,Reed-Solomon FEC(K + N : K个数据包 N个FEC包)可以真正恢复分组内任意 <=N 个丢包。

FLEXFEC 详细实现可以参考:https://www.rfc-editor.org/rfc/rfc8627.html

2 带宽评估及码率控制

2.1 REMB-GCC

WebRTC Qos 技术概览3361.png

图 8

图8是REMB-GCC 架构图,基本思想是通过接收端评估带宽, 然后通过RTCP REMB 将带宽反馈给发送端。 发送端结合丢包率计算一个带宽结果As,和RMEB的结果Ar, 取min(As, Ar)作为最终带宽结果。

2.2 SendSide BWE

WebRTC Qos 技术概览3565.png

图 9

REMB-GCC 相比,TFB-GCC 主要区别在于大部分带宽计算都转移到发端计算,滤波器的实现不再用Kalman 滤波 而是变成TrendLine 滤波器

发送端发送的包需在扩展头带: Transport-wide sequence number.

接收端定期发送Transport-wide feedback报文,通知发送端和接收端接收报文的相关信息,包括报文到达时间、报文到达时间、报文格式等信息。发送端收到Transport-wide feedback 报文之后,根据报文携带的信息进行延迟滤波计算(Trandline).

Transport-wide feedback 报文格式参考:https://datatracker.ietf.org/doc/html/draft-holmer-rmcat-transport-wide-cc-extensions-01

2.3 速率控制

WebRTC Qos 技术概览4127.png

图 10

WebRTC Qos 技术概览4149.png

图 11

根据过载检测器产生的信号 s,驱动如图10所示的有限状态机来调整码率。

GCC 算法原理详细参考:https://c3lab.poliba.it/images/6/65/Gcc-analysis.pdf

3 SVC 、多视轨

3.1 SVC

SVC (Scalable Video Coding,可适性视频编码或可分级视频编码) 是传统 H.264/MPEG-4 AVC 编码的延伸,可提升更大的编码弹性,并具有时间可适性 (Temporal Scalability)、空间可适性 (Spatial Scalability) 及质量可适性 (SNR/Quality/Fidelity Scalability) 三大特性。

WebRTC 中h264 不支持svc 编码,Vp8 仅支持Temporal Scalability, VP9 和AV1 支持时间可适性 (Temporal Scalability)、空间可适性 (Spatial Scalability)。

WebRTC Qos 技术概览4684.png

WebRTC Qos 技术概览4693.png

图12

上面是时间可适应示意图。假设图例中显示的图层以30 fps的帧速率显示。如果我们移除所有L2层的图片,剩下层(L0和L1)仍然可以成功解码,并且产生一个15fps的视频。如果我们进一步删除所有的L1图像,那么剩下的L0层依然可以被解码并产生一个7.5fps的视频, 所以即便是出现丢包,相比不可分级编码可明显提升弱网视频流畅度。

WebRTC Qos 技术概览4881.png

图 13

如图12,L0基层为分辨率最小编码数据,级别越高,分辨率越高。当实际应用中需要较低分辨率时,只需丢弃高Level层级数据进行解码。

针对不同的带宽条件用户和以及不同设备性能的用户可以灵活调整分辨。

SVC 扩展参考: http://ip.hhi.de/imagecom_G1/assets/pdfs/Overview_SVC_IEEE07.pdf

SVC 与 H264 结合参考: https://www.itu.int/rec/T-REC-H.264-201704-I

3.2 多视轨

目前主流浏览器都支持unified-plan sdp, 我们可以在sdp协商的时候添加多个视轨,业务上比较常见的就是添加两条视轨(类似于SVC的Spatial Scalability),复用相同DTLS 传输通道。

WebRTC Qos 技术概览5404.png

图 14

图12 典型利用WebRTC 支持多视轨特性编码一大一小两条流的出帧示意图。

支持多视轨(大小流) 可以让接收端在下行带宽受限的情况下动态切换到可以支持的分辨率,提升弱网体验。

多视轨(大小流)在对网络丢包及带宽受限情况的适应不如SVC 灵活,但是多视轨实现简单,编码、解码性能消耗较低,在实际的业务场景中得到广泛应用。

多视轨需要支持Unified Plan SDP 协商, 参考WebRTC 相关说明:https://webrtc.github.io/webrtc-org/web-apis/chrome/unified-plan/

4 视频质量调整策略

在网络传输质量变差(上行带宽不足)、CPU占有率过高,编码器编码质量QP值过大等情况下,WebRTC会通过降质量来保障视频通话。降质量策略主要分降帧率(即清晰优先模式)和降分辨率(即流畅优先模式),通过MediaStreamTrack Content Hints 来设置。

清晰优先模式 WebRTC 在编码的时候更注重视频细节,在出现上述情况需要降质量时,会通过降低帧率、保持分辨率不变来保障拉流用户的主观感受。对于推流端做屏幕分享内容是PPT或者拉流用户大屏显示的业务场景尤为重要。

流畅优先模式 推流端在需要降质量的时候优先降低分辨率、保持一定的帧率来保障拉流用户的流畅体验。

在带宽或CPU资源等不再受限时,WebRTC会根据降质量偏好设置逆向提升视频质量。

使用者应该根据自己的业务场景进行适当设置,才能在极端情况下保证主观体验不至于太差。

5 Pacer

WebRTC 的Pacer 模块主要是让需要发送的包根据评估的网络带宽尽量均匀的分布在每个发送时间窗口发出,起到平滑发包、避免网络拥塞的作用。

假设有一条 5Mbps 和 30fps 的视频流。 在理想情况下,每个帧大小约为 21kB,打包成 18 个 RTP 数据包。 按照一秒时间窗口统计的平均比特率是 5Mbps,但在更短的时间范围内,它可以被视为每 33 毫秒突发 167Mbps。 此外,视频编码器在突然移动的情况下会超过目标帧率,尤其是在处理屏幕共享时,帧比目标尺寸大 10 倍甚至 100 倍很常见。 这些数据包如果编码完成马上发出去会导致几个问题: 网络拥塞、缓冲区膨胀、甚至数据包丢失。 大多数会话都有不止一条媒体流,可能同时包含音频流、视频流、数据流。 如果你一次性将一个帧放在一条传输通道发送,这些数据包需要 100 毫秒才能发出,这可能阻止了任何音频数据包及时发送出去。 Pacer通过有一个缓冲区来解决这个问题。 媒体包在其中排队,然后使用漏桶算法将它们调整到网络上。 缓冲区包含所有媒体轨道的独立 fifo 流,例如 音频可以优先于视频 - 可以以循环方式发送相同优先级的流,以避免任何一个流阻塞其他流。

WebRTC Qos 技术概览6707.png

图 15

6 JitterBuffer

WebRTC Qos 技术概览6752.png

图 16

WebRTC 接收端收到RTP包后,放到PacketBuffer 进行缓存和排序。如上图,在收到Mark(帧结束)标志之后,从后往前开始组帧。组完一帧会放到该帧所在GOP的缓存里面,根据帧间参考顺序进行调整,当帧间参考关系建立好之后就会放到解码器进行解码。可以认为Jitter 主要先后做包排序、帧排序、GOP排序。之所以要进行着一系工作是因为网络本身存在一定的抖动、甚至有丢包,如果有丢包还得等丢包恢复才能完整组帧,所以导致帧到达时间跟发送时间存在一定抖动。Jitter buffer 的存在就很好的解决这个问题,能够在拉流端对待解码数据进行平滑处理,保证我们渲染出来视频是平滑、流畅的。

7 关键帧请求

视频流通常是以1个关键帧+ N个增量帧的方式发送,这些增量帧依赖于先前的帧进行解码和显示。如果因为一些原因导致sps/pps 丢失、 组包错误等,如果不采取任何补救措施,就很难继续解码视频流,视频就会卡主, 直到下个关键帧。很多时候为了编码稳定GOP设置很大,这个时候意味着长时间卡顿或者黑屏。

WebRTC Qos 技术概览7235.png

图 17

如图接收端因为丢包不能恢复导致Frame 9 组帧失败,后面即使能组帧成功也无法解码,此时需要从发送端请求一个I帧解码刷新当前视频流。

WebRTC通过RTCP报文向发送端请求发送关键帧,关键帧请求RTCP报文格式比较简单,在RFC4585(RTP/AVPF)以及RFC5104(AVPF)规定了两种不同的关键帧请求报文格式:Picture Loss Indication (PLI)、Full Intra Request (FIR)。从目前的实现看WebRTC 在收到PLI或者FIR之后,都是让编码器编码输出关键帧,然后发送给接收端。

PLI 报文格式参考: https://www.rfc-editor.org/rfc/rfc4585.html#page-36

FIR参考: https://www.rfc-editor.org/rfc/rfc5104.html

QOS技术总结:

本文简单介绍了WebRTC中所使用到的Qos技术,这些技术从不同的角度去提升Qos质量。包括通过NACK、FEC技术对丢包进行恢复,解决丢包导致的音、视频卡顿。通过带宽评估和拥塞控制技术调整编码和发送码率来自动适应网络带宽的变化情况。通过SVC、多视轨技术保障不同网络质量的拉流的用户差异的视频质量。 而Pacer、JitterBuffer分别在发送端和接收端提升音视频的平滑、流畅度。关键帧请求对极端网络抖动之后的快速视频恢复起了重要作用。WebRTC 利用这些技术协同作用,提升整体的Qos 质量,需要了解技术细节最好的方式还是去阅读WebRTC源码。

WebRTC 的Qos技术对提升整体音视频质量效果显著、但WebRTC的这些技术还是存在有很多可以优化的地方。音视频厂商ZEGO即构自研的WebRTC网关对这些策略都做了一定的优化:包括自研带宽评估算法、NACK算法、大小流等。

所以,如果你的业务需要一款稳定可靠的音视频服务,可以试试即构实时音视频RTC服务。

点击跳转ZEGO即构实时音视频服务了解更多WebRTC最佳实践内容。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/2876.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

通过 ChatGPT 制作一个短视频

图文&#xff0c;生成视频 当通过 ChatGPT 生成连贯的 prompt 时&#xff0c;除了连环画&#xff0c;我们理所当然还可能畅想更激进的场景——生成动画视频。目前 AIGC 社区确实在生成视频方面有一定的尝试。比如 Deforum 可以通过多条 prompt&#xff0c;配合具体的切换时间点…

基于ChatGPT的视频智能摘要实战

随着在 YouTube 上提交的大量新视频&#xff0c;很容易感到挑战并努力跟上我想看的一切。 我可以与我每天将视频添加到“稍后观看”列表中的经历联系起来&#xff0c;只是为了让列表变得越来越长&#xff0c;实际上并没有稍后再看。 现在&#xff0c;像 ChatGPT 或 LLaMA 这样的…

使用ChatGPT打造短视频爆款开头, ChatGPT联网啦, 可以直接播放周杰伦的音乐

牙叔教程 简单易懂 第一步 采集爆款开头 采集短视频开头文案的教程之前已经写过了, 不会的看这个 某音如何自动化采集爆款开头-黄金5秒 对录制音频的建议 时间间隔在5秒左右 网易见外输出格式: srt字幕 备注 srt字幕输出后, 网易见外支持在线编辑字幕 提取出的文案开头…

如何让ChatGPT你写一个短视频脚本

很多网红博主以及各个领域的短视频博主都在使用的“AI编写视频脚本”&#xff0c;效率直接提升20倍↑↑↑&#xff01;很多自媒体平台对于ChatGPT的介绍很少&#xff0c;但是他们都在悄悄利用这个强大的AI来帮助处理工作。关于“如何利用ChatGPT编写视频脚本”这件事&#xff0…

如何使用ChatGPT帮助生成YouTube视频摘要?这个插件做到了!

最新在YouTube上看一些教程视频&#xff0c;有的视频时间较长&#xff0c;必须要花费很长时间去看&#xff0c;很浪费时间&#xff0c;同时也是很让人烦恼&#xff0c;但是我发现了一款特别好用的Chrome插件&#xff1a; YouTube视频摘要生成器-一键复制ChatGPT(中文版) 真是一…

保姆级教程,一分钟学会利用ChatGPT制作短视频

1. 概述 ChatGPT的名字相信大家并不陌生&#xff0c;不熟悉的朋友可以查看我以前的文章了解一下。今天我们来谈谈一个更通俗易懂的教程。这个教程将教你如何使用ChatGPT快速制作短视频&#xff0c;操作简单&#xff0c;容易上手。 在各大平台上&#xff0c;你可能看过很多使用…

【ChatGPT实践篇】给小孩制作一个数字人恐龙科普短视频

以下文章来源于飞书 1 科普文本生成 起初我也是试了不少prompts去让chatgpt自由发挥&#xff0c;生成恐龙科普文章&#xff0c;但科普内容要么过于复杂&#xff0c;要么过于宽泛&#xff0c;无法到达自己想要的效果。 既然如此&#xff0c;我决定定制化科普内容&#xff0c;…

【使用心得】2023版本ChatGPT做短视频编导

使用Chat GPT后&#xff0c;我发现它除了提供生活、学习等实用的信息外&#xff0c;还具备成为一位专业短视频编导的素养。在对剧情和拍摄技巧有诸多需求时&#xff0c;它给予我充分支持和建议&#xff0c;并以自身智能的特点让我快速了解每一个步骤。 Chat GPT可以提供广泛的短…

ChatGPT基本玩法

ChatGPT是一种基于大规模预训练的语言模型&#xff0c;可以用于各种自然语言处理任务。其基本玩法是使用预训练的模型来生成文本&#xff0c;可以用于对话生成、文本摘要、机器翻译等应用。下面我们来看一些具体的案例&#xff1a; 对话生成 ChatGPT可以用于对话生成任务&…

跟ChatGPT玩狼人杀,人类一败涂地

“如何用ChatGPT玩狼人杀&#xff1f;” UP主LUMO_Xu 突发奇想。为了解答这一问题&#xff0c;他做了一场大型实验。 自从ChatGPT问世以来&#xff0c;对于ChatGPT离谱的能力&#xff0c;网友们早已见怪不怪。 在B站&#xff0c;关于ChatGPT各种神奇用法的视频&#xff0c;更是…

将ChatGPT玩溜,玩赚自媒体

文 / 韩彬&#xff08;微信公众号&#xff1a;量子论&#xff09; 昨天用ChatGPT回答的关于“养猫”的话题&#xff0c;25个阅读&#xff0c;有1个喜欢&#xff0c;说明质量略好&#xff0c;但还要继续改进。 昨晚在研究OpenAI的最新模型GPT-3.5 Turbo的API&#xff0c;准备通过…

与ChatGPT玩文字冒险游戏[寻五宝石]

注&#xff1a;文中的图片来自另一个AI生成图片的程序。 我&#xff1a; 请重新开始一个文字冒险游戏。由你来描述游戏场景&#xff08;盗墓情节&#xff09;&#xff0c;由我来决定采取的动作。请详细描述场景中所有的物品、生物。 如果场景中的人物在对话或者跟主角对话&…

ChatGPT 玩「脱」了,写了份毁灭人类计划书,还遭到了 Stack Overflow 的封杀.........

【CSDN 编者按】OpenAI 的新通用聊天机器人原型 ChatGPT 可谓是风靡一时&#xff0c;但却突遭 StackOverflow 封禁。 整理 | 刘春霖 责编 | 张红月 出品 | CSDN&#xff08;ID&#xff1a;CSDNnews&#xff09; 在上周发布的《挑战 Google 搜索&#xff1f;OpenAI 发布最…

ChatGPT玩法大全火了,一键复制就能get同款效果:脱口秀张口就来,还能扮演哈利波特...

点击上方“视学算法”&#xff0c;选择加"星标"或“置顶” 重磅干货&#xff0c;第一时间送达 Pine 发自 凹非寺量子位 | 公众号 QbitAI 正值风头的“网红”ChatGPT在过去一周算是被网友们玩坏了&#xff01; 各种有的没的玩法都被网友们发掘出来了…… 比如说就有网…

巴比特 | 元宇宙每日必读:微软元宇宙「大撤退」,VR/AR多个团队原地解散,罪魁祸首是ChatGPT?...

摘要&#xff1a;据新智元报道&#xff0c;在2023年开年微软的万人大裁员中&#xff0c;其元宇宙社交AltSpaceVR和HoloLens头显团队都遭到了重创&#xff0c;多个团队原地解散。微软CEO纳德拉将裁员的原因&#xff0c;归结为「全球经济动荡、后疫情时代人们习惯的变化&#xff…

微软发布多模态版ChatGPT!取名“宇宙一代”

文&#xff5c;CoCo酱 Ludwig Wittgenstein曾说过&#xff1a;“我语言的局限&#xff0c;即是我世界的局限”。 大型语言模型&#xff08;LLM&#xff09;已成功地作为各种自然语言任务的通用接口&#xff0c;只要我们能够将输入和输出转换为文本&#xff0c;就可以将基于LLM的…

元宇宙的初认识以及未来

欢迎关注元宇宙的各位朋友 &#xff08;1&#xff09;自我介绍 本人作为不知名的三维重建小白&#xff0c;一直在想&#xff0c;三维重建除了配合车企进行无人驾驶SLAM方面的落地工程&#xff0c;还能有什么更加具有创造力的方向呢&#xff1f;AIGC和ChatGPT给我了一丝的灵感…

元宇宙与AI能否相辅相成,打造一个全新的世界观

前言 这段时间随着OpenAI 推出了ChatGPT及GPT-4架构&#xff0c;一时间各大区域几乎都被AI给刷屏了。上次被这样广泛流传的应该当属 元宇宙 了&#xff0c;元宇宙 最初被提及还是在1990年的科幻小说《雪崩》里被提出来。但是最近一段时间关于 元宇宙 的信息似乎变少了很多&…

人工智能前沿——「全域全知全能」人类新宇宙ChatGPT

&#x1f680;&#x1f680;&#x1f680;OpenAI聊天机器人ChatGPT——「全域全知全能」人类全宇宙大爆炸&#xff01;&#xff01;&#x1f525;&#x1f525;&#x1f525; 一、什么是ChatGPT?&#x1f340;&#x1f340; ChatGPT是生成型预训练变换模型&#xff08;Chat G…

还在用chatGPT聊天?《元宇宙2086》已开始用AIGC做漫画连载了!

ChatGPT 是由 OpenAI开发的一个人工智能聊天机器人程序&#xff0c;于 2022 年 11 月推出。该程序使用基于 GPT-3.5架构的大型语言模型并通过强化学习进行训练。 ChatGPT 目前仍以文字方式互动&#xff0c;而除了可以透过人类自然对话方式进行交互&#xff0c;还可以用于相对复…