揭秘 ChatGPT 背后的技术栈:OpenAI 如何将 Kubernetes 扩展到了 7500 个节点

ec1a0e8290a71ea79d38b719fe9ef91a.jpeg

作者 | OpenAI

译者 | Sambodhi

策划 | 褚杏娟

在本文中,OpenAI 的工程师团队分享了他们在 Kubernetes 集群扩展过程中遇到的各种挑战和解决方案,以及他们取得的性能和效果。

我们已经将 Kubernetes 集群扩展到 7500 个节点,为大型模型(如 GPT-3、 CLIP 和 DALL·E)创建了可扩展的基础设施,同时也为快速小规模迭代研究(如 神经语言模型的缩放定律)创建了可扩展的基础设施。

将单个 Kubernetes 集群扩展到这种规模很少见,但好处是能够提供一个简单的基础架构,使我们的机器学习研究团队能够更快地推进并扩展,而无需更改代码。

自上次发布关于扩展到 2500 个节点的帖子以来,我们继续扩大基础设施以满足研究人员的需求,在此过程中学到了许多的经验教训。本文总结了这些经验教训,以便 Kubernetes 社区里的其他人也能从中受益,并最后会介绍下我们仍然面临的问题,我们也将继续解决这些问题。

8bcee30ae11e1e72cc37442d931799c5.png

我们的工作负载

在深入探讨之前,我们着重描述一下我们的工作负载。我们在 Kubernetes 上运行的应用程序和硬件与大家在普通公司遇到的可能相当不同。因此,我们的问题及解决方案可能与你自己的设置匹配,也可能不匹配!

一个大型的机器学习作业跨越许多节点,当它可以访问每个节点上的所有硬件资源时,运行效率最高。这允许 GPU 直接使用 NVLink 进行交叉通信,或者 GPU 使用 GPUDirect 直接与 NIC 进行通信。因此,对于我们的许多工作负载,单个 Pod 占用整个节点。任何 NUMA、CPU 或 PCIE 资源争用都不是调度的因素。装箱或碎片化不是常见的问题。我们目前的集群具有完全的二分带宽,因此我们也不考虑机架或网络拓扑。所有这些都意味着,虽然我们有许多节点,但调度程序的负载相对较低。

话虽如此,kube-scheduler 的负载是有波动的。一个新的作业可能由许多数百个 Pod 同时创建组成,然后返回到相对较低的流失率。

c8e1bc081856a7fd4d6f8eb31688e7bf.png

我们最大的作业运行 MPI,作业中的所有 Pod 都参与一个单一的 MPI 通信器。如果任何一个参与的 Pod 挂掉,整个作业就会停止,需要重新启动。作业会定期进行检查点,当重新启动时,它会从上一个检查点恢复。因此,我们认为 Pod 是半有状态的——被删掉的 Pod 可以被替换并且工作可以继续,但这样做会造成干扰,应该尽量减少发生。

我们并不太依赖 Kubernetes 的负载均衡。我们的 HTTPS 流量非常少,不需要进行 A/B 测试、蓝 / 绿或金丝雀部署。Pod 使用 SSH 直接通过 Pod IP 地址与 MPI 进行通信,而不是通过服务端点。服务“发现”是有限的;我们只在作业启动时进行一次查找,查找哪些 Pod 参与 MPI。

大多数作业与某种形式的 Blob 存储进行交互。它们通常会直接从 Blob 存储流式传输一些数据集的分片或检查点,或将其缓存到快速的本地临时磁盘中。我们有一些 PersistentVolumes,用于那些需要 POSIX 语义的情况,但 Blob 存储更具可扩展性,而且不需要缓慢的分离 / 附加操作。

最后,我们的工作性质本质上是研究,这意味着工作负载本身是不断变化的。虽然超级计算团队努力提供我们认为达到“生产”质量水平的计算基础架构,但在该集群上运行的应用程序寿命很短,它们的开发人员会快速迭代。因此,随时可能出现新的使用模式,这些模式会挑战我们对趋势和适当权衡的设定。我们需要一个可持续的系统,同时也能让我们在事情发生变化时快速做出响应。

网   络

随着集群内节点和 Pod 数量的增加,我们发现 Flannel 难以满足所需的吞吐量。因此,我们转而使用 Azure VMSS 的本地 Pod 网络技术和相关 CNI 插件来配置 IP。这使我们的 Pod 能够获得主机级别的网络吞吐量。

我们转而使用别名 IP 地址的另一个原因是,在我们最大的集群中,可能会同时使用约 20 万个 IP 地址。在测试了基于路由的 Pod 网络后,我们发现能够使用的路由数明显存在限制。

避免封装会增加底层 SDN 或路由引擎的需求,虽然这使我们的网络设置变得简单。添加 VPN 或隧道可以在不需要任何其他适配器的情况下完成。我们不需要担心由于某部分网络具有较低的 MTU 而导致的分组分段。网络策略和流量监控很简单;没有关于数据包源和目的地的歧义。

我们使用主机上的 iptables 标记来跟踪每个 Namespace 和 Pod 的网络资源使用情况,这使研究人员可以可视化他们的网络使用模式。特别是,由于我们的许多实验具有不同的 Internet 和 Pod 内通信模式,因此能够调查任何瓶颈发生的位置通常是非常有意义的。

可以使用 iptables mangle 规则任意标记符合特定条件的数据包。以下是我们用来检测流量是内部流量还是 Internet 流量的规则。FORWARD 规则涵盖了来自 Pod 的流量,而 INPUTOUTPUT 规则涵盖了主机上的流量:

iptables -t mangle -A INPUT ! -s 10.0.0.0/8 -m comment --comment "iptables-exporter openai traffic=internet-in"
iptables -t mangle -A FORWARD ! -s 10.0.0.0/8 -m comment --comment "iptables-exporter openai traffic=internet-in"
iptables -t mangle -A OUTPUT ! -d 10.0.0.0/8 -m comment --comment "iptables-exporter openai traffic=internet-out"
iptables -t mangle -A FORWARD ! -d 10.0.0.0/8 -m comment --comment "iptables-exporter openai traffic=internet-out"

一旦标记,iptables 将开始计数以跟踪匹配该规则的字节数和数据包数。你可以使用 iptables 本身来查看这些计数器:

% iptables -t mangle -L -v
Chain FORWARD (policy ACCEPT 50M packets, 334G bytes)pkts bytes target     prot opt in     out     source               destination
....
1253K  555M            all  --  any    any     anywhere            !10.0.0.0/8           /* iptables-exporter openai traffic=internet-out */
1161K 7937M            all  --  any    any    !10.0.0.0/8           anywhere             /* iptables-exporter openai traffic=internet-in */

我们使用名为 iptables-exporter 的开源 Prometheus 导出器将这些数据追踪到我们的监控系统中。这是一种简单的方法,可以跟踪与各种不同类型的条件匹配的数据包。

b1d301b4bac9919398cb1f72a3a2b223.png

83afbc1ca8e45832dca0a9c4649f399c.png

我们网络模型中比较独特的一点是,我们完全向研究人员公开节点、Pod 和 Service 网络 CIDR 范围。我们采用集线器和分支的网络模型,并使用本机节点和 Pod CIDR 范围路由该流量。研究人员连接到中心枢纽,然后可以访问任何一个单独的集群(分支)。但是这些集群本身无法相互通信。这确保了集群保持隔离、没有跨集群依赖,可以防止故障隔离中的故障传播。

我们使用一个“NAT”主机来翻译从集群外部传入的服务网络 CIDR 范围的流量。这种设置为我们的研究人员提供了很大的灵活性,他们可以选择各种不同类型的网络配置进行实验。

API 服务器

Kubernetes 的 API Server 和 etcd 是保持集群健康运行的关键组件,因此我们特别关注这些系统的压力。我们使用 kube-prometheus 提供的 Grafana 仪表板以及额外的内部仪表板。我们发现,将 HTTP 状态码 429(请求太多)和 5xx(服务器错误)的速率作为高级信号警报是有用的。

160c2e076e46d1e713e11c0fda0cb1d8.png

虽然有些人在 kube 内部运行 API 服务器,但我们一直在集群外运行它们。etcd 和 API 服务器都在它们自己的专用节点上运行。我们的最大集群运行 5 个 API 服务器和 5 个 etcd 节点,以分散负载并尽可能减少发生故障后带来的影响。自从我们在 上一篇博文 中提到的将 Kubernetes 事件拆分到它们自己的 etcd 集群中以来,我们没有遇到 etcd 的任何值得注意的问题。API 服务器是无状态的,通常很容易在自我修复的实例组或扩展集中运行。我们尚未尝试构建任何自我修复 etcd 集群的自动化,因为发生事故非常罕见。

API 服务器可能会占用相当多的内存,并且往往会与集群中的节点数量成线性比例。对于我们有 7500 个节点的集群,我们观察到每个 API 服务器使用高达 70GB 的堆内存,因此幸运地是,未来这应该仍然在硬件能力范围之内。

d66f5e9fd1382592a90a5d987266d8d9.png

API Servers 受到压力的主要来源之一就是对 Endpoints 的 WATCH。在整个集群中有一些服务,如“kubelet”和“node-exporter”,其中每个节点都是成员。当一个节点被添加或从集群中删除时,这个 WATCH 将被触发。通常,由于每个节点本身都通过 kube-proxy 监视 kubelet 服务,因此这些响应中所需的数量和带宽将是 N非常大,有时会达到 1GB/s 或更高。Kubernetes 1.17 中推出的 EndpointSlices 大大降低了这种负载,减少达 1000 倍。

55de5dabf4a2f21166d3bd05b857965b.png

总的来说,我们会非常注意随着集群规模增大而增加的 API Server 请求。我们尽量避免任何 DaemonSets 与 API Server 交互。在需要每个节点监视更改的情况下,引入缓存服务(例如 Datadog Cluster Agent)作为中介,似乎是避免集群范围瓶颈的良好模式。

随着集群的增长,我们对集群的实际自动伸缩越来越少。但当一次性自动扩展太多时,我们偶尔会遇到问题。当新节点加入集群时会生成大量请求,一次性添加数百个节点可能会超过 API 服务器容量的负荷。稍微平滑一下这个过程,即使只有几秒钟也有助于避免宕机。

时间序列度量与 Prometheus 和 Grafana

我们使用 Prometheus 收集时间序列度量数据,并使用 Grafana 进行图形、仪表板和警报。我们从 kube-prometheus 部署开始收集了各种各样的度量数据,并使用了一些良好的仪表板进行可视化。随着节点数量的不断增加,我们开始遇到 Prometheus 收集的度量数据数量过多的问题。尽管 kube-prometheus 公开了许多有用的数据,但我们实际上并没有查看所有的度量数据,一些数据也过于细化,无法有效地进行收集、存储和查询。因此,我们使用 Prometheus 规则从被摄入的度量数据中“删掉”一些数据。

有一段时间,我们遇到了 Prometheus 消耗越来越多的内存问题,最终导致容器崩溃并出现 Out-Of-Memory 错误(OOM)。即使为应用程序分配了大量的内存容量,这种情况似乎仍然会发生。更糟糕的是,它在崩溃时会花费很多时间在启动时回放预写日志文件,直到它再次可用。最终,我们发现了这些 OOM 的来源是 Grafana 和 Prometheus 之间的交互,其中 Grafana 使用 /api/v1/series API 查询 {le!=""}(基本上是“给我所有的直方图度量”)。/api/v1/series 的实现在时间和空间上没有限制,对于具有大量结果的查询,这将不断消耗更多的内存和时间。即使请求者已经放弃并关闭了连接,它也会继续增长。对于我们来说,内存永远不够,而 Prometheus 最终会崩溃。因此,我们修补了 Prometheus,将此 API 包含在上下文中以强制执行超时,从而完全解决了问题。

虽然 Prometheus 崩溃的次数大大减少,但在我们需要重新启动它的时候,WAL 回放仍然是一个问题。通常需要多个小时来回放所有 WAL 日志,直到 Prometheus 开始收集新的度量数据并提供服务。在 Robust Perception 的帮助下,我们发现将 GOMAXPROCS=24 应用于服务器可以显著提高性能。在 WAL 回放期间,Prometheus 尝试使用所有核心,并且对于具有大量核心的服务器,争用会降低所有性能。

我们正在探索新的选项来增加我们的监控能力,下面“未解决的问题”部分将对此进行描述。

健康检查

对于如此庞大的集群,我们当然依赖自动化来检测并从集群中移除行为不当的节点。随着时间的推移,我们建立了许多健康检查系统。

被动健康检查

某些健康检查是被动的,总是在所有节点上运行。这些检查监视基本的系统资源,例如网络可达性、坏盘或满盘,或者 GPU 错误。GPU 以许多不同的方式出现问题,但一个容易出现的常见问题是“不可纠正的 ECC 错误”。Nvidia 的数据中心 GPU 管理器(DCGM)工具使查询这个问题和许多其他“Xid”错误变得容易。我们跟踪这些错误的一种方式是通过 dcgm-exporter 将指标收集到我们的监控系统 Prometheus 中。这将出现为 DCGM_FI_DEV_XID_ERRORS 指标,并设置为最近发生的错误代码。此外,NVML 设备查询 API 公开了有关 GPU 的健康和操作的更详细信息。

一旦检测到错误,它们通常可以通过重置 GPU 或系统来修复,但在某些情况下确实需要更换基础 GPU。

另一种健康检查是跟踪来自上游云提供商的维护事件。每个主要的云提供商都公开了一种方式来了解当前 VM 是否需要进行会最终导致中断的、即将发生的维护事件。VM 可能需要重新启动以应用底层的超级管理程序补丁,或者将物理节点替换为其他硬件。

这些被动健康检查在所有节点上不断运行。如果健康检查开始失败,节点将自动划分,因此不会在节点上安排新的 Pod。对于更严重的健康检查失败,我们还将尝试 Pod 驱逐,以要求当前运行的所有 Pod 立即退出。这仍然取决于 Pod 本身,可通过 Pod 故障预算进行配置来决定是否允许此驱逐发生。最终,无论是在所有 Pod 终止之后,还是在 7 天过去之后(我们的服务级别协议的一部分),我们都将强制终止 VM。

活动 GPU 测试

不幸的是,并非所有 GPU 问题都会通过 DCGM 可见的错误代码表现出来。我们建立了自己的测试库,通过对 GPU 进行测试来捕捉其他问题,并确保硬件和驱动程序的行为符合预期。这些测试无法在后台运行 - 它们需要独占 GPU 运行数秒钟或数分钟。

我们首先在节点启动时运行这些测试,使用我们称之为“预检(preflight)”的系统。所有节点都会附带一个“预检”污点和标签加入集群。这个污点会阻止普通 Pod 被调度到节点上。我们配置了一个 DaemonSet,在所有带有此标签的节点上运行预检测试 Pod。测试成功完成后,测试本身将删除污点和标签,然后该节点就可供一般使用。

我们还定期在节点的生命周期中运行这些测试。我们将其作为 CronJob 运行,允许它着陆在集群中的任何可用节点上。哪些节点会被测试到可能有些随机和不受控制,但我们发现随着时间的推移,它提供了足够的覆盖率,并且最小化了协调或干扰。

配额和资源使用

随着集群规模的扩大,研究人员开始发现他们难以获取分配给他们的全部容量。传统的作业调度系统有许多不同的功能,可以公平地在竞争团队之间运行工作,而 Kubernetes 没有这些功能。随着时间的推移,我们从这些作业调度系统中汲取灵感,并以 Kubernetes 原生的方式构建了几个功能。

团队污点

我们在每个集群中都有一个服务,称为“team-resource-manager”,具有多个功能。它的数据源是一个 ConfigMap,为在给定集群中具有容量的所有研究团队指定了 (节点选择器、应用的团队标签、分配数量) 元组。它会将当前节点与这些元组进行对比,并使用 openai.com/team=teamname:NoSchedule 的污点对适当数量的节点进行标记。

“team-resource-manager”还有一个入站的 webhook 服务,因此在提交每个作业时会根据提交者的团队成员身份应用相应的容忍度。使用污点使我们能够灵活地限制 Kubernetes Pod 调度程序,例如允许较低优先级的 Pod 具有 "any" 容忍度,这样团队可以借用彼此的容量,而无需进行大量协调。

CPU 和 GPU  balloons

除了使用集群自动缩放器动态扩展我们基于虚拟机的集群之外,我们还使用它来纠正(删除和重新添加)集群中的不健康成员。我们通过将集群的 "最小值" 设置为零、"最大值" 设置为可用容量来实现这一点。然而,如果 cluster-autoscaler 发现有空闲节点,它将尝试缩小到只需要的容量。由于多种原因(VM 启动延迟、预分配成本、上面提到的 API 服务器影响),这种空闲缩放并不理想。

因此,我们为 CPU 和 GPU 主机都引入了“球形”部署。这个部署包含一个具有 "最大值" 数量的低优先级 Pod 副本集。这些 Pod 占用节点内的资源,因此自动缩放器不会将它们视为空闲。但由于它们是低优先级的,调度程序可以立即将它们驱逐出去,以腾出空间进行实际工作。(我们选择使用 Deployment 而不是 DaemonSet,以避免将 DaemonSet 视为节点上的空闲工作负载。)

需要注意的是,我们使用 pod 反亲和性(anti-affinity)来确保 pod 在节点之间均匀分布。Kubernetes 调度器的早期版本存在一个 O(N^2) 的性能问题,与 pod 反亲和性有关。自 Kubernetes 1.18 版本以后,这个问题已经得到了纠正。

Gang 调度

我们的实验通常涉及一个或多个 StatefulSets,每个 StatefulSet 操作不同部分的训练任务。对于优化器,研究人员需要在进行任何训练之前调度 StatefulSet 的所有成员(因为我们通常使用 MPI 在优化器成员之间协调,而 MPI 对组成员变化很敏感)。

然而再默认情况下,Kubernetes 不一定会优先满足某个 StatefulSet 的所有请求。例如,如果两个实验都请求 100%的集群容量,那么 Kubernetes 可能只会调度给每个实验需要的一半 Pod,这会导致死锁,使两个实验都无法进行。

我们尝试了一些需要自定义调度程序的方法,但遇到了一些与正常 Pod 调度方式冲突的边缘情况。Kubernetes 1.18 引入了核心 Kubernetes 调度程序的插件体系结构,使本地添加此类功能变得更加容易。我们最近选择了 Coscheduling 插件作为解决此问题的方法。

未解决的问题

随着 Kubernetes 集群规模的扩大,我们仍有许多问题需要解决。其中一些问题包括:

指标

在如今的规模下,Prometheus 内置的 TSDB 存储引擎很难压缩,并且每次重新启动时需要长时间回放 WAL(预写式日志)。查询还往往会导致“查询处理会加载过多样本”的错误。我们正在迁移到不同的、与 Prometheus 兼容的存储和查询引擎。大家可以期待下我们未来的博客文章,看看它的表现如何!

Pod 网络流量整形

随着集群规模的扩大,每个 Pod 的互联网带宽量被计算了出来。每个人的聚合互联网带宽需求变得非常大,我们的研究人员现在有能力会意外地对互联网上的其他位置施加重大资源压力,例如要下载的数据集和要安装的软件包。

结   论

Kubernetes 是一个非常灵活的平台,可以满足我们的研究需求。它具有满足我们所面临的最苛刻工作负载的能力。尽管它仍有许多需要改进的地方,但 OpenAI 的超级计算团队将继续探索 Kubernetes 的可扩展性。

小 智 说

如今ChatGPT火爆出圈,其应用场景快速落地。2018年1月OpenAI官方博客称,已将Kubernetes集群扩展到2500个节点,时隔三年扩展至7500个节点,并不断扩展基础架构以满足研究人员的需求,这也再一次证明了Kubernetes的优势和主流地位。

在以往的文章中我们多次提到过Kubernetes的优势及用例,《大数据实践的6个阶段,现在将大数据平台迁移至K8s上成为当务之急》文章中我们更提到了如今的行业新趋势,即在Kubernetes上运行大数据平台,并受到不少用户的关注与反馈。

这些用户也在应用Kubernetes,不过他们同时也在使用传统大数据平台,如何将大数据平台迁移至Kubernetes上是他们迫切需要解决的问题。之所以这么迫切,是因为他们面临了很大的难题,Kubernetes如此火爆,但对于大部分企业来说使用Kubernetes时是在做云计算方面的相关调度,针对大数据领域,企业还在管理另一套纷繁复杂的系统,也就是传统大数据平台。

那么, 如果能够将大数据平台迁移至Kubernetes上,企业岂不是就可以通过一个平台同时管理云计算和大数据平台,从而大大简化管理,提升效率了吗?但是,如何才能够将企业现有传统大数据平台平滑迁移到Kubernetes上呢?现在,很简单!由智领云自主研发的,市场上首个可完全在Kubernetes上部署的容器化云原生大数据平台--Kubernetes Data Platform (简称KDP),就可以轻松帮助企业解决此类问题。欲了解KDP详情,请点击阅读原文。‍‍‍‍

作者简介:

本文作者为 OpenAI 员工 Eric Sigler 和 Benjamin Chess。

原文链接:

https://openai.com/research/scaling-kubernetes-to-7500-nodes

- FIN -       

756550a61bddd43d908303a9605c716e.png

更多精彩推

  • 一文读懂:什么是DataOps可观察性?

  • 和ChatGPT聊了聊BDOS Online,结果……

  • Kubernetes使用现状,直面数据管理问题和挑战

  • 真正的云原生大数据平台,让Kubernetes又牛了一把

  • 国家数据局成立,为云原生大数据平台提供新机遇

👇点击阅读原文,详细了解KDP

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/3673.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

golang后端面试题总结

什么是goroutine? Goroutine是Go语言中的轻量级线程,可以轻松地实现并发编程。Goroutine的调度是由Go语言运行时(runtime)进行管理的,可以自动地在多个线程之间分配任务。 什么是Go语言的协程(goroutine&…

AI作画,OpenVINO助你在英特尔 ®GPU 上随心创作

作者:武卓 最近,AIGC(即AI Generated Content,是指利用人工智能技术来生成内容)真的是火出了天际。除了被挤到服务器满负荷的chatGPT,另一个也颇受瞩目的领域当属AI作画了。利用开源的一类“扩散&#xff…

《降临》作者特德·姜:ChatGPT是网上所有文本的模糊图像

2月9日,美籍华裔科幻作家特德姜(Ted Chiang)在《纽约客》上发表文章,表达了他对时下大热的人工智能ChatGPT独特见解。特德姜在科幻小说领域成绩斐然,曾获得星云奖、雨果奖等科幻小说大奖。他的短篇小说《你一生的故事》…

ChatGPT火爆!人工智能需要哲学吗?

人工智能研究为何需要哲学参与? 作者丨徐英瑾 复旦大学哲学学院教授 人工智能哲学作为一个行当,在国内基本上是还没有确立起来。总体来说国外的情况比我们好一点,马马虎虎算一个哲学分支。举个例子,玛格丽特博登是研究人工智能哲学的一个…

2023,我们不得不面对ChatGPT引发的混乱

文 | 郭英剑(中国人民大学首都发展与战略研究院副院长) 作为全新的人工智能(AI)语言模型,ChatGPT诞生于2022年11月30日。目前,虽然其尚处于试运行阶段,但已经产生了极为震撼的影响。…

ChatGpt发展历程

ChatGPT(英文全称:Chat Generative Pre-trained Transformer,聊天生成预训练转换器)是人工智能研究实验室OpenAI(开放人工智能研究中心)在2022年发布的聊天机器人模型。ChatGPT基于GPT-3.5系列,…

中创沙龙预告 | 以ChatGPT的视角探索人工智能的未来

以ChatGPT的视角探索人工智能的未来 中创沙龙定期举行 ChatGPT:聊天机器人的新时代 开启智能对话新纪元。 ChatGPT推出截止目前两个多月的时间,月活用户已经突破1亿人,创增长最快纪录。毋庸置疑,ChatGPT是一个具有开创性的产品,但…

《降临》作者特德·姜:ChatGPT 是互联网的有损压缩

❝ 本文转自澎湃新闻,原文:https://www.thepaper.cn/newsDetail_forward_21877769,版权归原作者所有。欢迎投稿,投稿请添加微信好友:cloud-native-yang 2 月 9 日,美籍华裔科幻作家特德姜(Ted …

chatgpt赋能python:Python爬虫:如何取出网页标签a里的ID?

Python爬虫:如何取出网页标签a里的ID? 在SEO的领域中,网页的数据提取和分析是一项重要的任务。这也就是为什么Python编程语言成为了许多SEO工程师的首选语言之一。Python以其简单性和灵活性而受到了广泛赞誉,并包含了可靠的数据提…

chatgpt赋能python:Python反扒解决方案:打破“网页抓取难”的困境

Python反扒解决方案:打破“网页抓取难”的困境 作为一种强大的编程语言,Python的应用场景日益扩大,成为越来越多公司的首选工具。然而,在爬取网站数据、分析竞争对手数据等方面,Python也常常受到阻碍——那就是扒取过…

chatgpt赋能Python-pycharm爬虫电影代码

PyCharm爬虫电影代码详解 作为一位有着10年python编程经验的工程师,我想分享一下关于PyCharm爬虫电影代码的详细介绍和使用方法。 PyCharm简介 PyCharm是由JetBrains开发的一款Python IDE,它为Python开发者提供了一站式的开发环境,包括代码…

我找到了用ChatGPT+爬虫搞钱的新模式!

这几个月真是太科幻了,各路令人赞叹的AI产品接连问世,感觉幻想过的未来已在眼前。就与多年前移动互联网的普及一样,我们正处于AI改变世界的前夜。 在众多优秀的人工智能模型中,以ChatGPT最为火爆!其在上月推出的插件功…

chatgpt赋能python:Python绕过登录爬虫:实现快速爬取网站数据

Python绕过登录爬虫:实现快速爬取网站数据 在进行网站数据爬取时,有些网站会要求用户先进行登录操作,才能够获取到需要的数据。这对于爬虫来说是一个挑战,因为传统的爬虫方法无法绕过登录部分的限制获取数据。然而,通…

chatgpt赋能python:Python爬虫解密:如何快速抓取网站数据

Python爬虫解密:如何快速抓取网站数据 在当今信息时代,人们越来越依赖互联网获取信息。不同的网站提供了大量数据,但是手动去抓取这些数据十分困难,效率也很低。Python爬虫技术是解决这一问题的有效工具之一,它可以帮…

谁能拒绝用ChatGPT+爬虫搞钱的新路子呢?

重磅,ChatGPT再次迎来里程碑式更新! ChatGPT在上月推出了令人瞩目的插件功能,如果把ChatGPT看做是智能手机,那插件就相当于应用商店。现在的ChatGPT像一个“万能”的超级工具,善用它可以带来很多好处。 就与多年前移…

chatgpt赋能python:Python爬虫:抓取数据的实用技巧

Python爬虫:抓取数据的实用技巧 如果您是一名数字营销从业者,那么您一定知道SEO的重要性。SEO是一项复杂的工作,但是其中包含了一个非常关键的步骤,就是通过爬虫从网站中抓取数据。Python是一个非常强大的工具,可以帮…

利用爬虫逆向外网ChatGPT平台教程,新手可上手!!!

大家好,我是阿爬!这里是讲述阿爬和阿三爬虫故事的爬友圈 阿爬今天发现自己的ChatGPT,被官网封了 有点无奈,阿三平时对它可温柔了 找了很多免费的平台,发现内网的和外网的面对同样的问题,回答的内容还是有区…

小白用chatgpt编写python 爬虫程序代码 抓取网页数据(js动态生成网页元素)

jS动态生成,由于呈现在网页上的内容是由JS生成而来,我们能够在浏览器上看得到,但是在HTML源码中却发现不了 一、注意:代码加入了常规的防爬技术 如果不加,如果网站有防爬技术,比如频繁访问,后面…

用ChatGPT+爬虫搞钱,赚了!

这几个月真是太科幻了,各路令人赞叹的AI产品接连问世,感觉幻想过的未来已在眼前。就与多年前移动互联网的普及一样,我们正处于AI改变世界的前夜。 在众多优秀的人工智能模型中,以ChatGPT最为火爆!其在3月推出的插件功能…

微软new bing chatgpt 逆向爬虫实战

gospider 介绍 gospider 是一个golang 爬虫神器,它内置了多种反爬虫模块,是golang 爬虫必备的工具包 安装 go get -u gitee.com/baixudong/gospidergitee地址 https://gitee.com/baixudong/gospidergithub地址 https://github.com/baixudong007/gospider开始ne…