爬虫抓取数据时如何处理异常?

在爬虫开发中,处理异常是确保爬虫稳定运行的关键环节。爬虫在运行过程中可能会遇到各种问题,例如网络请求失败、目标页面结构变化、数据缺失等。合理处理这些异常可以提高爬虫的鲁棒性,避免因小问题导致整个爬虫程序崩溃。以下是一些常见的异常处理方法和策略:


1. 网络请求异常处理

网络请求是爬虫中最容易出问题的部分,常见的异常包括超时、连接失败、目标服务器返回错误状态码等。

示例代码:
import requests
from requests.exceptions import RequestExceptiondef get_html(url):headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36"}try:response = requests.get(url, headers=headers, timeout=10)  # 设置超时时间response.raise_for_status()  # 检查HTTP状态码是否为200return response.textexcept RequestException as e:print(f"请求失败:{e}")return None

处理策略:

  1. 超时设置:通过timeout参数设置请求超时时间,避免爬虫因长时间等待而卡住。

  2. 重试机制:使用requestsSession对象结合urllib3的重试机制。

  3. 状态码检查:通过response.raise_for_status()检查HTTP状态码是否为200。


2. 页面解析异常处理

页面解析过程中可能会遇到HTML结构变化、目标元素缺失等问题,导致BeautifulSoupSelenium抛出异常。

示例代码:
from bs4 import BeautifulSoupdef parse_html(html):soup = BeautifulSoup(html, "lxml")products = []try:items = soup.select(".product-item")for item in items:product = {"name": item.select_one(".product-name").text.strip(),"price": item.select_one(".product-price").text.strip(),"description": item.select_one(".product-description").text.strip()}products.append(product)except AttributeError as e:print(f"解析失败:{e}")return products

处理策略:

  1. 使用try-except:捕获可能出现的AttributeError等异常。

  2. 检查元素是否存在:在访问元素之前,使用if语句检查元素是否存在。

  3. 日志记录:记录异常信息,便于后续分析和修复。


3. 数据缺失处理

在爬取数据时,可能会遇到某些字段缺失的情况。例如,某些商品可能没有用户评价或图片链接。

示例代码:
def parse_html(html):soup = BeautifulSoup(html, "lxml")products = []items = soup.select(".product-item")for item in items:product = {"name": item.select_one(".product-name").text.strip() if item.select_one(".product-name") else "未知","price": item.select_one(".product-price").text.strip() if item.select_one(".product-price") else "未知","description": item.select_one(".product-description").text.strip() if item.select_one(".product-description") else "无描述"}products.append(product)return products

处理策略:

  1. 使用三元运算符:在提取数据时,检查元素是否存在,避免抛出异常。

  2. 设置默认值:为缺失的字段设置默认值,例如“未知”或“无描述”。


4. 动态内容加载异常处理

如果目标页面使用JavaScript动态加载内容,使用Selenium时可能会遇到页面加载超时、元素未找到等问题。

示例代码:
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.common.exceptions import TimeoutException, NoSuchElementExceptiondef get_dynamic_html(url):options = webdriver.ChromeOptions()options.add_argument("--headless")driver = webdriver.Chrome(options=options)try:driver.get(url)driver.implicitly_wait(10)  # 设置隐式等待时间items = driver.find_elements(By.CSS_SELECTOR, ".product-item")for item in items:name = item.find_element(By.CSS_SELECTOR, ".product-name").textprice = item.find_element(By.CSS_SELECTOR, ".product-price").textprint(f"商品名称:{name}, 价格:{price}")except TimeoutException:print("页面加载超时")except NoSuchElementException:print("未找到目标元素")finally:driver.quit()

处理策略:

  1. 设置隐式等待:通过driver.implicitly_wait()设置隐式等待时间,避免因页面加载缓慢导致元素未找到。

  2. 捕获异常:使用try-except块捕获TimeoutExceptionNoSuchElementException等异常。

  3. 资源清理:在finally块中关闭浏览器实例,确保资源被正确释放。


5. 日志记录

日志记录是爬虫开发中不可或缺的一部分,它可以帮助我们快速定位问题并修复。

示例代码:
import logging# 配置日志
logging.basicConfig(level=logging.INFO, format="%(asctime)s - %(levelname)s - %(message)s")def get_html(url):headers = {"User-Agent": "Mozilla/5.0"}try:response = requests.get(url, headers=headers)response.raise_for_status()return response.textexcept RequestException as e:logging.error(f"请求失败:{e}")return Nonedef parse_html(html):soup = BeautifulSoup(html, "lxml")products = []try:items = soup.select(".product-item")for item in items:product = {"name": item.select_one(".product-name").text.strip(),"price": item.select_one(".product-price").text.strip()}products.append(product)except AttributeError as e:logging.error(f"解析失败:{e}")return products

处理策略:

  1. 配置日志:使用logging模块配置日志,记录异常信息。

  2. 日志级别:根据需要设置日志级别,例如INFOWARNINGERROR等。

  3. 记录关键信息:在日志中记录关键信息,例如请求URL、异常类型、异常描述等。


6. 异常处理的最佳实践

  1. 明确异常类型:在捕获异常时,尽量明确异常类型,避免使用过于宽泛的except

  2. 合理使用重试机制:对于网络请求等易出错的操作,可以结合重试机制提高成功率。

  3. 资源清理:确保在异常发生时,正确释放资源(如关闭文件、关闭数据库连接、关闭浏览器实例等)。

  4. 容错设计:在爬虫中加入容错设计,即使部分数据无法获取,也不影响整个程序的运行。

  5. 监控与报警:对于长时间运行的爬虫,可以结合监控工具(如Prometheus、Grafana)进行实时监控,并在异常发生时发送报警通知。


总结

合理处理异常是确保爬虫稳定运行的关键。通过捕获网络请求异常、页面解析异常、动态内容加载异常等常见问题,并结合日志记录和容错设计,可以显著提高爬虫的鲁棒性。希望本文的示例和策略能帮助你在爬虫开发中更好地应对各种异常情况,确保爬虫程序的高效、稳定运行。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/24730.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

数据开发的简历及面试

简历 个人信息: 邮箱别写QQ邮箱, 写126邮箱/189邮箱等 学历>>本科及以上写,大专及以下不写 专业>>非计算机专业不写 政治面貌>>党员写, 群众不用写 掌握的技能: 精通 > 熟悉 > 了解 专业工具: 大数据相关的 公司: 如果没有可以写的>>金融服…

Git原理+使用(超详细)

Git初识 当我们写项目代码时,需要不断的更新版本,那么就需要一个东西去管理这些不同版本的文件—版本控制器。 目前最主流的版本控制器就是Git。它是一个可以记录工程的每一次改动和版本迭代的管理系统,同时方便多人协同作业。 &#xff0…

数据结构秘籍(一)线性数据结构

1.数组 数组(Array)是一种很常见的数据结构。它由相同类型的元素(element)组成,并且是使用一块连续的内存来存储。 我们直接可以利用元素的索引(index)计算出该元素对应的存储地址。 数组的特…

WiFi IEEE 802.11协议精读:IEEE 802.11-2007,6,MAC service definition MAC服务定义

继续精读IEEE 802.11-2007 6,MAC service definition MAC服务定义 6.1 MAC服务概述 6.1.1 数据服务 此服务为对等逻辑链路控制(LLC)实体提供交换MAC服务数据单元(MSDU)的能力。为支持此服务,本地媒体访…

QT基于mmap文件映射机制实现的内存池方法总结

在现代计算机系统中,高效的内存管理对于程序性能有着至关重要的影响。尤其是在处理大量数据或频繁分配和释放小块内存的应用场景下,传统的内存分配方式(如malloc和free)可能会导致显著的性能开销和内存碎片化问题。为了克服这些问…

车载DoIP诊断框架 --- 连接 DoIP ECU/车辆的故障排除

我是穿拖鞋的汉子,魔都中坚持长期主义的汽车电子工程师。 老规矩,分享一段喜欢的文字,避免自己成为高知识低文化的工程师: 简单,单纯,喜欢独处,独来独往,不易合同频过着接地气的生活,除了生存温饱问题之外,没有什么过多的欲望,表面看起来很高冷,内心热情,如果你身…

0—QT ui界面一览

2025.2.26,感谢gpt4 1.控件盒子 1. Layouts(布局) 布局控件用于组织界面上的控件,确保它们的位置和排列方式合理。 Vertical Layout(垂直布局) :将控件按垂直方向排列。 建议:适…

普中单片机-51TFT-LCD显示屏(1.8寸 STM32)

普中官方论坛: http://www.prechin.cn/gongsixinwen/208.html 普中科技-各型号开发板资料链接:https://www.bilibili.com/read/cv23681775/?spm_id_from333.999.0.0 27-TFTLCD显示实验_哔哩哔哩_bilibili 2.程序烧录 2.1设置彩屏驱动 3.实验效果

嵌入式开发工程师笔试面试指南-Linux系统移植

1 Linux内核启动流程 引导加载阶段 计算机通电后,首先由 BIOS 或 UEFI 进行初始化,完成硬件自检等操作。 找到可启动设备,读取其第一个扇区的 MBR,MBR 中的引导加载程序(如 GRUB)被加载到内存并运行。 内…

图扑数字孪生:解锁压缩空气储能管控新高度

​在能源转型的关键时期,压缩空气储能凭借其独特优势,成为解决可再生能源间歇性问题、保障可靠能源供应的重要技术。图扑软件(Hightopo)充分发挥其在 Web 2D&3D 可视化领域的技术专长,打造出先进的数字孪生压缩空气…

Redis 高可用性:如何让你的缓存一直在线,稳定运行?

🎯 引言:Redis的高可用性为啥这么重要? 在现代高可用系统中,Redis 是一款不可或缺的分布式缓存与数据库系统。无论是提升访问速度,还是实现数据的高效持久化,Redis 都能轻松搞定。可是,当你把 …

AI 编码 2.0 分析、思考与探索实践:从 Cursor Composer 到 AutoDev Sketch

在周末的公司【AI4SE 效能革命与实践:软件研发的未来已来】直播里,我分享了《AI编码工具 2.0 从 Cursor 到 AutoDev Composer》主题演讲,分享了 AI 编码工具 2.0 的核心、我们的思考、以及我们的 AI 编码工具 2.0 探索实践。 在这篇文章中&am…

Qt Creator + CMake 构建教程

此教程基于: Qt 6.7.4Qt Creator 15.0.1CMake 3.26.4 Qt 6 以下的版本使用 CMake 构建可能会存在一些问题. 目录 新建窗体工程更新翻译添加资源软件部署(Deploy) 此教程描述了如何一步步在 Qt Creator 中使用 CMake 构建应用程序工程. 涉及 新建窗体工程, 更新翻译, 添加资源, …

锂电池保护板测试仪:电池安全的守护者与创新驱动力

在新能源产业蓬勃发展的今天,锂电池以其高能量密度、长循环寿命和环保特性,成为电动汽车、无人机、便携式电子设备等领域不可或缺的能量来源。然而,锂电池的安全性和稳定性一直是行业关注的焦点。为了确保锂电池在各种应用场景下的可靠运行&a…

岳阳市美术馆预约平台(小程序论文源码调试讲解)

第4章 系统设计 一个成功设计的系统在内容上必定是丰富的,在系统外观或系统功能上必定是对用户友好的。所以为了提升系统的价值,吸引更多的访问者访问系统,以及让来访用户可以花费更多时间停留在系统上,则表明该系统设计得比较专…

【Java】I/O 流篇 —— 转换流与序列化流

目录 转换流原理InputStreamReader 转换输入流构造方法代码示例 OutputStreamWriter 转换输出流构造方法代码示例 练习 序列化流序列化流反序列化流**serialVersionUID**基本概念作用使用方式transient 关键字注意事项 转换流 原理 转换流属于字符流,是字符流和字节…

Mac 版 本地部署deepseek ➕ RAGflow 知识库搭建流程分享(附问题解决方法)

安装: 1、首先按照此视频的流程一步一步进行安装:(macos版)ragflowdeepseek 私域知识库搭建流程分享_哔哩哔哩_bilibili 2、RAGflow 官网文档指南:https://ragflow.io 3、RAGflow 下载地址:https://github.com/infi…

计算机三级网络技术备考

#subtotal 1Mbps1024kb128KB12.8M/s #1024B1KB 1024KB1MB 1024MB1GB #路由器的5G信号和平常的波长不同(5G的穿墙性能差) #局域网LAN(一公里内——构成集线机、交换机、同轴电缆) #城域网MAN(几公里到几十公里——光…

IDEA 2024.1 最新永久可用(亲测有效)

今年idea发布了2024.1版本,这个版本带来了一系列令人兴奋的新功能和改进。最引人注目的是集成了更先进的 AI 助手,它现在能够提供更复杂的代码辅助功能,如代码自动补全、智能代码审查等,极大地提升了开发效率。此外,用…

30 分钟从零开始入门 CSS

前言 最近也是在复习,把之前没写的博客补起来,之前给大家介绍了 html,现在是 CSS 咯。 30分钟从零开始入门拿下 HTML_html教程-CSDN博客 一、CSS简介:给网页“化妆”的神器 CSS(层叠样式表)就像“化妆“&a…