零基础入门网络爬虫第5天:Scrapy框架

4周

Srapy爬虫框架

不是一个简单的函数功能库,而是一个爬虫框架

安装:pip install scrapy

检测:scrapy -h

Scrapy爬虫框架结构

爬虫框架

  • 爬虫框架是实现爬虫功能的一个软件结构和功能组件集合
  • 爬虫框架是一个半成品,能够帮助用户实现网络爬虫

5+2结构

在这里插入图片描述

spiders:入口,用来像整个模块提供要访问的url链接,解析从网络中获得页面的内容

item pipelines:出口。负责对提取的信息进行后处理

engine,downloader,scheduler都是已有的功能实现

用户编写(配置):spiders item pipelines

Engine:不需要用户修改

  • 控制所有模块之间的数据流
  • 根据条件触发事件

Downloader:不需要用户修改

  • 根据请求下载网页

Schedule:不需要用户修改

  • 对所有的爬取请求进行调度管理

Downloader Middleware:用户可以编写配置代码

目的:实施Engine,Scheduler和Downloader之间进行用户可配置的控制

功能:修改,丢弃,新增请求或响应

如果用户不需要对request或response进行修改的时候,用户可以不更改这个中间件

Spider:需要用户编写配置代码

  • 解析Downloader返回的响应(Response)
  • 产生爬取项(scraped item)
  • 产生额外的爬取请求(request)

Item Pipelines:需要用户编写配置代码

  • 以流水线方式处理Spiders产生的爬取项
  • 由一组操作顺序组成,类似流水线,每个操作是一个 Item Pipeline类型
  • 可能操作包括:清理,检验和查重爬取项的HTML数据,将数据存储到数据库

Spider Middleware:用户可以编写配置代码

目的:对请求和爬取项的再处理

功能:修改,丢弃,新增请求或爬取项

requests库和Scrapy库的比较

相同点:

  • 两者都可以进行网页 请求和爬取,python爬虫的两个重要技术路线
  • 两者可用性都好,文档丰富,入门简单
  • 两者都没有处理js,提交表单,应对验证码等功能(可扩展)
requestsScrapy
页面级爬虫网站级爬虫
功能库框架
并发性考虑不足,性能较差并发性好,性能较高(基于异步结构设计)
重点在于页面下载重点在于爬虫结构
定制灵活一般定制灵活,深度定制困难
上手十分简单入门稍难

非常小的需求:requests库

不太小的需求:Scrapy框架

定制程度很高的需求(不考虑规模),自搭框架,requests>Scrapy

Scrapy常用命令

Scrapy命令行:

Scrapy是为持续运行设计的专业爬虫框架,提供命令行

命令格式:

在这里插入图片描述
在这里插入图片描述

一个工程是一个最大的单元,一个工程相当于大的Scrapy框架内

演示

演示地址:http://python123.io/ws/demo.html

文件名称:demo.html

步骤1:建立一个Scrapy爬虫工程

scrapy startproject python123demo

生成的工程目录

python123demo/————>外层目录

scrapy.cfg—————>部署Scrapy爬虫的配置文件,将这样的爬虫放在特定的服务器上,并且在服务器配置好相关的操作接口。本机来讲,不需要改变部署的配置文件

python123demo/————>Scrapy框架的用户自定义python代码

init.py————>初始化脚本

items.py———>Items代码模板(继承类)

middlewares.py——>Middewares代码模板(继承类)

pipelines.py———>Pipelines代码模板 (继承类)

settings,py———>Scrapy爬虫的配置文件

spiders/————>Spiders代码模板目录(继承类)

__init__.py——>初始文件,无需修改

__pycache__/———>缓存目录,无需修改

步骤2:在工程中产生一个Scrapy爬虫

cd python123demo

scrapy genspider demo python123.io

生成了一个demo.py 和要爬取的网页信息

import scrapyclass DemoSpider(scrapy.Spider):name = "demo"allowed_domains = ["python123.io"]start_urls = ["https://python123.io"]def parse(self, response):pass
#pass()用于处理响应,解析内容形成字典,发现新的URL爬取请求

步骤3:配置产生的spider爬虫

步骤4:运行命令

scrapy crawl demo

import scrapyclass DemoSpider(scrapy.Spider):# 爬虫唯一标识符(运行爬虫时使用)name = "demo"# 允许爬取的域名(当前被注释)# allowed_domains = ["python123.io"]# 起始URL列表(自动生成请求)start_urls = ["https://python123.io/ws/demo.html"]def parse(self, response):""" 响应处理核心方法 """# 从URL提取文件名(取最后一段作为文件名)fname = response.url.split('/')[-1]# 二进制写入模式保存网页内容with open(fname, 'wb') as f:f.write(response.body)  # response.body是原始字节数据self.log('Saved file %s.' % fname)# 应移除pass,可在此添加数据解析逻辑# 例如:生成后续请求或解析数据

在这里插入图片描述

yield关键字的使用

yield<——>生成器

  • 生成器是一个不断产生值的函数
  • 包含yield语句的函数是一个生成器
  • 生成器每次产生一个值(yield语句),函数被冻结,被唤醒后再产生一个值。唤醒时它所使用的局部变量的值跟之前执行所使用的值是一致的
    在这里插入图片描述

在这里插入图片描述

为什么要有生成器

  • 生成器相比一次列出所有内容的优势
    • 更节省存储空间
    • 响应更迅速
    • 使用更灵活
      在这里插入图片描述

生成器所使用的元素空间仍然是一个
在这里插入图片描述

Scrapy爬虫的基本使用

步骤1:创建一个工程和Spider模板

步骤2:编写Spider

步骤3:编写Item Pipline

步骤4:优化配置策略

Scrapy爬虫的数据类型

Request类

Response类

item类

Requests类

class scrapy.http.Request()

  • request对象表示一个HTTP请求
  • 由Spider生成,由Downloader执行
属性或方法说明
.urlRequest对应的请求URL地址
.method对应的请求方法,‘GET’“POST”等
.headers字典类型风格的请求头
.body请求主体内容,字符串类型
.meta用户添加的扩展信息,在Scrapy内部模块间传递信息使用(实际爬取内容没用)
.copy()复制该请求

Respone类

class scrapy.http.Response()

  • Response对象表示一个HTTP响应
  • 由Downloader生成,由Spider处理
属性或方法说明
.urlresponse对应的URL地址
.statusHTTP状态码,默认是200
.headersResponse对应的头部信息
.bodyResponse对应的内容信息,字符串类型
.flags一组标记
.request产生Response类型对应的Request对象
.copy()复制该响应

Item类

class scrapy.item.Item()

  • Item对象表示一个从HTML页面中提取的信息内容
  • 由Spider生成,由Item Pipeline处理
  • Item类似字典类型,可以按照字典类型操作

Scrapy爬虫提取信息的方法

Scrapy爬虫支持多种HTML信息提取方法,主要应用在spider模块内

  • Beautiful Soup
  • Ixml
  • re
  • XpathSelector
  • CSS Selector

CSS Selector的基本使用

在这里插入图片描述

股票数据爬虫

步骤1:建立工程和Spider模板

步骤2:编写Spider

步骤3:编写ITEM Pipelines(对后期提取的数据进行处理)
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

# -*- coding: utf-8 -*-
import scrapy
import reclass StocksSpider(scrapy.Spider):name = "stocks"  # <mcsymbol name="StocksSpider" filename="stocks_spider.py" path="d:\javaexperiment\experiment0\test\stocks_spider.py" startline="5" type="class">爬虫唯一标识符</mcsymbol>start_urls = ['http://quote.eastmoney.com/stocklist.html']  # 起始页面(股票列表页)def parse(self, response):""" 解析股票列表页 """for href in response.css('a::attr(href)').extract():  # 提取所有链接try:stock = re.findall(r"[s][hz]\d{6}", href)[0]  # 正则匹配股票代码url = f'https://gupiao.baidu.com/stock/{stock}.html'  # 构造详情页URLyield scrapy.Request(url, callback=self.parse_stock)  # 生成新请求except:continue  # 跳过无效链接def parse_stock(self, response):""" 解析个股详情页 """infoDict = {}stockInfo = response.css('.stock-bets')  # 定位信息容器# 提取股票名称(含复杂处理)name = stockInfo.css('.bets-name').extract()[0]company = re.findall(r'\s.*\(', name)[0].split()[0]code = re.findall(r'\>.*\<', name)[0][1:-1]# 提取键值对信息keys = [re.sub(r'<.*?>', '', k) for k in stockInfo.css('dt').extract()]values = [re.sub(r'<.*?>', '', v) for v in stockInfo.css('dd').extract()]# 构建数据字典for k, v in zip(keys, values):infoDict[k] = v if re.search(r'\d', v) else '--'infoDict['股票名称'] = f"{company}{code}"yield infoDict
graph TD
A[启动爬虫] --> B(访问股票列表页)
B --> C{遍历所有链接}
C -->|匹配股票代码| D[构造详情页URL]
C -->|不匹配| E[跳过]
D --> F(请求详情页)
F --> G[解析股票数据]
G --> H[生成结构化数据]
# -*- coding: utf-8 -*-class BaidustocksPipeline(object):def process_item(self, item, spider):# 基础管道(未实现具体功能)return item  # 必须返回item对象以传递到后续管道class BaidustocksInfoPipeline(object):def open_spider(self, spider):"""爬虫启动时执行"""self.f = open('BaiduStockInfo.txt', 'w')  # 创建/覆盖写入文件def close_spider(self, spider):"""爬虫关闭时执行"""self.f.close()  # 必须关闭文件def process_item(self, item, spider):"""处理每个item的回调"""try:line = str(dict(item)) + '\n'  # 将item转为字典格式字符串self.f.write(line)  # 写入文本文件except Exception as e:  # 应指定具体异常类型spider.logger.error(f"写入失败: {str(e)}")  # 建议添加日志return item  # 保持item传递链
graph LR
A[爬虫产生Item] --> B[Item经过BaidustocksPipeline]
B --> C[Item经过BaidustocksInfoPipeline]
C --> D[数据写入BaiduStockInfo.txt]
# Configure item pipelines
# See http://scrapy.readthedocs.org/en/latest/topics/item-pipeline.html
ITEM_PIPELINES = {'BaiduStocks.pipelines.BaidustocksInfoPipeline': 300,
}

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/39453.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

C语言:扫雷

在编程的世界里&#xff0c;扫雷游戏是一个经典的实践项目。它不仅能帮助我们巩固编程知识&#xff0c;还能锻炼逻辑思维和解决问题的能力。今天&#xff0c;就让我们一起用 C 语言来实现这个有趣的游戏&#xff0c;并且通过图文并茂的方式&#xff0c;让每一步都清晰易懂 1. 游…

同一个局域网的话 如何访问另一台电脑的ip

在局域网内访问另一台电脑&#xff0c;可以通过以下几种常见的方法来实现&#xff1a; ‌直接通过IP地址访问‌&#xff1a; 首先&#xff0c;确保两台电脑都连接在同一个局域网内。获取目标电脑的IP地址&#xff0c;这可以通过在目标电脑上打开命令提示符&#xff08;Windows系…

记录我的ICME2025论文之旅:困顿与收获

人生第一次中B会&#xff0c;还是在课业繁重的大三上&#xff08;有点说法~&#xff09; “在最黑暗的时刻&#xff0c;总有一束光为你指引前行。” ——记录这段难忘的历程 今年的ICME投稿量创下新高&#xff0c;录取率却跌至20多%&#xff0c;并且首次加入了rebuttal&#xf…

MySQL多表查询

这是两个表多表查询&#xff0c;需要一个连接条件customer_id。如果有n个表实现多表查询&#xff0c;至少需要n-1个连接条件。如果少于n-1个&#xff0c;就会出现笛卡尔积的错误。 SELECT orders.order_id, customers.customer_name FROM orders INNER JOIN customers ON orde…

vue3 项目的最新eslint9 + prettier 配置

注意&#xff1a;eslint目前升级到9版本了 在 ESLint v9 中&#xff0c;配置文件已经从 .eslintrc 迁移到了 eslint.config.js 配置的方式和之前的方式不太一样了&#xff01;&#xff01;&#xff01;&#xff01; 详见自己的语雀文档&#xff1a;5、新版eslint9prettier 配…

目标检测20年(三)

对这篇论文感兴趣的小伙伴可以订阅笔者《目标检测》专栏&#xff0c;关注笔者对该文献的阅读和理解。 前两篇解读链接&#xff1a; 目标检测20年&#xff08;一&#xff09;-CSDN博客 目标检测20年&#xff08;二&#xff09;-CSDN博客 目录 四、 检测器的加速发展 4.1 特…

LLM之RAG实战(五十二)| 如何使用混合搜索优化RAG 检索

在RAG项目中&#xff0c;大模型生成的参考内容&#xff08;专业术语称为块&#xff09;来自前一步的检索&#xff0c;检索的内容在很大程度上直接决定了生成的效果&#xff0c;因此检索对于RAG项目至关重要&#xff0c;最常用的检索方法是关键字搜索和语义搜索。本文将分别介绍…

2025-3-24 leetcode刷题情况(动态规划——01背包)

一、416.分割等和子集 1.题目描述 给你一个 只包含正整数 的 非空 数组 nums 。请你判断是否可以将这个数组分割成两个子集&#xff0c;使得两个子集的元素和相等。 2.代码 3.思路 首先进行边界检查&#xff0c;若数组为空则直接返回 false。接着计算数组元素总和&#xff…

Lineageos 22.1(Android 15)实现负一屏

一、前言 方案是参考的这位大佬的&#xff0c;大家可以去付费订阅支持一波。我大概理一下Android15的修改。 大佬的方案代码 二、Android15适配调整 1.bp调整&#xff0c;加入aidl引入&#xff0c;这样make之后就可以索引代码了 filegroup {name: "launcher-src"…

5G NR PRACH 随机接入前导序列

目录 一、前言二、随机接入前导序列的产生三、 N c s N_{cs} Ncs​的规划3.1、 L R A L_{RA} LRA​839 N c s N_{cs} Ncs​规划3.2、 L R A L_{RA} LRA​139 N c s N_{cs} Ncs​规划3.3、 N c s N_{cs} Ncs​确定方法 四、根序列的规划4.1、根序列的选择与确定4.2、循环移位 …

【VUE】day07 路由

【VUE】day07 路由 1. 路由2. 前端路由的工作方式3. 实现简易的前端路由4. 安装和配置路由4.1 安装vue-router包4.2 创建路由模块4.3 导入并挂在路由模块 5. 在路由模块中声明路由的对应关系5.1 router-view 1. 路由 在 Vue.js 中&#xff0c;路由&#xff08;Routing&#xf…

WPS宏开发手册——使用、工程、模块介绍

目录 系列文章前言1、开始1.1、宏编辑器使用步骤1.2、工程1.3、工程 系列文章 使用、工程、模块介绍 JSA语法 第三篇练习练习题&#xff0c;持续更新中… 前言 如果你是开发人员&#xff0c;那么wps宏开发对你来说手拿把切。反之还挺吃力&#xff0c;需要嘻嘻&#xf…

数学概念学习

# 欧式空间 ## 定义 日常生活观察到的几何空间&#xff1a;一维、平面和三维空间。 ## 点与向量 是欧式空间的基本元素。 ## 距离和内积 距离&#xff1a;通过欧几里得距离公式计算 内积&#xff08;点积&#xff09;&#xff1a; 通过两个向量的内积来测量他们的相似性&…

InnoDB 引擎核心知识点

InnoDB 引擎核心知识点 6.1 逻辑存储结构 表空间&#xff08;Tablespace&#xff09;&#xff1a;所有数据逻辑上存储在一个表空间中&#xff0c;物理上可能由多个文件组成。段&#xff08;Segment&#xff09;&#xff1a;分为数据段&#xff08;B树叶子节点&#xff09;、索引…

C++《红黑树》

在之前的篇章当中我们已经了解了基于二叉搜索树的AVL树&#xff0c;那么接下来在本篇当中将继续来学习另一种基于二叉搜索树的树状结构——红黑树&#xff0c;在此和之前学习AVL树类似还是通过先了解红黑树是什么以及红黑树的结构特点&#xff0c;接下来在试着实现红黑树的结构…

java实现coze平台鉴权+工作流调用(踩坑记录)

问题偏多建议大家看完文章后再开始实现 OAuth鉴权 https://www.coze.cn/open/docs/developer_guides/preparation https://www.coze.cn/open/docs/developer_guides/oauth_apps OAuth 授权码鉴权 https://www.coze.cn/open/docs/developer_guides/oauth_code 创建OAuth应…

2025年优化算法:龙卷风优化算法(Tornado optimizer with Coriolis force,TOC)

龙卷风优化算法&#xff08;Tornado optimizer with Coriolis force&#xff09;是发表在中科院二区期刊“ARTIFICIAL INTELLIGENCE REVIEW”&#xff08;IF&#xff1a;11.7&#xff09;的2025年智能优化算法 01.引言 当自然界的狂暴之力&#xff0c;化身数字世界的智慧引擎&…

面试题分享-多线程顺序打印奇偶数

目录 1.题目详情 2.解题思路 2.1.分析题目 2.2.解析思路 3.代码实现 4.运行结果 1.题目详情 昨天刷抖音&#xff0c;遇到一个面试题&#xff0c;描述如下&#xff1a; 请使用两个线程&#xff0c;分别顺序交替打印奇数和偶数&#xff0c;直到10为止。例如有两个线程&#…

QuecPython 网络协议之TCP/UDP协议最祥解析

概述 IP 地址与域名 IP 地址是网络中的主机地址&#xff0c;用于两台网络主机能够互相找到彼此&#xff0c;这也是网络通信能够成功进行的基础。IP 地址一般以点分十进制的字符串来表示&#xff0c;如192.168.1.1。 ​ 我们日常访问的网站&#xff0c;其所在的服务器主机都有…

React - LineChart组件编写(用于查看每日流水图表)

一、简单版本 LineChart.tsx // src/component/LineChart/LineChart.tsx import React, {useEffect,useRef,useImperativeHandle,forwardRef,useMemo,useCallback, } from react; import * as echarts from echarts/core; import type { ComposeOption } from echarts/core; …