Python-网络爬虫

随着网络的迅速发展,如何有效地提取并利用信息已经成为一个巨大的挑战。为了更高效地获取指定信息,需定向抓取并分析网页资源,从而促进了网络爬虫的发展。本章将介绍使用Python编写网络爬虫的方法。

学习目标:
理解网络爬虫的基本操作流程

掌握通过requests库进行数据抓取的方法

掌握通过正则表达式进行数据解析的方法

掌握运用beautifulsoup4库解析和处理数据的方法

1   概述

网络爬虫(Web Spider)又称网络蜘蛛或网络机器人,是一段用来实现自动采集网站数据的程序。 网络爬虫不仅能够为搜索引擎采集网络信息,而且还可以作为定向信息采集器,定向采集某些网站中的特定信息。 对于定向信息的爬取,网络爬虫主要采取数据抓取、数据解析、数据入库的操作流程。

(1)数据抓取:发送构造的HTTP请求,获得包含所需数据的HTTP响应;

(2)数据解析:对HTTP响应的原始数据进行分析、清洗,以提取出所需要的数据;

(3)数据入库:将数据进一步保存到数据库(或文本文件)中,用于构建知识库。

Python提供了许多与网络爬虫相关的库。其中,在数据抓取方面requests;在数据解析方面包括re(正则表达式),beautifulsoup4。         

2   数据抓取

2.1  requests库概述

requests库提供了很多功能特性,几乎涵盖了所有Web服务的需求,包括URL获取、HTTP长连接和连接缓存、HTTP会话、浏览器式的SSL验证、身份认证、Cookie会话、文件分块上传、流下载、HTTP(S)代理功能、连接超时处理等。 由于requests库是第三方库,因此,需要通过pip3指令进行安装,pip3安装命令如下:

pip install requests

 通常需要使用国内代理:

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple/ requests

 安装完requests库后,在Python交互模式下输入导入requests库的语句:

import requests

 如果没有提示错误,则说明安装成功。

2.2  使用requests库

网络爬虫工作流程的第一步是数据的抓取,也就是使用requests库实现发送HTTP请求和获取HTTP响应的内容。

2.2.1发送HTTP请求

requests库提供了几乎所有的HTTP请求方法:

调用get()函数是获取网页最常用的方式,在调用requests.get()函数后,返回的网页内容会保存为一个Response对象。

import requests #导入requests库
r = requests.get('http://www.baidu.com')	#使用get函数打开百度链接
print(type(r))					#查看返回值r的类型
#<class 'requests.models.Response'>

 有时我们需要在URL中传递参数。

例如:在采集百度搜索结果时,需要传递wd参数(搜索词)。requests允许使用params关键字参数,以一个字符串字典来提供这些参数。

import requests				#导入requests库
payload = {'wd': 'Python'}			#定义字典
r = requests.get("http://www.baidu.com/s", params=payload)	#传入URL参数
print(r.url)							#输出URL的值
#'http://www.baidu.com/s?wd=Python'

 用浏览器打开被编码的URL得到百度搜索关键字“Python”的结果。

 2.2.2获取HTTP响应的内容

和浏览器的交互过程一样,requests.get()代表发送HTTP请求的过程,它返回的Response对象代表HTTP响应。我们可以通过Response对象的不同属性来获取不同内容,其语法格式如下:

对象名.属性名

 Response对象的常用属性:

 除了属性,Response对象还提供了两个常用的方法:

(1)json()方法:如果HTTP响应内容包含JSON格式数据,则该方法解析JSON数据。

提示:JSON的全称是“JavaScript Object Notation”,即JavaScript对象表示法,是一种基于文本又独立于语言的轻量级数据交换格式,易于阅读和理解。

例如:这段代码报错了,因为ip的问题,ip好像过期了

import requests			#导入requests库
r = requests.get('http://ip.taobao.com/service/getIpInfo.php?ip=140.205.220.96')
print(r.json())				#调用json()方法
#{'code': 0, 'data': {'ip': '122.88.60.28', 'country': '中国', 'area': '', 'region': '江苏', 'city': '南京', 'county': 'XX', 'isp': '铁通', 'country_id': 'CN', 'area_id': '', 'region_id': '320000', 'city_id': '320100', 'county_id': 'xx', 'isp_id': '100020'}}

 (2)raise_for_status()方法:该方法能在非成功响应后产生异常,即只要返回的请求状态status_code不是200,该方法就会产生一个异常,可用try-except异常处理结果进行处理。

提示:一般情况下,需要在发送HTTP请求之后,调用raise_for_status()方法判断有无发生异常,如果没有发生异常,则进行数据的处理,否则不进行数据处理。

2.2.3  简单应用

例:爬取“http://www.bjjqe.com”网站的内容,并将爬取到的内容输出。

import requests				#导入requests库
#异常处理
try:r = requests.get('http://www.bjjqe.com')#使用get函数打开指定的urlr.raise_for_status()			#如果状态不是200,则引发异常r.encoding = 'utf-8'			#更改编码方式print(r.text)				#用字符串的形式显示页面内容
except:print("网站连接失败!")		#发生异常则输出“网站连接失败!”

 运行效果:

3   数据解析

3.1  正则表达式

3.1.1正则表达式基础

正则表达式是用于处理字符串的强大工具,它使用预定义的特定模式去匹配一类具有共同特征的字符串,主要用于快速、准确地完成复杂字符串的查找、替换等。

具体应用时,可以单独使用某种类型的元字符,但处理复杂字符串时,经常需要将多个正则表达式元字符进行组合。下面给出了几个示例。 (1)'[a-zA-Z0-9]'可以匹配一个任意大小写字母或数字。 (2)'^(\w){6,15}$'匹配长度为6~15的字符串,可以包含数字、字母和下划线。 (3)'^\w+@(\w+\.)+\w+$'检查给定字符串是否为合法电子邮件地址。 (4)'\d{1,3}\.\d{1,3}\.\d{1,3}\.\d{1,3}$'检查给定字符串是否为合法IP地址。

3.1.2re模块

在Python中,主要使用re模块来实现正则表达式的操作,该模块的常用方法下表所示。

 (1) 直接使用re模块方法

import re			#导入re模块
#引入 Python 的正则表达式模块 re,它提供了处理正则表达式的功能。
text = 'Python.C.Java...PHP'	#定义text字符串
print(re.split('[\.]+',text))		#调用split()函数对text进行分割
#'[\.]+' 匹配连续的一个或多个点号作为分隔符。
#['Python', 'C', 'Java', 'PHP']
print(re.findall('[a-zA-Z]+',text))	#调用findall()函数查找由大小写字母组成的字符串
#['Python', 'C', 'Java', 'PHP']
#'[a-zA-Z]+' 匹配连续的一个或多个字母,形成单词。

(2)使用正则表达式对象

编译后的正则表达式对象不仅可以提高字符串的处理速度,还提供了更加强大的字符串处理功能。此处,我们首先使用re模块的compile()方法将正则表达式编译成正则表达式对象,然后使用正则表达式对象提供的方法进行字符串处理。

import re				#导入re模块
p = re.compile(r'\d+')		#将正则表达式编译成正则表达式对象
print(p.findall('one1two2three3four4'))#调用findall()方法查找数字
#['1','2','3','4']
#'\d+' 匹配连续的一个或多个数字。

 例子:爬取“http://www.bjjqe.com”网站的内容,解析数据,将该网站上的“.jpg“图片下载到本地。

 代码:(目标网站已更换为https://www.wenjingketang.com/bookHome/)

import requests                         #导入requests库
import re                                   #导入re模块
#定义一个getHtml()函数,根据填写的url参数获取数据
def getHtml(url):#异常处理try:r = requests.get(url)                   #使用get函数打开指定的urlr.raise_for_status()                    #如果状态不是200,则引发异常r.encoding = 'utf-8'                    #更改编码方式return r.text                       #返回页面内容except:return ""                           #发生异常返回空字符
#定义一个getImg()函数,根据填写的html参数获取图片并存储
def getImg(html):reg=r'src="(.+?\.jpg)"'                 #定义正则表达式#非贪婪模式匹配任意数量的任意字符(除了换行符),直到遇到第一个 .jpg。imglist=re.findall(reg,html)                #查找页面中所有符合条件的字符串#在这个例子中,它会找到所有符合 src="...jpg" 格式的图片链接,并将它们作为列表返回。print(imglist)                          #输出列表结果#打印出找到的所有图片链接,便于调试和验证。i = 0                                   #定义i用于给下载的图片命名for url in imglist:                     #遍历with open(str(i)+".jpg","wb") as fd:    #以写入方式打开二进制文件#以二进制写入模式打开一个新文件,文件名为当前计数值 i 加上扩展名 .jpg。#路径前加上“http://www.bjjqe.com”response=requests.get("https://www.wenjingketang.com/bookHome/"+url)  #获取内容#尝试获取图片的实际内容。注意这里直接在图片 URL 前添加了固定的域名 "https://www.wenjingketang.com/bookHome/"fd.write(response.content)      #写入文件print('图片',i,"保存成功\n")      #输出提示信息i+=1                            #i加1
html = getHtml("https://www.wenjingketang.com/bookHome/")     #调用获取页面内容函数
getImg(html)                                #调用获取图片并存储函数

 程序运行效果:

图片会保存在代码的同目录下 

3.2  beautifulsoup4库

beautifulsoup4也称为Beautiful Soupbs4,用于解析和处理HTMLXML文件,其最大优点是能够根据HTMLXML语法建立解析树,进而提高解析效率。

例如:有以下HTML文件:

<html><head></head><body><a>first</a><a>second</a></body>
</html>

 由于beautifulsoup4库是第三方库,因此,需要通过pip3指令进行安装,pip3安装命令如下:

pip install beautifulsoup4

beautifulsoup4库中最重要的类是BeautifulSoup,它的实例化对象相当于一个页面。

采用from-import语句导入库中的BeautifulSoup类,然后使用BeautifulSoup()创建一个BeautifulSoup对象。

例如:

import requests			#导入requests库
from bs4 import BeautifulSoup		#从bs4库中导入BeautifulSoup类
r = requests.get('http://www.baidu.com')	#使用get函数打开百度链接
r.encoding = 'utf-8'			#更改编码方式
soup = BeautifulSoup(r.text)		#创建BeautifulSoup对象
print(type(soup))				#查看soup类型
#<class 'bs4.BeautifulSoup'>

 创建的BeautifulSoup对象是一个树形结构,它包含HTML页面中的标签元素,如<head><body>也就是说,HTML中的主要结构都变成了BeautifulSoup对象的一个属性,可通过“对象名.属性名”形式获取属性值。

 

 

head

HTML页面的<head>内容

title

HTML页面标题,在<head>中,由<title>标记

body

HTML页面的<body>内容

p

HTML页面中第一个<p>内容

a

HTML页面中第一个<a>内容

strings

HTML页面所有呈现在Web上的字符串,即标签的内容

stripped_strings

HTML页面所有呈现在Web上的非空格字符串

 每一个标签在beautifulsoup4库中又是一个对象,称为Tag对象。

例如:

print(type(soup.p))#查看“soup.p”类型
#<class 'bs4.element.Tag'>

 Tag对象有4个常用属性:

 

 

name

字符串,标签的名字,如headtitle

attrs

字典,包含了页面标签的所有属性(尖括号内的其他项),如href

contents

列表,这个标签下所有子标签的内容

string

字符串,标签所包围的文字,网页中真实的文字(尖括号之间的内容)

 当需要列出对应标签的所有内容或找到非第一个标签时,可以使用BeautifulSoup对象的find_all()方法。该方法会遍历整个HTML文件,按照条件返回标签内容(列表类型)。其语法格式如下:

对象名.find_all(name, attrs,recursive, string, limit)

name表示标签名;
attrs表示按照标签属性值检索(需列出属性名和值);
recursive表示查找层次(Beautiful Soup默认检索当前标签的所有子孙节点,如果只搜索标签的直接子节点,可以使用参数recursive = False);
string表示按照关键字检索string属性内容(采用string = 开始);
limit表示返回结果的个数,默认返回全部结果。

例:爬取“https://www.wenjingketang.com/bookHome”网站的内容,解析数据,输出该网站中的图书信息。

import requests						#导入requests库
import re								#导入re模块
from bs4 import BeautifulSoup			#导入BeautifulSoup
#定义一个getHtml()函数,根据填写的url参数获取数据
def getHtml(url):#异常处理try:r = requests.get(url)				#使用get函数打开指定的urlr.raise_for_status()				#如果状态不是200,则引发异常r.encoding = 'utf-8'				#更改编码方式return r.text					#返回页面内容except:return ""						#发生异常返回空字符
#定义数据解析函数,用于找到符合条件的数据并输出
def getcon(html):bsObj = BeautifulSoup(html)			#将html对象转化为BeautifulSoup对象#找到所有class为bk_show_info的div来只获取图书的信息divList = bsObj.find_all('div',{'class':'bk_show_info'}) allbook = []						#存储全部数据,二维列表for divs in divList:book_info = []					#存储单本图书信息,一维列表book_name = divs.h4['data-name']	#获取图书名称book_info.append(book_name)	#将图书名称存储到book_infop_list = divs.find_all('p')			#查找单本图书的其他信息(在标签p中)for p_content in p_list:book_info.append(p_content.string)	#将p标签中的信息存入book_infoallbook.append(book_info)		#将单本图书的信息存入allbook#输出获取到的图书信息for book in allbook:print(book)
html = getHtml("https://www.wenjingketang.com/bookHome/")	#调用获取页面内容函数
getcon(html)							#调用解析数据函数

因为网站内容有变化,代码跑不通先学到这里了。。。。。。 

4   典型案例
 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/496973.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【超级详细】七牛云配置阿里云域名详细过程记录

0. 准备一个阿里云域名&#xff0c;记得要备案&#xff01;&#xff01;&#xff01;&#xff01; 1. 创建七牛云存储空间 首先&#xff0c;登录七牛云控制台&#xff0c;创建一个新的存储空间&#xff08;Bucket&#xff09;。这个存储空间将用于存放你的文件&#xff0c;并…

WPF使用资源定义和样式资源,解耦视图与逻辑(较多样式重复的时候使用)

-- 将Button的Style写到Window.Resources中 其中Window.Resource的Style也是可以继承的&#xff0c;需要使用BaseOn这个属性 还有很多用法的&#xff0c;有空再补充

GitLab安装及使用

目录 一、安装 1.创建一个目录用来放rpm包 2.检查防火墙状态 3.安装下载好的rpm包 4.修改配置文件 5.重新加载配置 6.查看版本 7.查看服务器状态 8.重启服务器 9.输网址 二、GitLab的使用 1.创建空白项目 2.配置ssh 首先生成公钥&#xff1a; 查看公钥 把上面的…

Socket学习(一):控制台聊天demo

实现效果 客户端连接服务端后&#xff0c;可在控制台输入要发送的消息&#xff0c;服务端收到消息后自动回复消息并将消息转发给所有连接上的客户端&#xff1a; 服务端收到消息并回复 客户端1发送消息并接收服务端的回复 客户端2接收服务端转发的消息 源码 SocketServer…

虚拟机桥接模式

主机Win10,虚拟机xp 1.虚拟机设置中选择桥接模式 2.在虚拟机菜单&#xff1a;编辑>虚拟机网络编辑&#xff0c;点击“更改设置”&#xff0c;可以看到三个网卡&#xff0c;这三个网卡分别对应不同的网络共享模式。桥接模式须使用VMnet0&#xff0c;如果没看到这个网卡&…

功能测试和接口测试

&#x1f345; 点击文末小卡片 &#xff0c;免费获取软件测试全套资料&#xff0c;资料在手&#xff0c;涨薪更快 本文主要分为两个部分&#xff1a; 第一部分&#xff1a;主要从问题出发&#xff0c;引入接口测试的相关内容并与前端测试进行简单对比&#xff0c;总结两者之…

2022博客之星年度总评选开始了

作者简介&#xff1a;陶然同学 专注于Java领域开发 熟练掌握Java、js等语言的“Hello World” CSDN原力计划作者、CSDN内容合伙人、Java领域优质作者、Java领域新星作者、51CTO专家、华为云专家、阿里云专家等 &#x1f3ac; 陶然同学&#x1f3a5; 由 陶然同学 原创&#…

Spring自动化创建脚本-解放繁琐的初始化配置!!!(自动化SSM整合)

一、实现功能(原创&#xff0c;转载请告知) 1.自动配置pom配置文件 2.自动识别数据库及数据表&#xff0c;创建Entity、Dao、Service、Controller等 3.自动创建database.properties、mybatis-config.xml等数据库文件 4.自动创建spring-dao.xml spring-mvc.xml …

Linux总结之CentOS Stream 9安装mysql8.0实操安装成功记录

Linux总结之CentOS Stream 9安装mysql8.0实操安装成功记录 由于网上很多的mysql8.0安装教程都是老版本或者安装过程记录有问题&#xff0c;导致经常安装到一半需要删除重新安装。所以将成功的实操安装过程记录一下&#xff0c;方面后面查阅&#xff0c;大家还有问题的可以在此讨…

柒拾捌- 如何通过数据影响决策(六)- 放大再放大

1、整体带来的错觉 当我们观察宏观的数据时&#xff0c;常常会发现有些东西 无法理解。例如为什么人人都说楼价在跌&#xff0c;但公布的楼价数据却在涨&#xff1f;例如为什么经济感受那么差&#xff0c;宏观数据却还是在涨&#xff1f; 如果我们只在于 某个粒度 的数据&…

sql group by 多个字段例子

有表如下&#xff1b; 获取某年份、某地区、某产品的销售总额&#xff0c; 或者根据需要把字段顺序换一下&#xff1b; insert into sales (product, year, region, amount) values (飞机,2000,东部,5); insert into sales (product, year, region, amount) values (飞机,2001,…

在Windows上读写Linux磁盘镜像的一种方法

背景 嵌入式开发中&#xff0c;经常会把系统的Linux磁盘镜像保存到Windows上&#xff0c;以便上传到网盘备份或发送给工厂&#xff0c;但是如果想读取/修改镜像中的某个文件&#xff0c;一般有2种方案&#xff1a; 直接访问 就是用虚拟磁盘软件将镜像文件挂载成磁盘&#xf…

uniapp开发微信小程序实现获取“我的位置”

1. 创建GetLocation项目 使用HBuilder X创建一个项目GetLocation,使用Vue3。 2. 在腾讯地图开放平台中创建应用 要获取位置,在小程序中需要使用腾讯地图或是高德地图。下面以腾讯地图为例。 (1)打开腾讯地图开放平台官方网址:腾讯位置服务 - 立足生态,连接未来 (2)注册…

XXE漏洞 黑盒测试 白盒测试 有无回显问题

前言 什么是XXE&#xff08;xml外部实体注入漏洞&#xff09;&#xff1f; 就是网站以xml传输数据 的时候我们截取他的传输流进行修改&#xff08;网站没有对我们的输入进行过滤&#xff09; 添加恶意代码 导致数据传输到后台 后台解析xml形式 导致恶意代码被执行 几种常见的…

《数据结构》期末考试测试题【上】

数据结构测试题 1.数据结构是指什么&#xff1f;2.某语句时间复杂为&#xff1f;3.关于数据结构的说法那个正确&#xff1f;4.一个算法的评价标准包括哪些方面?5.时间复杂度指的是什么&#xff1f;6.算法的重要特征有那些&#xff1f;7.某语句时间复杂为&#xff1f;8.存储数据…

PCA降维MATLAB代码解释及应用场景

代码整体功能概述 这段代码主要实现了以下几个功能&#xff1a;首先读取两个 CSV 文件中的数据&#xff0c;对数据进行归一化处理后合并&#xff0c;接着绘制原始数据的散点图进行可视化展示&#xff0c;然后应用主成分分析&#xff08;PCA&#xff09;算法对合并后的数据进行…

JVM学习-内存结构(一)

一、引言 学前了解&#xff1a; 1.什么是JVM 1.1定义 Java Virtual Machine &#xff0c;Java 程序的运行环境&#xff08;Java 二进制字节码的运行环境&#xff09;。 好处 一次编译&#xff0c;处处执行 自动的内存管理&#xff0c;垃圾回收机制 数组下标越界检查 比较…

【C++】统计正整数的位数:题目解析与代码优化

博客主页&#xff1a; [小ᶻ☡꙳ᵃⁱᵍᶜ꙳] 本文专栏: C 文章目录 &#x1f4af;前言&#x1f4af;题目描述**题目要求&#xff1a;统计正整数的位数** &#x1f4af;我的代码实现**核心逻辑解析** &#x1f4af;老师的代码实现**老师代码逻辑解析** &#x1f4af;我的代码…

QML学习(五) 做出第一个简单的应用程序

今天先尝试做出第一个单页面的桌面应用程序。 1.首先打开Qt,创建项目&#xff0c;选择“QtQuick Application - Empty” 空工程。 2.设置项目名称和项目代码存储路径 3.这里要注意选择你的编译器类型&#xff0c;以及输出的程序时32位还是64位。 4.然后一路下一步生成项目框…

光谱相机与普通相机的区别

一、成像目的 普通相机&#xff1a;主要目的是记录物体的外观形态&#xff0c;生成人眼可见的、直观的二维图像&#xff0c;重点在于还原物体的形状、颜色和纹理等视觉特征&#xff0c;以供人们进行观赏、记录场景或人物等用途。例如&#xff0c;拍摄旅游风景照片、人物肖像等…