Python爬虫:想听榜单歌曲?使用BeautifulSoup库只需要14行代码即可搞定

目录

  • BeautifulSoup库
    • 安装BeautifulSoup库
    • BeautifulSoup库简介
    • 选择解释器
      • 基础用法
    • 节点选择器
      • 获取节点名称属性内容
      • 获取所有子节点
      • 获取所有子孙节点
      • 父节点与兄弟节点
    • 方法选择器
      • find_all()方法
      • find()方法
    • CSS选择器
      • 嵌套选择节点
      • 获取属性与文本
    • 通过浏览器直接Copy-CSS选择器
    • 实战:抓取酷狗飙升榜榜单

BeautifulSoup库

虽然说XPath比正则表达式用起来方便,但是没有最方便,只有更方便。我们的BeautifulSoup库就能做到更方便的爬取想要的东西。

安装BeautifulSoup库

使用之前,还是老规矩,先安装BeautifulSoup库,指令如下:

pip install beautifulsoup4

其中文开发文档:

https://www.crummy.com/software/BeautifulSoup/bs4/doc/index.zh.html

BeautifulSoup库简介

BeautifulSoup库是一个强大的Python语言的XML和HTML解析库。它提供了一些简单的函数来处理导航、搜索、修改分析树等功能。

BeautifulSoup库还能自动将输入的文档转换为Unicode编码,输出文档转换为UTF-8编码。

所以,在使用BeautifulSoup库的过程中,不需要开发中考虑编码的问题,除非你解析的文档,本身就没有指定编码方式,这才需要开发中进行编码处理。

下面,我们来详细介绍BeautifulSoup库的使用规则。

选择解释器

下面,我们来详细介绍BeautifulSoup库的重点知识。

首先,BeautifulSoup库中一个重要的概念就是选择解释器。因为其底层依赖的全是这些解释器,我们有必要认识一下。博主专门列出了一个表格:

解释器使用方式优点缺点
Python标准库BeautifulSoup(code,‘html.parser’)Python的内置标准库,执行速度适中,容错能力强Python2.7.3以及Python3.2.2之前的版本容错能力差
lxml HTML解析器BeautifulSoup(code,‘lxml’)解析速度快,容错能力强需要安装C语言库
lxml XML解析器BeautifulSoup(code,‘xml’)解析速度快,唯一支持XML的解析器需要安装C语言库
html5libBeautifulSoup(code,‘html5lib’)最好的容错性,以浏览器的方式解析文档,生成HTML5格式的文档解析速度慢

从上面表格观察,我们一般爬虫使用lxml HTML解析器即可,不仅速度快,而且兼容性强大,只是需要安装C语言库这一个缺点(不能叫缺点,应该叫麻烦)。

基础用法

要使用BeautifulSoup库,需要和其他库一样进行导入,但你虽然安装的是beautifulsoup4,但导入的名称并不是beautifulsoup4,而是bs4。用法如下:

from bs4 import BeautifulSoupsoup = BeautifulSoup('<h1>Hello World</h1>', 'lxml')
print(soup.h1.string)

运行之后,输出文本如下:

基础用法

节点选择器

基础的用法很简单,这里不在赘述。从现在开始,我们来详细学习BeautifulSoup库的所有重要知识点,第一个就是节点选择器。

所谓节点选择器,就是直接通过节点的名称选择节点,然后再用string属性就可以得到节点内的文本,这种方式获取最快。

比如,基础用法中,我们使用h1直接获取了h1节点,然后通过h1.string即可得到它的文本。但这种用法有一个明显的缺点,就是层次复杂不适合。

所以,我们在使用节点选择器之前,需要将文档缩小。比如一个文档很多很大,但我们获取的内容只在id为blog的div中,那么我们先获取这个div,再在div内部使用节点选择器就非常合适了。

HTML示例代码:

<!DOCTYPE html>
<html>
<head lang="en">
<meta charset="utf-8">
<title>我是一个测试页面</title>
</head>
<body>
<ul class="ul"><li class="li1"><a href="https://liyuanjinglyj.blog.csdn.net/">我的主页</a></li><li class="li2"><a href="https://www.csdn.net/">CSDN首页</a></li><li class="li3"><a href="https://www.csdn.net/nav/python" class="aaa">Python板块</a></li>
</ul>
</body>
</html>

下面的一些示例,我们还是使用这个HTML代码进行节点选择器的讲解。

获取节点名称属性内容

这里,我们先来教会大家如何获取节点的名称属性以及内容,示例如下:

from bs4 import BeautifulSoupwith open('demo.html', 'r', encoding='utf-8') as f:html = f.read()
soup = BeautifulSoup(html, 'lxml')
# 获取节点的名称
print(soup.title.name)
# 获取节点的属性
print(soup.meta.attrs)
print(soup.meta.attrs['charset'])
# 获取节点的内容(如果文档有多个相同属性,默认获取第一个)
print(soup.a.string)
# 也可以一层一层的套下去
print(soup.body.ul.li.a.string)

运行之后,效果如下:

属性与内容

这里的注释代码都很详细,就不在赘述。

获取所有子节点

一般来说一个节点的子节点有可能很多,通过上面的方式获取,只能得到第一个。如果要获取一个标签的所有子节点,这里有2种方式。先来看代码:

from bs4 import BeautifulSoupwith open('demo.html', 'r', encoding='utf-8') as f:html = f.read()
soup = BeautifulSoup(html, 'lxml')
# 获取直接子节点
print("获取直接子节点")
contents = soup.head.contents
print(contents)
for content in contents:print(content)
children = soup.head.children
print(children)
for child in children:print(child)

运行之后,效果如下:

所有子节点
如上面代码所示,我们有2种方式获取所有子节点,一种是通过contents属性,一种是通过children属性,2者遍历的结果都是一样的。

但需要特别注意,这里获取所有子节点,它是把换行符一起算进去了,所以你会看到控制台输出了很多空行。所以,在实际的爬虫中,遍历之时一定要删除这些空行。

获取所有子孙节点

既然能获取直接子节点,那么获取所有子孙节点也是肯定可以的。BeautifulSoup库给我们提供了descendants属性获取子孙节点,示例如下:

from bs4 import BeautifulSoupwith open('demo.html', 'r', encoding='utf-8') as f:html = f.read()
soup = BeautifulSoup(html, 'lxml')
# 获取ul的所有子孙节点
print('获取ul的所有子孙节点')
lis = soup.body.ul.descendants
print(lis)
for li in lis:print(li)

运行之后,效果如下:

所有子孙节点

同样的,descendants获取子孙节点也算入了换行符。而且需要特别注意的是,descendants属性把文本内容本身也算作子孙节点。

父节点与兄弟节点

同样的,在实际的爬虫程序中,我们有时候也需要通过逆向查找父节点,或者查找兄弟节点。

BeautifulSoup库,给我们提供了parent属性获取父节点,同时提供了next_sibling属性获取当前节点的下一个兄弟节点,previous_sibling属性获取上一个兄弟节点。

示例代码如下:

from bs4 import BeautifulSoupwith open('demo.html', 'r', encoding='utf-8') as f:html = f.read()
soup = BeautifulSoup(html, 'lxml')
# 获取第一个a标签的父亲节点的class属性
print(soup.a.parent['class'])
li1 = soup.li
li3 = li1.next_sibling.next_sibling.next_sibling.next_sibling
li2 = li3.previous_sibling.previous_sibling
print(li1)
print(li2)
print(li3)
for sibling in li3.previous_siblings:print(sibling)

运行之后,效果如下:

兄弟父亲节点

前面已经提示了,节点选择器是把换行符‘\n’也算一个节点,所以第一个li需要通过两个next_sibling才能获取到下一个li节点。同样的,上一个也是。其实还有一个更简单的方法,能避免这些换行符被统计在内,那就是在获取网页源代码的时候,直接去掉换行与空格即可。

方法选择器

对于节点选择器,博主已经介绍了相对于文本内容较少的完全可以这么做。但实际的爬虫爬的网址都是大量的数据,开始使用节点选择器就不合适了。所以,我们要考虑通过方法选择器进行先一步的处理。

find_all()方法

find_all()方法主要用于根据节点的名称、属性、文本内容等选择所有符合要求的节点。其完整的定义如下所示:

def find_all(self, name=None, attrs={}, recursive=True, text=None,limit=None, **kwargs):
参数意义
name指定节点名称
attrs指定属性名称与值,比如查找value="text"的节点,attrs={“value”:“text”}
recursive布尔类型,值True查找子孙节点,值False直接子节点,默认为True
text指定需要查找的文本
limit因为find_all返回的是一个列表,所以可长可短,而limit与数据库语法类似,限制获取的数量。不设置返回所有

【实战】还是测试上面的HTML,我们获取name=a,attr={“class”:“aaa”},并且文本等于text="Python板块"板块的节点。

示例代码如下所示:

from bs4 import BeautifulSoupwith open('demo.html', 'r', encoding='utf-8') as f:html = f.read()
soup = BeautifulSoup(html.strip(), 'lxml')
a_list = soup.find_all(name='a', attrs={"class": 'aaa'}, text='Python板块')
for a in a_list:print(a)

运行之后,效果如下所示:

find_all

find()方法

find()与find_all()仅差一个all,但结果却有2点不同:

  1. find()只查找符合条件的第一个节点,而find_all()是查找符合条件的所有节点
  2. find()方法返回的是bs4.element.Tag对象,而find_all()返回的是bs4.element.ResultSet对象

下面,我们来查找上面HTML中的a标签,看看返回结果有何不同,示例如下:

from bs4 import BeautifulSoupwith open('demo.html', 'r', encoding='utf-8') as f:html = f.read()
soup = BeautifulSoup(html.strip(), 'lxml')
a_list = soup.find_all(name='a')
print("find_all()方法")
for a in a_list:print(a)
print("find()方法")
a = soup.find(name='a')
print(a)

运行之后,效果如下:

效果

CSS选择器

首先,我们来了解一下CSS选择器的规则:

  1. .classname:选取样式名为classname的节点,也就是class属性值是classname的节点
  2. #idname:选取id属性为idname的节点
  3. nodename:选取节点名为nodename的节点

一般来说,在BeautifulSoup库中,我们使用函数select()进行CSS选择器的操作。示例如下:

from bs4 import BeautifulSoupwith open('demo.html', 'r', encoding='utf-8') as f:html = f.read()
soup = BeautifulSoup(html.strip(), 'lxml')
li = soup.select('.li1')
print(li)

这里,我们选择class等于li1的节点。运行之后,效果如下:

CSS选择器的基本用法

嵌套选择节点

因为,我们需要实现嵌套CSS选择器的用法,但上面的HTML不合适。这里,我们略作修改,仅仅更改<ul>标签内的代码。

<ul class="ul"><li class="li"><a href="https://liyuanjinglyj.blog.csdn.net/">我的主页</a></li><li class="li"><a href="https://www.csdn.net/">CSDN首页</a></li><li class="li"><a href="https://www.csdn.net/nav/python" class="aaa">Python板块</a>
</ul>

我们仅仅删除了li后面的数字,现在我们可以实现一个嵌套选择节点的效果了。示例代码如下所示:

from bs4 import BeautifulSoupwith open('demo.html', 'r', encoding='utf-8') as f:html = f.read()
soup = BeautifulSoup(html.strip(), 'lxml')
ul = soup.select('.ul')
for tag in ul:a_list = tag.select('a')for a in a_list:print(a)

运行之后,效果如下:

示例代码

获取属性与文本

我们再次将上面的代码改造一下,因为上面获取的标签,现在我们来获取其中的文本以及href属性的值,示例如下:

from bs4 import BeautifulSoupwith open('demo.html', 'r', encoding='utf-8') as f:html = f.read()
soup = BeautifulSoup(html.strip(), 'lxml')
ul = soup.select('.ul')
for tag in ul:a_list = tag.select('a')for a in a_list:print(a['href'], a.get_text())

运行之后,效果如下:

属性与值

可以看到,我们通过[‘属性名’]进行属性值的获取,通过get_text()获取文本。

通过浏览器直接Copy-CSS选择器

与XPath类似,我们可以直接通过F12浏览器进行Copy任何节点的CSS选择器代码。具体操作如下图所示:

Copy selector
在这里插入图片描述
copy之后,直接将上面复制的内容粘贴到select()方法中即可使用。

实战:抓取酷狗飙升榜榜单

上面基本上是BeautifulSoup库的全部用法,既然我们已经学习掌握了,不抓紧爬点什么,总感觉自己很亏,所以我们选择酷狗飙升榜榜单进行爬取。

酷狗飙升榜代码
如上图所示,我们的榜单信息全在id="rankWrap"的div标签下的ul之中。所以,首先我们必须获取ul。示例代码如下:

from bs4 import BeautifulSoup
import requestsurl = "https://www.kugou.com/yy/html/rank.html"
headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36'
}
result = requests.get(url=url, headers=headers)
print(result.text)
soup = BeautifulSoup(result.text.strip(), 'lxml')
ul = soup.select('#rankWrap > div.pc_temp_songlist.pc_rank_songlist_short > ul')
print(tbody)

获取ul之后,我们就可以在获取其中的所有li节点信息,然后分解li的标签,获取重要的歌曲作者,歌曲名称等。不过,我们先来分析网页li内部代码:

li代码
可以看到,我们要的歌曲名称与作者就在li的title属性中,而歌曲的网页链接在li下,第4个span的标签下的a节点的href属性之中(也可以直接就是第一个a标签之中)。知道这些之后,我们可以完善代码了。

from bs4 import BeautifulSoup
import requestsurl = "https://www.kugou.com/yy/html/rank.html"
headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36'
}
result = requests.get(url=url, headers=headers)
soup = BeautifulSoup(result.text.strip(), 'lxml')
ul = soup.select('#rankWrap > div.pc_temp_songlist.pc_rank_songlist_short > ul')
lis = ul[0].select('li')
for li in lis:print("歌曲名称与歌曲作者:", li['title'])print("歌曲链接:", li.find('a')['href'])

如上面代码所示,我们只用了不到14行代码,就可以爬取酷狗音乐的飙升榜单,BeautifulSoup库是不是非常的强大呢?

最终效果

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/25643.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

聊斋2聂小倩java华语版,【聊斋故事汇】之聂小倩(篇二)

第二日&#xff0c;宁采臣恐怕燕赤霞有事外出&#xff0c;便趁早找他相会。还准备好酒菜&#xff0c;请他一起喝酒。宁采臣暗地观察燕赤霞&#xff0c;心道&#xff1a;小倩说燕赤霞是位奇人异士&#xff0c;为何我端端看不出呢&#xff1f;宁采臣想着小倩的话&#xff0c;不得…

聊斋2聂小倩java华语版,九个版本的聂小倩,看全的没有几个,经典也不是王祖贤!...

原标题&#xff1a;九个版本的聂小倩&#xff0c;看全的没有几个&#xff0c;经典也不是王祖贤&#xff01; 在娱乐圈一个经典的素材经常会拿来翻拍&#xff0c;也叫IP。《倩女幽魂》这个大IP就多次翻拍过&#xff0c;给投资方传的盆满钵满。最先接触的87年的《倩女幽魂》的聂小…

数创空间&国际华语音乐联盟达成合作,将联合发行系列数字音乐藏品

​​ 官方信息&#xff1a;数创空间&国际华语音乐联盟已经正式达成合作&#xff0c;继陆燕仪《头上的月光》后将继续联合发行系列数字音乐藏品。由国际华语音乐联盟提供优秀的音乐人和作品&#xff0c;数创空间提供技术和商业支持&#xff0c;共同帮助音乐人通过数字音乐藏…

计算机音乐关键词,2019华语数字音乐年度报告重磅发布 盘点音乐行业八大现象关键词...

腾讯科技讯 3月23日&#xff0c;基于 QQ 音乐、酷狗音乐、酷我音乐、全民 K 歌四大平台用户音乐行为数据&#xff0c;由腾讯音乐娱乐集团(TME)旗下由你音乐榜推出的 《2019华语数字音乐年度报告》(以下简称“报告”)正式发布。 在这份报告中&#xff0c;我们看到了华语数字音乐…

网易音乐人2021年度盘点上线 揭晓2021年华语原创音乐年度记忆

1月12日,网易云音乐发布“网易音乐人2021年度盘点”,为大家推荐2021年表现优异的原创音乐人和作品。今年网易音乐人年度盘点由平台作品榜单和从业者推荐构成,共同见证2021年华语原创音乐的生机与活力。相关数据显示,截至2021年上半年,网易音乐人总数突破30万,持续领先行业。 从…

Python实战之提取豆瓣华语新碟榜数据

Python爬虫提取数据无非下面四点 1. 要获得怎么样的数据 2. 找到数据来源 3. 模拟浏览器发送请求获得数据 4. 处理数据&#xff0c;保存数据 第一步&#xff1a;要获得怎么样的数据 首先明白要提取什么数据&#xff0c;这里我们提取数据的url地址为&#xff1a;https://m.douba…

爬虫实战(一)利用scrapy爬取豆瓣华语电影

爬虫第一个项目是爬取豆瓣华语电影&#xff0c;后面将对这部分数据进行分析。 本文也是发表于『运筹OR帷幄』微信公众号的《用数据带你了解电影行业—华语篇》的爬虫介绍篇。 1. 爬取思路 在观察了豆瓣每个影片的链接地址后&#xff0c;写下了主要思路&#xff1a; &#xf…

语音之家SOTA|TIOBE 场景测试:华语大学生辩论赛

SpeechIO TIOBE Benchmark 场景测试&#xff1a;华语大学生辩论赛 场景&#xff1a;华语大学生辩论赛 1、素材来源 YouTube 爬取&#xff0c;华语大学生辩论世界杯&#xff0c;现场视频&#xff0c;原始时长约2小时。 2、场景特点 环境 辩论赛现场&#xff0c;室内场馆会场&…

Python批量爬取华语天王巨星周杰伦的音乐

前言 本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理。 PS&#xff1a;如有需要Python学习资料的小伙伴可以加点击下方链接自行获取 python免费学习资料以及群交流解答点击即可加入 小伙伴说想听周杰伦的音乐&#xff…

华语乐坛到底姓什么?------酷狗篇

爬取页面展示 热门榜单——酷狗top500: https://www.kugou.com/yy/rank/home/1-8888.html?fromrank 特色榜单——影视金曲榜: https://www.kugou.com/yy/rank/home/1-33163.html?fromrank 项目分析 对于酷狗top500: 打开network发现酷狗并没有将榜单封装在json里面&#x…

华语电影

转载于:https://www.cnblogs.com/yymn/p/4512893.html

华为eSpace7910话机通讯录配置

1.登录话机IP。默认账号 admin/admin123 2.在左侧导航栏选择高级——服务——通讯录服务器 3.点击通讯录服务器选择LADP 4.按照下图设置LADP选项 LDAP服务器&#xff1a;172.16.237.1 LDAP端口&#xff1a;389 根节点&#xff1a;oucontacts,ouGD,ouAH,dcXXXX,dccom 账号:域…

华为产品测评官-开发者之声 - 产品体验

目录 活动介绍产品体验过程以及感受实战经验&#xff08;具体的操作步骤和结果&#xff09; 活动介绍 本期活动有机会使用并评估华为多个产品&#xff0c;包括华为云CodeArts,华为云ModelArts&#xff0c;鲲鹏DevKit&#xff0c;昇腾CANN&#xff0c;昇思MindSpore。无论您是初…

华为语音合成服务,为用户提供实时、可替换、多音调的语音播放体验

在不能操作手机或总盯着手机看的情况下&#xff0c;如何及时获取资讯信息、方便阅读呢&#xff1f;用耳朵听不失为一种好方法。华为机器学习服务的语音合成服务&#xff0c;采用深度神经网络技术&#xff0c;提供高度拟人、流畅自然的语音合成服务。开发者可以在小说阅读、智能…

基于OpenHarmony开发的语音小助手

基于OpenHarmony开发的语音小助手 本教程将演示如何在BearPi-HM_Nano开发板上使用GPIO输入功能去读取语音模块信息&#xff0c;实现****开关灯自由****&#xff01;&#xff01; 一、实验前器材准备 语音识别模块 语音播放模块 SD卡 无源喇叭 BearPi-HM_Nano开发板 E53—SC1…

带语音通话功能的华为ME909s-821a使用方法

关键词&#xff1a;华为 HUAWEI ME909s 821a V2 语音 Codec 正文&#xff1a;不少用户反馈&#xff0c;希望华为ME909s-821a模块能带上语音通话功能&#xff0c;其实821a模块引出了PCM数字音频接口&#xff0c;我们只需要外挂一个PCM codec即可实现语音通话功能。但是考虑…

调用华为API实现中文语音识别

目录 1. 作者介绍2. 华为云中文语音识别2.1 录音文件识别与获取2.2 限制要求2.3 对象存储服务&#xff08;OBS&#xff09;简介 3. 实验过程以及结果3.1获得API3.2 代码实现3.3 运行结果 参考&#xff08;可供参考的链接和引用文献&#xff09; 1. 作者介绍 张楠&#xff0c;女…

chatgpt赋能python:Python处理Word文件的优秀方案

Python处理Word文件的优秀方案 如今&#xff0c;Word文档在生活中变得越来越普遍&#xff0c;不仅在学校或办公室中使用&#xff0c;而且也在日常生活中&#xff0c;像编辑简历、写作业、撰写文档和工作报告等方面也十分常见。因此&#xff0c;学习如何使用Python处理Word文件…

期待文心一言体验号

期待百度文心一言的体验号&#xff0c;用好chatGPT首先要问自己想要什么&#xff0c;该怎么问才能高效拿到想要的目标结果。遇弱则弱&#xff0c;遇强则强&#xff0c;遇到正能量就能传递正能量&#xff01; 谁有文心一言体验地址麻烦提供一下&#xff0c;交流一下: 下方是回复…

ChatGPT时代:数据标注会成为一种人机交互“语言”么?

标注猿的第70篇原创 一个用数据视角看AI世界的标注猿 大家好&#xff0c;我是AI数据标注猿刘吉&#xff0c;一个用数据视角看AI世界的标注猿。 从去年的10月份到现在有半年的时间没有更新了&#xff0c;去年没有更新是疫情的原因&#xff0c;今年没有更新主要有两个原因一…