根据文章项目十二:简单的python基础爬虫训练-CSDN博客的简单应用,这一次来升级我们的技术,那么继续往下看,希望对技术有好运。
还是老样子,按流程走,一条龙服务,嘿嘿。
第一步:导入需要的库——requests库
import requests
第二步:指定网址首页,看你个人选择,这里用搜狗,网址为搜狗搜索引擎 - 上网从搜狗开始
url = 'https://www.sogou.com/'
第三步:发送get请求信息
response = requests.get(url = url)
第四步:输出响应信息
print(req.text)
完整代码如下
import requests # 导入requests模块
url = 'https://www.sogou.com' # 要爬取的网址
req = requests.get(url) # 发起请求
print(req.text) # 输出响应信息
第五步
输出结果
ok,就当给未来的自已上一道保险杠,免得自已不知道写的啥。🎁🎁🎁🎁
嗯,这一次我们要爬取搜狗指定词条所对应的搜索结果,还是老样子,继续往下走
第一步:处理url携带的参数,封装到字典
kw = input('enter a word:')
param = {'query':kw
}
参考来源(图中第三步可以不用,看个人需要)
第二步:伪装请求头,模拟用户行为,封装到字典
headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36'
}
注意这个请求头都是在浏览器标头中复制找到即可,但是有时候会发生变化,需要实际运用。如图
第三步:发送请求
response = requests.get(url = url, params = param, headers = headers)
第四步:输出信息
page_text = response.text
print(len(page_text))
完整代码如下
import requests
url = 'https://www.sogou.com/web'
kw = input('enter a word:') #输入搜索词
param = {'query':kw #搜索词
}
headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36'
}
response = requests.get(url = url, params = param, headers = headers)
page_text = response.text
print(len(page_text))
输出结果
第五步:存储信息
代码如下
fileName = 'kw' + '.html'
with open(fileName, 'w', encoding='utf-8') as fp:fp.write(page_text)
跟上一篇文章代码操作一样,自行体会,嘿嘿
好了,简单的案例我们能够简单应用,后续会不定时分享小小心得,期待有好运到来🎁💖