本文通过python 来实现这样一个简单的爬虫功能,把我们想要的图片爬取到本地。
下面就看看如何使用python来实现这样一个功能。
# -*- coding: utf-8 -*-
import urllib
import re
import time
import os#显示下载进度
def schedule(a,b,c):'''''a:已经下载的数据块b:数据块的大小c:远程文件的大小'''per = 100.0 * a * b / cif per > 100 :per = 100print '%.2f%%' % perdef getHtml(url):page = urllib.urlopen(url)html = page.read()return htmldef downloadImg(html):reg = r'src="(.+?\.jpg)" pic_ext'imgre = re.compile(reg)imglist = re.findall(imgre, html)#定义文件夹的名字t = time.localtime(time.time())foldername = str(t.__getattribute__("tm_year"))+"-"+str(t.__getattribute__("tm_mon"))+"-"+str(t.__getattribute__("tm_mday"))picpath = 'D:\\ImageDownload\\%s' % (foldername) #下载到的本地目录if not os.path.exists(picpath): #路径不存在时创建一个os.makedirs(picpath) x = 0for imgurl in imglist:target = picpath+'\\%s.jpg' % xprint 'Downloading image to location: ' + target + '\nurl=' + imgurlimage = urllib.urlretrieve(imgurl, target, schedule)x += 1return image;if __name__ == '__main__':print ''' *************************************** Welcome to use Spider **** Created on 2014-05-13 **** @author: cruise ***************************************'''html = getHtml("http://tieba.baidu.com/p/2460150866")downloadImg(html)print "Download has finished."
这里的核心是用到了urllib.urlretrieve()方法,直接将远程数据下载到本地。
下面我们再来看看 urllib 模块提供的 urlretrieve() 函数。urlretrieve() 方法直接将远程数据下载到本地。
1 | >>> help (urllib.urlretrieve) |
2 | Help on function urlretrieve in module urllib: |
3 |
4 | urlretrieve(url, filename = None , reporthook = None , data = None ) |
- 参数 finename 指定了保存本地路径(如果参数未指定,urllib会生成一个临时文件保存数据。)
- 参数 reporthook 是一个回调函数,当连接上服务器、以及相应的数据块传输完毕时会触发该回调,我们可以利用这个回调函数来显示当前的下载进度。
- 参数 data 指 post 到服务器的数据,该方法返回一个包含两个元素的(filename, headers)元组,filename 表示保存到本地的路径,header 表示服务器的响应头。
在python shell中看到的信息如下:
程序运行完成,将在目录下看到下载到本地的文件。