代码
from selenium import webdriver
from selenium.webdriver.common import keys
import time
import requests
import random# 创建浏览器
def functions():browser = webdriver.Chrome(r'G:\taobao\chromedriver.exe')# 让浏览器打开淘宝browser.get("https://www.taobao.com/")# 找到搜索框输入内容并搜索browser.find_element_by_xpath('//*[@id="q"]').send_keys("便携果汁杯", keys.Keys.ENTER)time.sleep(1)# 切换成二维码登录browser.find_element_by_xpath('//*[@id="login"]/div[1]/i').click()# 判断当前页面是否为登录页面while browser.current_url.startswith("https://login.taobao.com/"):print("等待用户输入")time.sleep(1)print("登录成功!!!")n = 1count = 1while True:items = browser.find_elements_by_css_selector('.m-itemlist .items > div')for item in items:# 获取这张图片的下载地址img = item.find_element_by_css_selector(".pic-box .pic img").get_attribute("data-src")# 拼接完成的下载地址img_url = "http:" + img# print(img_url)# 通过requests下载这张图片sleep_time = random.random()*10time.sleep(sleep_time)# 文件夹需要手动创建好file = open(f"G:\\果汁杯-淘宝\\{n}.jpg", "wb")file.write(requests.get(img_url).content)print("下载图片" + str(n))n += 1# 翻页操作browser.find_element_by_css_selector('.wraper:nth-last-child(1) .next > a').click()time.sleep(2)count += 1# 爬取 4 页内容if count == 6:# file.close()break# 关闭浏览器browser.quit()if __name__ == '__main__':functions()
下载Chromedriver
淘宝本身是有反爬虫机制的,需要使用到浏览器进行模拟人工爬取数据。
下载地址:http://npm.taobao.org/mirrors/chromedriver/86.0.4240.22/
将下载好的压缩包解压到你想要的某个文件夹中,并替换掉一下路径即可
之后运行脚本即可
原参考网址