|
马上注册,结交更多好友,享用更多功能^_^
您需要 登录 才可以下载或查看,没有账号?立即注册
x
- import requests
- import re
- import os
- if __name__ == "__main__":
- # 创建一个文件夹,保存所有图片
- if not os.path.exists('./海报'):
- os.mkdir('./海报')
- url = 'http://www.jkl.com.cn/cn/phoLis.aspx?id=697'
- for i in range(1,5):
- data = {'__EVENTARGUMENT':'i'}
- headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.92 Safari/537.36'}
- # 使用通过爬虫对url对应的一整张页面进行爬取
- page_text = requests.get(url=url,params=data,headers=headers).text
- # 使用聚焦爬虫将页面中所有的图片进行解析/提取
- a = '(?<=\<img src\=").+?(?=" width\="165" height\="117")'
- img_src_list = re.findall(a,page_text)
- for src in img_src_list:
- # 拼接出一个完整的图片地址
- src ='http://www.jkl.com.cn'+src
- # 请求到了图片的二进制数据
- img_data = requests.get(url=src,params=data,headers=headers).content
- # 生成图片名称
- img_name = src.split('/')[-1]
- # 图片存储的路径
- imgPath = './海报/'+img_name
- # 持久化存储
- with open(imgPath,'wb') as fp:
- fp.write(img_data)
- print(img_name,'下载成功!!!')
复制代码
网站图片有4页,每页12张左右,但是,有个问题,他每页这12张图片和下一页的12张图表都是相同名字的,下载后就自动覆盖了,请问怎么处理好
修改文件名:
比如
x=1
filename="xxxx"+str(x)
x+=1
|
|