马上注册,结交更多好友,享用更多功能^_^
您需要 登录 才可以下载或查看,没有账号?立即注册
x
#地址 #翻页
总共页面=300
for page in range(1,总共页面):
url=f'https://www.amazon.de/s?k=Bathroom+Storage&i=kitchen&rh=p_72%3A419118031%2Cp_n_availability%3A419126031&dc&page={page}&__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&qid=1653973729&rnid=419124031&ref=sr_pg_2'
#1.发送请求
res = requests.get(url=url,headers=headers)
conter= res.content.decode('utf-8')
select= Selector(text=conter)
divs = select.css('.a-section.a-spacing-base')
wz1="https://www.amazon.de/"
#创建表格
workbook= xlwt.Workbook(encoding='utf-8')
worksheet=workbook.add_sheet('1',cell_overwrite_ok=True)
rowDatas=['1','2','3','4']
for t in range(0,len(rowDatas)):
worksheet.write(0,t,rowDatas[t],)
workbook.save("C:\\Users\Administrator\Desktop\2\1.xls")
# 二级页面 提取列表
i=0
for div in divs:
i=i+1
wz=(div.css('.a-link-normal.s-no-outline::attr(href)').get())
wz=urljoin(wz1,str(wz))
resp= requests.get(wz,headers=headers)
conter= resp.content.decode('utf-8')
select= Selector(text=conter)
#二级页面数据提取
data = select.xpath('.//a[@id="bylineInfo"]/text()').extract_first
#正则
data1 = re.compile(r"data='(.+?)'")
data=str(data)
data2 = data1.search(data)
if data2==None:
data2=('空')
else:
data2 = data2.group(1)
#保存数据到表格
worksheet.write(i,0,data2)
workbook.save("C:\\Users\Administrator\Desktop\2\1.xls")
现在的情况是爬取主页有24个二级链接
循环第一遍翻页依次把二级页面提取的数据保存到表格至A1-A24
循环第二遍翻页后又把A1-A24的数据给覆盖了
循环第一次翻页i=24 我循环翻页后 i又等于0了 又保存数据到A1-A24了把之前的覆盖了 怎么把数据接着往下保存
可以在循环外设置个列表,每次循环往里加数据,最后一次性写入文件
你每次循环读一次文件,效率比较差,相对前者只是节省了些内存
|