jjxx2005 发表于 2020-7-15 07:45:28

求助!爬虫时如何设置层级关系?

本帖最后由 jjxx2005 于 2020-7-15 08:54 编辑

import requests
from lxml import etree
import re
import os
url = 'http://www.jkl.com.cn/cn/invest.aspx'
UA = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.92 Safari/537.36'}
r1 = requests.get(url=url, headers=UA).text
x1 = etree.HTML(r1)
n1 = x1.xpath('//div[@class="infoLis"]//a/text()')
l1 = x1.xpath('//div[@class="infoLis"]//@href')
keys1 = [] ; values1 = []
keys2 = [] ; values2 = []
for n2 in n1:
    n2 = n2.strip()
    keys1.append(n2)
for l2 in l1:
    l2 = 'http://www.jkl.com.cn/cn/' + l2
    values1.append(l2)
d1 = dict(zip(keys1,values1))
for n3,l3 in d1.items( ):
    n3 = n3.replace('/','.')
    path = 'c:/' + n3
    if not os.path.exists(path):
      os.mkdir(path)
    r2 = requests.get(url=l3, headers=UA).text
    x2 = etree.HTML(r2)
    weiye = x2.xpath('//a/@href')
    if weiye != []:
      re1 = re.search("(\d+)'\)", weiye)
      yeshu = re1.group(1)
    else:
      yeshu = 1
    for yema in range(1, int(yeshu)+1):
      data = {'__EVENTARGUMENT': yema,
                '__EVENTTARGET': 'AspNetPager1'
                }
      r3 = requests.get(url=l3, params=data, headers=UA).text
      x3 = etree.HTML(r3)
      l4 = x3.xpath('//div[@class="newsLis"]//li//@href')
      n4 = x3.xpath('//div[@class="newsLis"]//li/a/text()')
      for n5 in n4:
            n5 = n5.strip()
            keys2.append(n5)
      for l5 in l4:
            l5 = 'http://www.jkl.com.cn' + l5
            values2.append(l5)
d2 = dict(zip(keys2,values2))
print(d1)
print(d2)

现在生成了两个字典

我想下载字典2里的pdf文件时,能保存在字典1的key生成的文件夹中   这样的层级关系如何设置?

wp231957 发表于 2020-7-15 08:50:15

说一下,你想实现什么样的功能,别说什么字典1字典2的

jjxx2005 发表于 2020-7-15 08:54:36

wp231957 发表于 2020-7-15 08:50
说一下,你想实现什么样的功能,别说什么字典1字典2的

您好 我重新上传了图片我想下载所有文件,然后保存到对应的文件夹中

wp231957 发表于 2020-7-15 09:13:33

jjxx2005 发表于 2020-7-15 08:54
您好 我重新上传了图片我想下载所有文件,然后保存到对应的文件夹中

文件太多,我没有全部测试,只测试了几条
D:\wp>py app4.py
c1(AR)-18163914863.pdf 下载成功
c00814-18023226274.pdf 下载成功
c00814AR-19195125508.pdf 下载成功
c00814-16464376689.pdf 下载成功
import requests
from lxml import etree
import re
import os
url = 'http://www.jkl.com.cn/cn/invest.aspx'
UA = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.92 Safari/537.36'}
r1 = requests.get(url=url, headers=UA).text
x1 = etree.HTML(r1)
n1 = x1.xpath('//div[@class="infoLis"]//a/text()')
l1 = x1.xpath('//div[@class="infoLis"]//@href')
keys1 = [] ; values1 = []
keys2 = [] ; values2 = []
for n2 in n1:
    n2 = n2.strip()
    keys1.append(n2)
for l2 in l1:
    l2 = 'http://www.jkl.com.cn/cn/' + l2
    values1.append(l2)
d1 = dict(zip(keys1,values1))
for n3,l3 in d1.items( ):
    n3 = n3.replace('/','.')
    path = 'c:/' + n3
    if not os.path.exists(path):
      os.mkdir(path)
    r2 = requests.get(url=l3, headers=UA).text
    x2 = etree.HTML(r2)
    weiye = x2.xpath('//a/@href')
    if weiye != []:
      re1 = re.search("(\d+)'\)", weiye)
      yeshu = re1.group(1)
    else:
      yeshu = 1
    for yema in range(1, int(yeshu)+1):
      data = {'__EVENTARGUMENT': yema,
                '__EVENTTARGET': 'AspNetPager1'
                }
      r3 = requests.get(url=l3, params=data, headers=UA).text
      x3 = etree.HTML(r3)
      l4 = x3.xpath('//div[@class="newsLis"]//li//@href')
      n4 = x3.xpath('//div[@class="newsLis"]//li/a/text()')
      for n5 in n4:
            n5 = n5.strip()
            keys2.append(n5)
      for l5 in l4:
            l5 = 'http://www.jkl.com.cn' + l5
            values2.append(l5)
d2 = dict(zip(keys2,values2))
#print(d1)
for x in d2:
   if not os.path.exists(x):
      os.makedirs(x)
for x in d2:
    pdfurl=d2
    pdfdata=requests.get(pdfurl).content      
    with open(d2.split("/")[-1],"wb") as f:
         f.write(pdfdata)
    print(d2.split("/")[-1],"下载成功")   

wp231957 发表于 2020-7-15 09:19:24

请修改4楼关键代码,忘分配目录了

with open(x+"\\"+d2.split("/")[-1],"wb") as f:

jjxx2005 发表于 2020-7-15 10:14:03

wp231957 发表于 2020-7-15 09:19
请修改4楼关键代码,忘分配目录了

with open(x+"\\"+d2.split("/")[-1],"wb") as f:

您好感谢您的回复,我绕着的地方可能是我没表达清楚,您写的都对,只是我想让每个文件属于他自己的文件名,而不是网址上那个数字文件名。
原来
字典1={项目名:项目链接}
我用项目名做文件夹的名称,项目链接去获取解析
字典2 = {文件名:文件下载链接}
文件下载时,我让他使用网页上显示的名称
以上单步做我都会

但是现在的问题是,文件下载时,使用网页上显示的中文名,然后放在对应的文件夹中 我找不到两个字典

文件下载链接和项目名 之间的对应关系

jjxx2005 发表于 2020-7-15 10:19:47

wp231957 发表于 2020-7-15 09:19
请修改4楼关键代码,忘分配目录了

with open(x+"\\"+d2.split("/")[-1],"wb") as f:

能不能通过 这样的方式实现?
>>> dict={}
>>> dict.setdefault("a",{}).update({"A":"T"})
>>>
>>> dict
{'a': {'A': 'T'}}
>>> dict["a"]['A']
'T'
>>>

wp231957 发表于 2020-7-15 10:21:59

jjxx2005 发表于 2020-7-15 10:19
能不能通过 这样的方式实现?
>>> dict={}
>>> dict.setdefault("a",{}).update({"A":"T"})


文件名和文件夹名相同吗????

jjxx2005 发表于 2020-7-15 10:41:28

wp231957 发表于 2020-7-15 10:21
文件名和文件夹名相同吗????

让左边那一列做文件夹的名

网页上的大圈文字都是文件名

jjxx2005 发表于 2020-7-15 10:43:05

wp231957 发表于 2020-7-15 10:21
文件名和文件夹名相同吗????

也可能是我代码的逻辑有问题   其实我就是想
左边投资者关系8个项目中所有的页面里面的文件都下载,并修改成蓝色大圈的文字,然后分别保存到左边对应的项目名称的文件夹中

wp231957 发表于 2020-7-15 10:48:40

jjxx2005 发表于 2020-7-15 10:43
也可能是我代码的逻辑有问题   其实我就是想
左边投资者关系8个项目中所有的页面里面的文件都下载,并修 ...

按网页逻辑来看左侧 8个大项应该是一个循环
把这8个标签名提取出来,,建立文件夹   然后扫描每个标签下面的子项目会得到子标签的名字和链接
下载文件时,文件名是由我们编程人员来随意取名的,这里我们取子标签名即可,分别保存到相对应的路径下
即可,8次循环 over   具体代码我就不写了,,测试时 太耗时间了

jjxx2005 发表于 2020-7-15 10:50:20

wp231957 发表于 2020-7-15 10:48
按网页逻辑来看左侧 8个大项应该是一个循环
把这8个标签名提取出来,,建立文件夹   然后扫描每个标 ...

好的 我试一下 谢谢您 给的思路
页: [1]
查看完整版本: 求助!爬虫时如何设置层级关系?