鱼C论坛

 找回密码
 立即注册
查看: 574|回复: 8

[已解决]爬不同页的新闻时不同页的网址没有什么规律

[复制链接]
发表于 2018-8-6 15:15:26 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
本帖最后由 chunguang 于 2018-8-6 15:20 编辑

怎样爬取不同页面的数据
我的第一页的网址是  http://www.echinatobacco.com/html/site27/ynzlyns/index.html
第二页的网址是  http://www.echinatobacco.com/html/site27/ynzlyns/index_2.html
第三页的网址是  http://www.echinatobacco.com/html/site27/ynzlyns/index_3.html
........
感觉没有什么规律,求大神
  1. import requests
  2. import json
  3. import re
  4. from multiprocessing import Pool
  5. from requests.exceptions import RequestException

  6. def get_one_page(url):
  7.     headers={
  8.         'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'
  9.     }
  10.     try:
  11.         response=requests.get(url,headers=headers)
  12.         if response.status_code==200:
  13.             return response.text
  14.         return None
  15.     except RequestException:
  16.         return None

  17. def parse_one_page(html):
  18.     pattern=re.compile('<li>.*?blank">(.*?)</a></em><span>(.*?)</span></li>',re.S)
  19.     items=re.findall(pattern,html)
  20.     for item in items:
  21.         yield{
  22.             'title':item[0],
  23.             'time':item[1]
  24.         }

  25. def main(page):
  26.     url='http://www.echinatobacco.com/html/site27/ynzlyns/index'+'_'+str(page)+'.html'
  27.     html=get_one_page(url)
  28.     for item in parse_one_page(html):
  29.         print(item)

  30. if __name__=='__main__':
  31.     pool=Pool()
  32.     pool.map(main,[i+2 for i in range(53)])
复制代码
最佳答案
2018-8-6 15:44:18
chunguang 发表于 2018-8-6 15:41
出现这样的错误
而且第一页并没有被爬下来
  1. import requests
  2. import json
  3. import re
  4. from multiprocessing import Pool
  5. from requests.exceptions import RequestException

  6. def get_one_page(url):
  7.     headers={
  8.         'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'
  9.     }
  10.     try:
  11.         response=requests.get(url,headers=headers)
  12.         if response.status_code==200:
  13.             return response.text
  14.         return None
  15.     except RequestException:
  16.         return None

  17. def parse_one_page(html):
  18.     pattern=re.compile('<li>.*?blank">(.*?)</a></em><span>(.*?)</span></li>',re.S)
  19.     items=re.findall(pattern,html)
  20.     for item in items:
  21.         yield{
  22.             'title':item[0],
  23.             'time':item[1]
  24.         }

  25. def main(page):
  26.     if page != 1:#第一页不用_page的形式
  27.         url='http://www.echinatobacco.com/html/site27/ynzlyns/index'+'_'+str(page)+'.html'
  28.     else:
  29.         url='http://www.echinatobacco.com/html/site27/ynzlyns/index.html'
  30.     html=get_one_page(url)
  31.     for item in parse_one_page(html):
  32.         print(item)

  33. if __name__=='__main__':
  34.     pool=Pool()
  35.     pool.map(main,[i+2 for i in range(53)])
复制代码

试试这个?我好像忘记设置page==1的时候的url了。
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2018-8-6 15:22:56 | 显示全部楼层
应该ok?
  1. import requests
  2. import json
  3. import re
  4. from multiprocessing import Pool
  5. from requests.exceptions import RequestException

  6. def get_one_page(url):
  7.     headers={
  8.         'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'
  9.     }
  10.     try:
  11.         response=requests.get(url,headers=headers)
  12.         if response.status_code==200:
  13.             return response.text
  14.         return None
  15.     except RequestException:
  16.         return None

  17. def parse_one_page(html):
  18.     pattern=re.compile('<li>.*?blank">(.*?)</a></em><span>(.*?)</span></li>',re.S)
  19.     items=re.findall(pattern,html)
  20.     for item in items:
  21.         yield{
  22.             'title':item[0],
  23.             'time':item[1]
  24.         }

  25. def main(page):
  26.     if page != 1:#第一页不用_page的形式
  27.         url='http://www.echinatobacco.com/html/site27/ynzlyns/index'+'_'+str(page)+'.html'
  28.     html=get_one_page(url)
  29.     for item in parse_one_page(html):
  30.         print(item)

  31. if __name__=='__main__':
  32.     pool=Pool()
  33.     pool.map(main,[i+2 for i in range(53)])
复制代码
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2018-8-6 15:31:34 | 显示全部楼层

怎么样连第一页的也爬取出来
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2018-8-6 15:32:45 | 显示全部楼层
chunguang 发表于 2018-8-6 15:31
怎么样连第一页的也爬取出来


我终于注意到了i+2……
  1. import requests
  2. import json
  3. import re
  4. from multiprocessing import Pool
  5. from requests.exceptions import RequestException

  6. def get_one_page(url):
  7.     headers={
  8.         'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'
  9.     }
  10.     try:
  11.         response=requests.get(url,headers=headers)
  12.         if response.status_code==200:
  13.             return response.text
  14.         return None
  15.     except RequestException:
  16.         return None

  17. def parse_one_page(html):
  18.     pattern=re.compile('<li>.*?blank">(.*?)</a></em><span>(.*?)</span></li>',re.S)
  19.     items=re.findall(pattern,html)
  20.     for item in items:
  21.         yield{
  22.             'title':item[0],
  23.             'time':item[1]
  24.         }

  25. def main(page):
  26.     if page != 1:#第一页不用_page的形式
  27.         url='http://www.echinatobacco.com/html/site27/ynzlyns/index'+'_'+str(page)+'.html'
  28.     html=get_one_page(url)
  29.     for item in parse_one_page(html):
  30.         print(item)

  31. if __name__=='__main__':
  32.     pool=Pool()
  33.     pool.map(main,[i+1 for i in range(53)])
复制代码
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2018-8-6 15:40:17 | 显示全部楼层
chunguang 发表于 2018-8-6 15:31
怎么样连第一页的也爬取出来

4楼的代码应该可以运行了吧?
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2018-8-6 15:41:33 | 显示全部楼层
无符号整形 发表于 2018-8-6 15:32
我终于注意到了i+2……

出现这样的错误
而且第一页并没有被爬下来
U$AIEG1R_T~IQA$MANINN{T.png
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2018-8-6 15:44:18 | 显示全部楼层    本楼为最佳答案   
chunguang 发表于 2018-8-6 15:41
出现这样的错误
而且第一页并没有被爬下来
  1. import requests
  2. import json
  3. import re
  4. from multiprocessing import Pool
  5. from requests.exceptions import RequestException

  6. def get_one_page(url):
  7.     headers={
  8.         'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'
  9.     }
  10.     try:
  11.         response=requests.get(url,headers=headers)
  12.         if response.status_code==200:
  13.             return response.text
  14.         return None
  15.     except RequestException:
  16.         return None

  17. def parse_one_page(html):
  18.     pattern=re.compile('<li>.*?blank">(.*?)</a></em><span>(.*?)</span></li>',re.S)
  19.     items=re.findall(pattern,html)
  20.     for item in items:
  21.         yield{
  22.             'title':item[0],
  23.             'time':item[1]
  24.         }

  25. def main(page):
  26.     if page != 1:#第一页不用_page的形式
  27.         url='http://www.echinatobacco.com/html/site27/ynzlyns/index'+'_'+str(page)+'.html'
  28.     else:
  29.         url='http://www.echinatobacco.com/html/site27/ynzlyns/index.html'
  30.     html=get_one_page(url)
  31.     for item in parse_one_page(html):
  32.         print(item)

  33. if __name__=='__main__':
  34.     pool=Pool()
  35.     pool.map(main,[i+2 for i in range(53)])
复制代码

试试这个?我好像忘记设置page==1的时候的url了。

点评

等等,我发现我代码里面一个错误……i+1不是i+2  发表于 2018-8-6 15:45
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2018-8-6 16:04:41 | 显示全部楼层
本帖最后由 chunguang 于 2018-8-6 16:10 编辑
  1. def write_to_file(content):
  2.     with open(r'C:\Users\lenovo\Desktop\爬虫\烟草\烟草咨询.csv','a',encoding='utf-8') as f:
  3.         f.write(json.dumps(content,ensure_ascii=False)+'\n')
  4.         f.close()
复制代码
我还想弱弱的问一句,怎样将他储存到csv文件中
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2024-5-17 17:23

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表