鱼C论坛

 找回密码
 立即注册
查看: 919|回复: 1

[已解决]为啥用python访问百度url 站点的源码下载不下来

[复制链接]
发表于 2018-2-11 16:33:21 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
  1. import urllib.request
  2. import chardet

  3. def main():
  4.     i = 0
  5.    
  6.     with open("urls.txt", "r") as f:
  7.         # 读取待访问的网址
  8.         # 由于urls.txt每一行一个URL
  9.         # 所以按换行符'\n'分割
  10.         urls = f.read().splitlines()
  11.         
  12.     for each_url in urls:
  13.         response = urllib.request.urlopen(each_url)
  14.         html = response.read()

  15.         # 识别网页编码
  16.         encode = chardet.detect(html)['encoding']
  17.         if encode == 'GB2312':
  18.             encode = 'GBK'
  19.         
  20.         i += 1
  21.         filename = "url_%d.txt" % i

  22.         with open(filename, "w", encoding=encode) as each_file:
  23.             each_file.write(html.decode(encode, "ignore"))

  24. if __name__ == "__main__":
  25.     main()
复制代码

这是下小甲鱼的代码我试了以下
跟我自己打的是一样的
啊实打实的6.jpg
这个图
谁解释以下
最佳答案
2018-2-16 21:46:09
这个没毛病,你往下拉就行了,百度的网页代码就是这么奇葩,前面都是空行
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2018-2-16 21:46:09 | 显示全部楼层    本楼为最佳答案   
这个没毛病,你往下拉就行了,百度的网页代码就是这么奇葩,前面都是空行
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2024-4-28 02:29

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表