瓜子仁 发表于 2018-3-3 21:29:41

爬虫查找IP显示错误【too many values to unpack (expected 2)】

仿照小甲鱼055课的代码写的,如下:

import urllib.request
import random

url = "http://www.whatismyip.com.tw"   #查找IP地址

iplist = ["59.58.222.204:25721","111.155.116.211:8123"]

proxy_support = urllib.request.ProxyHandler({"http":random.choice(iplist)})

opener = urllib.request.build_opener(proxy_support)
opener.addheaders = {"User-Agent":"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.140 Safari/537.36"}

urllib.request.install_opener(opener)

response = urllib.request.urlopen(url)
html = response.read().decode("utf-8")

print(html)

错误   【too many values to unpack (expected 2)】

°蓝鲤歌蓝 发表于 2018-3-3 21:44:01

这个网址好像不能用了。

瓜子仁 发表于 2018-3-3 22:01:24

°蓝鲤歌蓝 发表于 2018-3-3 21:44
这个网址好像不能用了。

网址用浏览器登陆过了,不设置opener可以打印网页内容

import urllib.request
import random
import json

url = "http://www.whatismyip.com.tw"

req = urllib.request.Request(url)
req.add_header("User-Agent","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.140 Safari/537.36")
response = urllib.request.urlopen(req)
html = response.read().decode("utf-8")


print(html)

°蓝鲤歌蓝 发表于 2018-3-3 22:14:35

本帖最后由 °蓝鲤歌蓝 于 2018-3-3 22:22 编辑

瓜子仁 发表于 2018-3-3 22:01
网址用浏览器登陆过了,不设置opener可以打印网页内容

import urllib.request


opener.addheaders = [("User-Agent,"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.140 Safari/537.36")]
这一句写错了。

瓜子仁 发表于 2018-3-3 23:46:03

°蓝鲤歌蓝 发表于 2018-3-3 22:14
这一句写错了。

嗯,感谢大哥,应该是逗号来的,但是改了以后还是出现之前的异常,有点晕{:10_266:}

°蓝鲤歌蓝 发表于 2018-3-4 00:05:13

瓜子仁 发表于 2018-3-3 23:46
嗯,感谢大哥,应该是逗号来的,但是改了以后还是出现之前的异常,有点晕

不仅是逗号,而且不是字典形式。
页: [1]
查看完整版本: 爬虫查找IP显示错误【too many values to unpack (expected 2)】