鱼C论坛

 找回密码
 立即注册
查看: 996|回复: 1

[已解决]爬虫代码导入了ssl还是不支持https怎么办呢

[复制链接]
发表于 2020-3-9 02:16:20 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
如题
代码如下
求大神帮忙看下啦,谢谢!!
import os
import urllib.request
import ssl
ssl._create_default_https_context = ssl._create_unverified_context
def url_open(url):
    '获取网页'
    req = urllib.request.Request(url)
    req.add_header('User-Agent','Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.90 Safari/537.36')
    response = urllib.request.urlopen(req)
    html = response.read()
    return html

def find_imgs(url):
    '寻找图片链接位置'
    html = url_open(url).decode('utf-8')
    img_addrs = []
    a = html.find('img')
   
    while a != -1:
        b = html.find('.jpg',a,a+255)
        if b!=-1:
            img_addrs.append(html[a+21:b+4])
        else:
            b = a+9
        a = html.find('img',b)
        
    return img_addrs
def save_imgs(folder,img_addrs):
    '保存图片'
    for each in img_addrs:
        filename = each.split('/')[-1]
        with open(filename,'wb') as f:
            img = url_open(each)
            f.write(img)
def getpic(folder = '照片',pages = 10):
    '主程序'
    ssl._create_default_https_context = ssl._create_unverified_context
    os.mkdir(folder)
    os.chdir(folder)

    url = 'https://www.mzitu.com/xinggan/'
    for i in range(pages):
        page_num =i+1
        page_url = 'https://www.mzitu.com/xinggan/page/'+str(page_num)+'/'
        img_addrs = find_imgs(page_url)
        save_imgs(folder,img_addrs)

if __name__ == '__main__':
    getpic()
最佳答案
2020-3-9 08:41:27
ssl应该是针对某些要求证书认证的网站   和你说的https协议 有啥关系
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2020-3-9 08:41:27 | 显示全部楼层    本楼为最佳答案   
ssl应该是针对某些要求证书认证的网站   和你说的https协议 有啥关系
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2024-6-18 16:46

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表