1510049928 发表于 2019-1-27 01:01:54

爬取妹子图片(福利福利!!!)附上代码

这里使用xpath爬取妹子图(https://www.mzitu.com/mm/page/2/)
附上代码
import requests
from lxml import etree
import os

#获取每页的地址
def get_url(page):
    url = 'https://www.mzitu.com/mm/page/' + str(page) + '/'
    return url

def url_open(url):
    headers = {
      'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_6) AppleWebKit/601.7.7 (KHTML, like Gecko) Version/9.1.2 Safari/601.7.7',
      'Referer' :'https://www.mzitu.com/mm/'}
    res = requests.get(url,headers = headers)
    return res

#使用xpath查找图片地址
def find_img(res):
    html = etree.HTML(res.text)
    result = html.xpath('//ul[@id="pins"]//li//a//img/@data-original')
    return result

#使用xpath查找图片名称
def find_name(res):
    html = etree.HTML(res.text)
    result = html.xpath('//ul[@id="pins"]//li//a//img/@alt')
    return result

def main(pages):
    os.mkdir('妹子')
    os.chdir('妹子')
    for each in range(1,pages):
      url = get_url(each)
      res = url_open(url)
      img_list = find_img(res)
      img_name = find_name(res)
      for i in range(len(img_list)):
            img = url_open(img_list)
            with open(img_name+'.jpg','wb') as f:
                f.write(img.content)
   
if '__main__' == __name__:
    temp = int(input('请输入要爬取的页数:'))
    pages = temp+1
    main(pages)

zhuangyao 发表于 2019-1-29 09:40:57

顶个貌似会火

靳泽宇 发表于 2019-3-3 16:45:23

网址都打不开

好好学习鸭 发表于 2019-3-5 20:07:17

牛批

xin10081 发表于 2020-4-13 18:06:32

这个网站厉害了

200512435066 发表于 2020-4-14 10:00:34

{:10_256:}这才是学习python爬虫的初衷!!{:10_256:}

hao521521 发表于 2020-10-24 17:31:24

{:9_227:}

503202360 发表于 2020-10-24 22:27:05

别人写好的代码,我是怎么利用,python软件已经安装
页: [1]
查看完整版本: 爬取妹子图片(福利福利!!!)附上代码