鱼C论坛

 找回密码
 立即注册
查看: 1575|回复: 14

[已解决]关于爬虫

[复制链接]
发表于 2020-9-5 23:25:10 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
url='https://image.baidu.com/search/index?ct=201326592&cl=2&st=-1&lm=-1&nc=1&ie=utf-8&tn=baiduimage&ipn=r&rps=1&pv=&fm=rs7&word=%E9%9E%A0%E5%A9%A7%E7%A5%8E%E5%A3%81%E7%BA%B8%E9%AB%98%E6%B8%85&oriquery=%E9%9E%A0%E5%A9%A7%E7%A5%8E&ofr=%E9%9E%A0%E5%A9%A7%E7%A5%8E&sensitive=0'
大佬们帮忙写个爬虫爬取这个网址的图片,不要用selenium,
最佳答案
2020-9-6 22:03:31
帮你获取了四千年美女图,给个最佳吧,少年
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2020-9-6 13:38:26 | 显示全部楼层
本帖最后由 suchocolate 于 2020-9-6 13:55 编辑

百度图片搜索下载一般是通用的。
# _*_ coding: utf-8 _*_
# Developer: suchcoolate
# Date: 6/28/2020 09:25
# File name: baidu_pic_search_downloader.py
# Development tool: PyCharm

import requests
import os


def main():
    # name = input('请输入百度图片搜索关键词:')
    name = '鞠婧祎壁纸高清'
    # num = int(input('请输入想下载的页数:'))
    num = 2
    # dir_name = input('请输入图片存放文件夹名称:')
    dir_name = 'pics'
    result_list = []    # 存储图片url
    headers = {'user-agent': 'firefox', 'X-Requested-With': 'XMLHttpRequest'}
    ajax_url = 'https://image.baidu.com/search/acjson?'
    data = {
        'tn': 'resultjson_com',
        'ipn': 'rj',
        'ct': '201326592',
        'is': '',
        'fp': 'result',
        'queryWord': name,
        'cl': '2',
        'lm': '-1',
        'ie': 'utf-8',
        'oe': 'utf-8',
        'adpicid': '',
        'st': '-1',
        'z': '',
        'ic': '0',
        'hd': '',
        'latest': '',
        'copyright': '',
        'word': name,
        's': '',
        'se': '',
        'tab': '',
        'width': '',
        'height': '',
        'face': '0',
        'istype': '2',
        'qc': '',
        'nc': '1',
        'fr': '',
        'expermode': '',
        'force': '',
        'pn': '30',
        'rn': '30',
        'gsm': ''
    }
    # 解析获取到的json数据,把图片url收集起来
    for item in range(1, num + 1):
        r = requests.get(ajax_url, headers=headers, params=data)
        j_data = r.json()
        for j in j_data['data'][:-1]:
            # 有的url可能是空的,跳过
            if not j['hoverURL']:
               continue
            result_list.append(j['hoverURL'])
        data['gsm'] = j_data['gsm']
        data['pn'] = str(30 * (item + 1))
    # print(result_list)    # 打印所有图片url
    # 检查文件夹是否存在
    if not os.path.exists(dir_name):
        os.mkdir(dir_name)
    os.chdir(dir_name)
    # 下载图片
    counter = 1   # 计数器
    for item in result_list:
        # print(counter, item)
        r = requests.get(item, headers=headers)
        # 图片名称
        pic_name = item.split('/')[-1]
        with open(pic_name, 'wb') as f:
            f.write(r.content)
        print(f'已下载{pic_name},共下载{counter}张。')
        counter += 1


if __name__ == '__main__':
    main()
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-9-6 14:03:44 | 显示全部楼层
四千年的美女
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-9-6 15:38:53 | 显示全部楼层
本帖最后由 疾风怪盗 于 2020-9-6 15:44 编辑

试试看这个
import requests
import json
headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.116 Safari/537.36'}

img_list = []
for i in range(0,10):
    url = 'https://image.baidu.com/search/acjson?tn=resultjson_com&ipn=rj&ct=201326592&is=&fp=result&queryWord=鞠婧祎&cl=2&lm=-1&ie=utf-8&oe=utf-8&adpicid=&st=&z=&ic=&hd=&latest=©right=&word=鞠婧祎&s=&se=&tab=&width=&height=&face=&istype=&qc=&nc=1&fr=&expermode=&force=&pn='
    url=url+str(i*30)
    print(url)
    reponse = requests.get(url=url, headers=headers)
    json_data = json.loads(reponse.content.decode())
    json_data = json_data['data']
    # print(json_data)
    for i in range(0, len(json_data) - 1):
        img_url = json_data[i]['hoverURL']
        #print(img_url)
        img_list.append(img_url)

print(img_list)
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-9-6 21:37:13 | 显示全部楼层

最前面的图片不是ajax请求获取的,数据在图中的app.setData里面,不用正则怎么弄出需要的数据尼,主要是没见过这种,想了解下
oh.png
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-9-6 21:44:18 | 显示全部楼层
suchocolate 发表于 2020-9-6 13:38
百度图片搜索下载一般是通用的。

兄嘚少了前30张图片,前30张图不是ajax请求获得的,我想知道的重点是这30张图片怎么弄下来
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-9-6 21:50:25 | 显示全部楼层
tiger吴 发表于 2020-9-6 21:37
最前面的图片不是ajax请求获取的,数据在图中的app.setData里面,不用正则怎么弄出需要的数据尼,主要是 ...

再刷个几页,就会出现acjson开头的json数据了,然后找地址规律,发现有个数字是变化的,0,30,60,90,就可以构造网址了,获取json数据比xpath要方便很多,数据也比较全
批注 2020-09-06 214849.png
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-9-6 21:55:13 | 显示全部楼层
tiger吴 发表于 2020-9-6 21:44
兄嘚少了前30张图片,前30张图不是ajax请求获得的,我想知道的重点是这30张图片怎么弄下来

现在一看,好像是少了前30张。。。。。。。。。那就用正则呗
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-9-6 22:02:33 | 显示全部楼层
tiger吴 发表于 2020-9-6 21:44
兄嘚少了前30张图片,前30张图不是ajax请求获得的,我想知道的重点是这30张图片怎么弄下来

这样就可以了
import requests
import json
import re

headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.116 Safari/537.36'}


url = 'https://image.baidu.com/search/index?tn=baiduimage&ps=1&ct=201326592&lm=-1&cl=2&nc=1&ie=utf-8&word=%E9%9E%A0%E5%A9%A7%E7%A5%8E'

reponse = requests.get(url=url, headers=headers)
data = reponse.content.decode()
print(data)

partten='"hoverURL":"(.*?)"'
img_url_list=re.findall(partten,data)

print(img_url_list)
print(len(img_url_list))
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-9-6 22:03:31 | 显示全部楼层    本楼为最佳答案   
帮你获取了四千年美女图,给个最佳吧,少年
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-9-7 09:10:27 | 显示全部楼层
tiger吴 发表于 2020-9-6 21:44
兄嘚少了前30张图片,前30张图不是ajax请求获得的,我想知道的重点是这30张图片怎么弄下来

已更新
# _*_ coding: utf-8 _*_
# Developer: suchcoolate
# Date: 6/28/2020 09:25
# File name: baidu_pic_search_downloader.py
# Development tool: PyCharm

import requests
import os
import re


def main():
    # name = input('请输入百度图片搜索关键词:')
    name = '鞠婧祎高清壁纸'
    # num = int(input('请输入想下载的页数:'))
    num = 2
    # dir_name = input('请输入图片存放文件夹名称:')
    dir_name = 'pics'
    result_list = []    # 存储图片url
    index_headers = {'user-agent': 'firefox'}
    ajax_headers = {'user-agent': 'firefox', 'X-Requested-With': 'XMLHttpRequest'}
    index_url = 'https://image.baidu.com/search/index?'
    index_params = {
        'tn': 'baiduimage',
        'ipn': 'r',
        'ct': '201326592',
        'cl': '2',
        'lm': '-1',
        'st': '-1',
        'fm': 'index',
        'fr': '',
        'hs': '0',
        'xthttps': '111111',
        'sf': '1',
        'fmq': '',
        'pv': '',
        'ic': '0',
        'nc': '1',
        'z': '',
        'se': '1',
        'showtab': '0',
        'fb': '0',
        'width': '',
        'height': '',
        'face': '0',
        'istype': '2',
        'ie': 'utf-8',
        'word': name,
        'oq': name,
        'rsp': '-1'
    }
    ajax_url = 'https://image.baidu.com/search/acjson?'
    ajax_params = {
        'tn': 'resultjson_com',
        'ipn': 'rj',
        'ct': '201326592',
        'is': '',
        'fp': 'result',
        'queryWord': name,
        'cl': '2',
        'lm': '-1',
        'ie': 'utf-8',
        'oe': 'utf-8',
        'adpicid': '',
        'st': '-1',
        'z': '',
        'ic': '0',
        'hd': '',
        'latest': '',
        'copyright': '',
        'word': name,
        's': '',
        'se': '',
        'tab': '',
        'width': '',
        'height': '',
        'face': '0',
        'istype': '2',
        'qc': '',
        'nc': '1',
        'fr': '',
        'expermode': '',
        'force': '',
        'pn': '30',
        'rn': '30',
        'gsm': ''
    }
    # 获取首页图片
    r = requests.get(index_url, headers=index_headers, params=index_params)
    result = re.findall('"hoverURL":"(.*?)"', r.text)
    result_list.extend(result)
    # 解析获取到的json数据,把图片url收集起来
    for item in range(1, num + 1):
        r = requests.get(ajax_url, headers=ajax_headers, params=ajax_params)
        j_data = r.json()
        for j in j_data['data'][:-1]:
            if not j['hoverURL']:
                continue
            result_list.append(j['hoverURL'])
        ajax_params['gsm'] = j_data['gsm']
        ajax_params['pn'] = str(30 * (item + 1))
    # print(result_list)    # 打印所有图片url
    # 检查文件是否存在
    if not os.path.exists(dir_name):
        os.mkdir(dir_name)
    os.chdir(dir_name)
    # 下载图片
    counter = 1   # 计数器
    for item in result_list:
        # print(counter, item)
        r = requests.get(item, headers=index_headers)
        # pic_name是图片名称
        pic_name = item.split('/')[-1]
        with open(pic_name, 'wb') as f:
            f.write(r.content)
        print(f'已下载{pic_name},共下载{counter}张。')
        counter += 1


if __name__ == '__main__':
    main()
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-9-7 10:49:18 From FishC Mobile | 显示全部楼层
有一个库helium,基于Selenium基础上的更加高级的web自动化工具
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-9-7 12:16:11 | 显示全部楼层
首先把链接贴在这里,可以去看看,非常好的一个库,用法也简单
链接:https://mp.weixin.qq.com/s/XvC-R0WUSqF7DokTJe2cpw
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-9-7 22:21:46 From FishC Mobile | 显示全部楼层
bonst 发表于 2020-9-7 12:16
首先把链接贴在这里,可以去看看,非常好的一个库,用法也简单
链接:https://mp.weixin.qq.com/s/XvC-R0W ...

额,这种不太适合学习者用吧
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-9-8 00:09:41 From FishC Mobile | 显示全部楼层
看你做啥子,反正我觉得可以,节省工作,之前用哪个requests库做这种工作感觉不如这个简单
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-1-18 20:16

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表