鱼C论坛

 找回密码
 立即注册
查看: 4322|回复: 14

为什么我的爬虫都被禁,怎么解决呢?

[复制链接]
发表于 2015-7-16 22:48:07 | 显示全部楼层 |阅读模式
50鱼币
urllib.error.HTTPError: HTTP Error 403: Forbidden
百度贴吧啊,煎蛋啊之类的。每次一用爬虫就报错。
尤其是煎蛋,我用甲鱼哥的代码也搞不定啊。。。有谁知道该怎么修改后能用吗?
代码就是小甲鱼视频课件的代码
一直搞不定。爬虫已经不知道怎么学了。。。。求大牛。。。

想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2015-7-16 23:47:32 | 显示全部楼层
这个我也搞不定
试试scrapy框架?
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2015-7-18 00:10:20 | 显示全部楼层
本帖最后由 qianczar 于 2015-7-18 00:20 编辑

试试requests?
这个是简单的翻译,都是几个最常用的功能,加入headers等是官方文档中没讲的http://www.zhidaow.com/post/python-requests-install-and-brief-introduction

这个是官方文档:http://cn.python-requests.org/zh_CN/latest/

它比urllib的方法方便很多。

你被禁,估计也就是要加代理IP,或者要加cookies等,加代理里面有介绍,加cookies也就是加个headers,也有介绍。

如果你爬煎蛋,而且用urllib,你可以学习下这个帖子http://bbs.fishc.com/thread-61650-1-1.html,他解决了更换IP的问题。
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2015-7-19 13:45:07 | 显示全部楼层
回复有鱼币?鱼币不够用怎么办?
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2015-7-19 18:12:40 | 显示全部楼层
默.默 发表于 2015-7-19 13:45
回复有鱼币?鱼币不够用怎么办?

来我这个提问下回复,因为问题我已经自己解决了,鱼币送你。
http://bbs.fishc.com/thread-61496-1-1.html
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2015-7-20 09:46:49 | 显示全部楼层
用requests应该可以爬取煎蛋的内容,撸主需要爬哪些内容?我可以试着啪啪……
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2015-7-20 11:36:17 | 显示全部楼层
昨、夜星辰 发表于 2015-7-20 09:46
用requests应该可以爬取煎蛋的内容,撸主需要爬哪些内容?我可以试着啪啪……

有用过,小甲鱼视频里不是有用request来修改user-agent嘛。还有代理IP,都用过啊,没用啊。。。。
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2015-7-20 12:11:50 | 显示全部楼层
FavouritePython 发表于 2015-7-20 11:36
有用过,小甲鱼视频里不是有用request来修改user-agent嘛。还有代理IP,都用过啊,没用啊。。。。
  1. # -*- coding: utf-8 -*-
  2. import requests
  3. from lxml import etree

  4. url = 'http://jandan.net/'
  5. s = requests.session()
  6. s.headers.update({'User-Agent': 'Mozilla/5.0 (Windows NT 5.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/43.0.2357.81 Safari/537.36'})
  7. html = s.get(url).content
  8. selector = etree.HTML(html)
  9. titles = selector.xpath('//*[@id="content"]/div/div[2]/h2/a/text()')
  10. for title in titles:
  11.     print title
复制代码
这是我刚写的代码,简单地抓取每个标题。
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2015-8-26 15:56:22 | 显示全部楼层
import urllib.request
import os
import random

def url_open(url):
    data=None
#'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/31.0.1650.63 Safari/537.36'#
    headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/31.0.1650.63 Safari/537.36'}
    req = urllib.request.Request(url,data,headers)
    #proxies = ['117.177.243.43:8086']
    #proxy = random.choice(proxies)
#'124.93.222.95:8080'
    #proxy_support = urllib.request.ProxyHandler({"http":proxy})
    #opener = urllib.request.build_opener(proxy_support)
    #urllib.request.install_opener(opener)
    response = urllib.request.urlopen(req)
    html = response.read()

    return html
                              
                              
def get_page(url):
    html = url_open(url).decode('utf-8')
   

    a = html.find('current-comment-page') + 23
    b = html.find(']',a)

    return html[a:b]



def find_imgs(url):
    html = url_open(url).decode('utf-8')
    img_addrs = []
    a = html.find('img src=')
    while a != -1:
        b = html.find('.jpg',a,a+255)
        if b != -1:
            img_addrs.append(html[a+9:b+4])
        else:
             b = a+9                  
        a = html.find('img src',b)
    return img_addrs
                              
         

def save_imgs(folder,img_addrs):
    for each in img_addrs:
        filename = each.split('/')[-1]
        with open(filename,'wb') as f:
            img =url_open(each)
            f.write(img)

def download_mm(floder='煎蛋网爬虫',pages=10):
    os.mkdir(floder)
    os.chdir(floder)

    url ="http://jandan.net/ooxx/"
    page_num = int(get_page(url))

    for i in range(pages):
        page_num -= i
        page_url = url + 'page-' + str(page_num) +'#comments'
        img_addrs = find_imgs(page_url)
        save_imgs(floder,img_addrs)

if __name__ == '__main__':
   download_mm()     
        
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2015-8-26 15:57:02 | 显示全部楼层
刚刚侧试过 没问题~
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2015-8-26 16:00:34 | 显示全部楼层
def url_open(url):
    data=None
#'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/31.0.1650.63 Safari/537.36'#
    headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/31.0.1650.63 Safari/537.36'}
    req = urllib.request.Request(url,data,headers)
    #proxies = ['117.177.243.43:8086']
    #proxy = random.choice(proxies)
#'124.93.222.95:8080'
    #proxy_support = urllib.request.ProxyHandler({"http":proxy})
    #opener = urllib.request.build_opener(proxy_support)
    #urllib.request.install_opener(opener)
    response = urllib.request.urlopen(req)
    html = response.read()

    return html
这是重点的修改部分 req = urllib.request.Request(url,data,headers)括号里这个三个参数都要有data=NONE可以没有,如果不写这些参数,让PYTHON默认的话,网站会查出来是你用PYTHON在爬虫,就禁止你爬了
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2015-9-10 14:37:35 | 显示全部楼层
学习
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2015-9-23 16:27:51 | 显示全部楼层
回复赚鱼币,抱歉,为了作业~
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2015-11-26 10:03:07 | 显示全部楼层
我是来学习的,看看大牛的精彩解答
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2015-11-28 11:55:21 | 显示全部楼层
:smile:smile:smile:smile:smile
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2024-5-25 12:33

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表