鱼C论坛

 找回密码
 立即注册
查看: 7801|回复: 88

[作品展示] 网络小说爬取

[复制链接]
发表于 2019-3-23 12:53:00 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
目标网站是这个:http://www.xbiquge.la/fenlei/1_1.html
想下载喜欢的小说,又懒得注册登陆怎么办?就用这个试试看看,
格式化没有做好,代码写得很糟,总算能爬下来了。
目前还没有实现输入书名就下载全本,后面再看怎么实现吧。


游客,如果您要查看本帖隐藏内容请回复
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2019-4-8 17:02:17 | 显示全部楼层
学习学习
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2019-4-8 18:04:52 | 显示全部楼层
谢谢大佬
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2019-4-8 18:15:36 From FishC Mobile | 显示全部楼层
支持一下
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2019-4-8 18:19:21 From FishC Mobile | 显示全部楼层
你那个模拟浏览器的报文头,弄那么多,是为了更好的蒙蔽对方吗
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2019-4-8 18:53:08 | 显示全部楼层
学习学习
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2019-4-8 19:04:04 | 显示全部楼层
wp231957 发表于 2019-4-8 18:19
你那个模拟浏览器的报文头,弄那么多,是为了更好的蒙蔽对方吗

想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2019-4-8 19:15:59 | 显示全部楼层
学习!
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2019-4-8 19:48:14 | 显示全部楼层
学习学习
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2019-4-8 23:08:14 | 显示全部楼层
学习学习
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2019-4-9 18:08:59 | 显示全部楼层
see
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2019-4-9 20:49:14 | 显示全部楼层
多学习别人的代码才能更好的成长~ 谢谢大佬分享
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2019-4-9 21:27:37 | 显示全部楼层
学习了
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2019-4-9 22:05:27 | 显示全部楼层
牛逼
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2019-4-10 13:06:22 | 显示全部楼层
隐藏版本的内容写的很烂,这个稍微精简了下
import os
import re
import requests
import bs4
import random

class nov():
    def __init__(self,url):
        self.url=url
    
    def get_header(self):
        agent = ['Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:59.0) Gecko/20100101 Firefox/59.0',
             'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36',
             'Mozilla/5.0 (Windows NT 6.1; WOW64; Trident/7.0; rv:11.0) like Gecko',
             'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.221 Safari/537.36 SE 2.X MetaSr 1.0',
             'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.89 Safari/537.36',
             'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.139 Safari/537.36'
             ]
        i = random.randint(0,len(agent)-1)
        header = {'User-Agent':agent[i]}
        return header
    
    # 获取目录页面
    def get_html(self,path):
        self.path=path
        res=requests.get(self.path,self.get_header())
        res.encoding='utf-8'
        html=res.text
        return html
    
    #获取章节全路径
    def get_each(self):
        self.html=self.get_html(self.url)
        soup=bs4.BeautifulSoup(self.html,'html.parser')
        global nov_name
        nov_name=soup.h1.text
        each_path=soup.find_all('dd')
        urlList=[]
        for i in each_path:
            each_name=i.a.text
            each_full_path='http://www.xbiquge.la'+i.a['href']
            urlList.append(each_full_path)
        return urlList
        
    def get_content(self):
        self.ulist=self.get_each()
        print("匹配到小说:<<"+nov_name+">>共%d章节" % len(self.ulist))

        down="D:/1/txt/"
        if os.path.exists(down)!=True:
            os.makedirs(down)
        k=0
        for i in self.ulist[:]:
            k+=1
            con=self.get_html(i)
            soup=bs4.BeautifulSoup(con,'html.parser')
            title=soup.h1.text
            txt=soup.find_all('div',id="content")
            spt=re.split("\s+",txt[0].text)
            new=[]
            new.append(str('    '+title+"\n\n"))
            for i in spt:
                i='    '+i+"\n\n"
                new.append(i)
            
            print("正在写入第%d章" % k)
            with open("D:/1/txt/"+nov_name+".txt",'a+',encoding='utf-8')as p:
                p.writelines(new)

if __name__=="__main__":
    www="http://www.xbiquge.la"
    url=input("请输入"+str(www)+"中最任意一小说目录所在网址(例如:http://www.xbiquge.la/15/15409/):")
    n=nov(url)
    n.get_html(url)
    n.get_each()
    n.get_content()
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2019-4-10 14:20:08 | 显示全部楼层
看隐藏
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2019-4-10 15:12:27 | 显示全部楼层
学习了
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2019-4-10 15:16:37 | 显示全部楼层
let me look at it. thanks.
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2019-4-10 17:57:49 | 显示全部楼层
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2019-4-11 14:20:58 | 显示全部楼层
def getHeader():
    agent = ['Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:59.0) Gecko/20100101 Firefox/59.0',
             'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36',
             'Mozilla/5.0 (Windows NT 6.1; WOW64; Trident/7.0; rv:11.0) like Gecko',
             'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.221 Safari/537.36 SE 2.X MetaSr 1.0',
             'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.89 Safari/537.36',
             'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.139 Safari/537.36'
             ]
    i = random.randint(0,len(agent)-1)
    header = {'User-Agent':agent}
    return header

我猜测你是从agent列表中随机抽取一个agent  可是却没看明白这两句代码是如何关联的呢
i = random.randint(0,len(agent)-1)
    header = {'User-Agent':agent}
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-1-15 21:08

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表