|
马上注册,结交更多好友,享用更多功能^_^
您需要 登录 才可以下载或查看,没有账号?立即注册
x
跟着小甲鱼学习爬虫之后,终于成功的写出能够下载小说的爬虫,跟大家分享一下喜悦的心情。- from requests_html import HTMLSession
- import time
- session = HTMLSession()
- wz = input("请输入需要下载的小说网址:")#云轩阁小说网,需要下载小说章节列表网址
- r = session.get(wz)
- images = r.html.find('#readerlist',first=True)#章节目录
- mc = r.html.find('#smallcons > h1',first=True)#小说名称
- urls = list(images.absolute_links)#获得全部章节链接,并转换成列表
- urls.sort()#升序排列网址
- s = len(urls)#计算章节数量
- file = open(mc.text+'.txt','a',encoding='utf-8') #新建一个以小说名称命名的TXT
- q = 1
- for url in urls:
- lj = session.get(url)
- nr = lj.html.find('#content',first=True)#获得章节内容
- zj = lj.html.find('#center > div.title > h1',first=True)#获得章节名称
- print("正在下载{},还剩下{}章".format(zj.text[4:],s-q))
- file.write(zj.text[4:]+'\n\n'+nr.text+'\n\n')#写入TXT
- q += 1
- time.sleep(1)
- file.close()
复制代码 |
|