鱼C论坛

 找回密码
 立即注册
查看: 1097|回复: 4

[已解决]怎么爬取需要登录的页面

[复制链接]
发表于 2020-7-25 20:20:19 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
import requests
import re
from lxml import html

def open_url(keyword):
    item={'q':keyword,'sort':'sale-desc'}
    url='https://s.taobao.com/search'
    head={'user-agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.98 Safari/537.36 LBBROWSER',
    'referer':'https://s.taobao.com/search?q=%E8%8B%B9%E6%9E%9C&sort=sale-desc',
    'cookie':'cna=uIlSFyf4fzECAXPHSV7FUkTZ; cad=17385008a71-5802733657771572870001; cap=b1a8; cnaui=4204342242; aimx=Q9iiF5j4dTgCAbeUfzwibvYP_1595664963; cdpid=Vy64NQpQyFoeBA%253D%253D; tbsa=4d1bbc60a3b803d614638b54_1595666242_38; atpsida=e00833b49dcba05591c9044f_1595666242_51; atpsidas=2b032abfd9b96e6dd9efbcfd_1595666242_57; sca=18f4a5de; aui=4204342242'}
    res=requests.get(url,params=item)
    return res
def main():
    keyword=input('请输入搜索关键词:')
    res=open_url(keyword)
    with open('taobao.txt','w',encoding='utf-8') as f:
        f.write(res.text)
    
if __name__=='__main__':
    main()
想爬淘宝,结果不登陆爬的都是同一堆数据,怎么爬取需要登录的页面啊,求解
最佳答案
2020-7-25 20:31:34
本帖最后由 xiaosi4081 于 2020-7-25 20:34 编辑
fytfytf 发表于 2020-7-25 20:30
我cookie加了的,不过好像没什么卵用


你构造了head,但是没有用呀,你参数里面没headers

你按照我的改一下:
import requests
import re
from lxml import html

def open_url(keyword):
    item={'q':keyword,'sort':'sale-desc'}
    url='https://s.taobao.com/search'
    head={'user-agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.98 Safari/537.36 LBBROWSER',
    'referer':'https://s.taobao.com/search?q=%E8%8B%B9%E6%9E%9C&sort=sale-desc',
    'cookie':'cna=uIlSFyf4fzECAXPHSV7FUkTZ; cad=17385008a71-5802733657771572870001; cap=b1a8; cnaui=4204342242; aimx=Q9iiF5j4dTgCAbeUfzwibvYP_1595664963; cdpid=Vy64NQpQyFoeBA%253D%253D; tbsa=4d1bbc60a3b803d614638b54_1595666242_38; atpsida=e00833b49dcba05591c9044f_1595666242_51; atpsidas=2b032abfd9b96e6dd9efbcfd_1595666242_57; sca=18f4a5de; aui=4204342242'}
    res=requests.get(url,headers=head,data=item)
    return res
def main():
    keyword=input('请输入搜索关键词:')
    res=open_url(keyword)
    with open('taobao.txt','w',encoding='utf-8') as f:
        f.write(res.text)
    
if __name__=='__main__':
    main()

求最佳

给你一个警告:
cookie可是很有用的,你要是把它附在代码里,就很容易泄露信息
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2020-7-25 20:26:00 | 显示全部楼层
本帖最后由 xiaosi4081 于 2020-7-25 20:30 编辑
import requests
import re
from lxml import html

def open_url(keyword):
    item={'q':keyword,'sort':'sale-desc'}
    url='https://s.taobao.com/search'
    head={'user-agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.98 Safari/537.36 LBBROWSER',
    'referer':'https://s.taobao.com/search?q=%E8%8B%B9%E6%9E%9C&sort=sale-desc',
    'cookie':'cna=uIlSFyf4fzECAXPHSV7FUkTZ; cad=17385008a71-5802733657771572870001; cap=b1a8; cnaui=4204342242; aimx=Q9iiF5j4dTgCAbeUfzwibvYP_1595664963; cdpid=Vy64NQpQyFoeBA%253D%253D; tbsa=4d1bbc60a3b803d614638b54_1595666242_38; atpsida=e00833b49dcba05591c9044f_1595666242_51; atpsidas=2b032abfd9b96e6dd9efbcfd_1595666242_57; sca=18f4a5de; aui=4204342242'}
    res=requests.get(url,headers=head,data=item)
    return res
def main():
    keyword=input('请输入搜索关键词:')
    res=open_url(keyword)
    with open('taobao.txt','w',encoding='utf-8') as f:
        f.write(res.text)
    
if __name__=='__main__':
    main()
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-7-25 20:30:02 | 显示全部楼层
xiaosi4081 发表于 2020-7-25 20:26
你cookie找错了吧
你登录后,来到要爬取的界面,之后右键>>检查(审查元素)

我cookie加了的,不过好像没什么卵用
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-7-25 20:31:34 | 显示全部楼层    本楼为最佳答案   
本帖最后由 xiaosi4081 于 2020-7-25 20:34 编辑
fytfytf 发表于 2020-7-25 20:30
我cookie加了的,不过好像没什么卵用


你构造了head,但是没有用呀,你参数里面没headers

你按照我的改一下:
import requests
import re
from lxml import html

def open_url(keyword):
    item={'q':keyword,'sort':'sale-desc'}
    url='https://s.taobao.com/search'
    head={'user-agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.98 Safari/537.36 LBBROWSER',
    'referer':'https://s.taobao.com/search?q=%E8%8B%B9%E6%9E%9C&sort=sale-desc',
    'cookie':'cna=uIlSFyf4fzECAXPHSV7FUkTZ; cad=17385008a71-5802733657771572870001; cap=b1a8; cnaui=4204342242; aimx=Q9iiF5j4dTgCAbeUfzwibvYP_1595664963; cdpid=Vy64NQpQyFoeBA%253D%253D; tbsa=4d1bbc60a3b803d614638b54_1595666242_38; atpsida=e00833b49dcba05591c9044f_1595666242_51; atpsidas=2b032abfd9b96e6dd9efbcfd_1595666242_57; sca=18f4a5de; aui=4204342242'}
    res=requests.get(url,headers=head,data=item)
    return res
def main():
    keyword=input('请输入搜索关键词:')
    res=open_url(keyword)
    with open('taobao.txt','w',encoding='utf-8') as f:
        f.write(res.text)
    
if __name__=='__main__':
    main()

求最佳

给你一个警告:
cookie可是很有用的,你要是把它附在代码里,就很容易泄露信息
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 0 反对 1

使用道具 举报

 楼主| 发表于 2020-7-25 20:41:23 | 显示全部楼层
xiaosi4081 发表于 2020-7-25 20:31
你构造了head,但是没有用呀,你参数里面没headers

你按照我的改一下:

爬到了,大佬nb
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-1-19 20:25

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表