马上注册,结交更多好友,享用更多功能^_^
您需要 登录 才可以下载或查看,没有账号?立即注册
x
本帖最后由 richardwx008 于 2020-2-22 19:13 编辑
昨天想用Scrapy+Selenium,想登录163邮箱试试,在Selenium中可以正常登录邮箱,但是导入得到cookie后,爬虫无法登录,还未找出原因。。。。。。
Spider 类:
class FujianSpider(scrapy.Spider):
name = 'fujian'
allowed_domains = ['163.com']
start_urls = ['https://email.163.com']
def __init__(self):
self.login_cookies=[]
headers={
"Referer":"Referer: https://www.163.com",
"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:73.0) Gecko/20100101 Firefox/73.0"
}
def get_cookies(self):
browser=webdriver.Firefox(executable_path="geckodriver.exe")
cookies=[]
time.sleep(3)
browser.get('https://email.163.com')
#取得登录前cookie
print('cookies111111111111111\n',browser.get_cookies())
time.sleep(10)
iframe = browser.find_elements_by_tag_name("iframe")[0]
browser.switch_to_frame(iframe)
user=browser.find_element_by_name('email')
#账号密码已模糊
user.send_keys('AAA')
passcode = browser.find_element_by_name('password')
passcode.send_keys('AAA')
commit=browser.find_element_by_id('dologin')
commit.click()
time.sleep(10)
if "未读"in browser.title:
print('虚拟登录成功')
#取得登录后Ccookie
print('cookies2222222222222222\n',browser.get_cookies())
self.login_cookies=browser.get_cookies()
else:print('failed')
def start_requests(self):
self.get_cookies()
print('开始访问!')
print(self.login_cookies)
return [scrapy.Request('https://www.163.com',headers=self.headers,cookies=self.login_cookies,callback=self.parse)]
def parse(self, response):
print('Parsing')
#with open('ttt.hmtl','w',encoding='utf_8') as f:
# f.write(response.text)
print('是否成功','AAA' in response.text)
没登录前的cookie
登录后的cookie
可以看出登录后的cookie已经取得,但是赋到爬虫中后并不能成功登录
用爬虫去登录网页得到的
|