鱼C论坛

 找回密码
 立即注册
查看: 2141|回复: 6

关于淘宝的反爬虫机制问题以及怎么确定一个网站的反爬虫机制

[复制链接]
发表于 2020-6-17 16:11:31 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
如题,我的代码抓不到淘宝的商品,不知道用什么办法确定以及绕过反爬机制。求大神解惑
import requests
import re

def gethtmltext(url):
    try:
        kv = {'cookie':'sca=cdd952b0; cna=cm8hFgVY6isCAW+0ai8EgOrj; aimx=1n4lF98C5mwCAWx3t6cZd55B_1587450070; cnaui=2200738114438; aui=2200738114438; cdpid=UUphyu7orn4%252Ft8bQFQ%253D%253D; cad=172c034b847802205482156047270001; cap=c761; atpsidas=962aed7a82779641e0740610_1592369935_2; tbsa=43581b04af757d1725743750_1592369935_1; atpsida=03dc10c30f9fb1ace4f9c56e_1592369935_1',
              'user-agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.97 Safari/537.36 Edg/83.0.478.45',
              ':authority':'www.taobao.com',':method':'GET',':path':'/markets/search/search-suggest-history-iframe',':scheme':'https','accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
              'accept-encoding':'gzip, deflate, br','accept-language':'zh-CN,zh;q=0.9,en;q=0.8,en-GB;q=0.7,en-US;q=0.6'}
        
        r = requests.get(url,headers = kv,timeout = 20)
        r.raise_for_status()
        r.encoding = r.apparent_encoding
        print(r.text)
        return r.text
    except:
        print('访问链接失败,请检查链接正确性或网络是否通畅...')

def parsepage(ilt,html):
    try:
        plt = re.findall(r'"view_price"\:"[\d\.]*"',html)
        tlt = re.findall(r'"raw_title"\:".*?"',html)
        for i in range(len(plt)):
            price = eval(plt[i].split(':')[1])
            title = eval(tlt[i].split(':')[1])
            ilt.append([price,title])
            return ilt
    except:
        print('!')
        
def printgoodslist(ilt):
    tplt = '{0:^4}\t{0:^8}\t{2:^16}'
    print(tplt.format('序号','价格','商品名称'))
    count = 0
    for g in ilt:
        count += 1
        print(tplt.format(count,g[0],g[1]))

if __name__ == '__main__':
    goods = '键盘'
    depth = 2
    start_url = 'https://s.taobao.com/search?q=' + goods
    infolist = []
    for i in range(depth):
        try:
            url = start_url + '&s=' + str(44*i)
            html = gethtmltext(url)
            parsepage(infolist,html)
            
        except:
            continue
    printgoodslist(infolist)
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2020-6-17 16:16:28 | 显示全部楼层
想随心所欲的爬某宝  是灰常灰常灰常困难的  难道无法实现
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-6-17 16:17:14 | 显示全部楼层


试着看看,能不能参考参考这个帖子的:


淘宝商品信息爬虫
https://fishc.com.cn/thread-154294-1-1.html
(出处: 鱼C论坛)


爬评论的话不知道会不会类似,你也可以看看这个:
Python 爬取淘宝商品评论教程
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-6-17 16:18:55 | 显示全部楼层
wp231957 发表于 2020-6-17 16:16
想随心所欲的爬某宝  是灰常灰常灰常困难的  难道无法实现

好吧,原谅我作为一个小白,不知天高地厚
那大佬有办法确定一个网站的反爬机制么?
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-6-17 16:22:36 | 显示全部楼层
光秃强 发表于 2020-6-17 16:18
好吧,原谅我作为一个小白,不知天高地厚
那大佬有办法确定一个网站的反爬机制么?

几乎所有的商业网站都有反扒   初学者 可以先挑选一些简单的网站爬一爬  不要挑选难度系数是骨灰级的取爬

那会另你绝望的
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-6-17 16:28:10 | 显示全部楼层
光秃强 发表于 2020-6-17 16:18
好吧,原谅我作为一个小白,不知天高地厚
那大佬有办法确定一个网站的反爬机制么?




为什么不看看我发的链接呢?人家也是爬淘宝商品,多学习学习

不意味着你不行嘛.....
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-6-17 16:51:33 | 显示全部楼层
5楼说的对,小白从爬简单的网站开始。
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-1-20 15:53

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表