鱼C论坛

 找回密码
 立即注册
查看: 1046|回复: 9

报错

[复制链接]
发表于 2020-3-25 20:56:10 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
本帖最后由 一个账号 于 2020-3-26 22:20 编辑

为什么报错
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2020-3-25 21:02:02 | 显示全部楼层
看不到你的图片。。
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-3-25 21:07:19 | 显示全部楼层
Hello. 发表于 2020-3-25 21:02
看不到你的图片。。
import re
import os
import json
import time
import requests
import jsonpath
from openpyxl import Workbook, load_workbook

print('欢迎使用淘宝查询助理')
print('本程序旨在帮助您更容易挑选到您所需要的商品')
good = input('请输入要查询的商品名称:')
low_price = int(input('请输入您所能接受的商品最低价格:'))
high_price = int(input('请输入您所能接受的商品最高价格:'))
print('请稍等片刻,数据正在获取中')
print('{0}.xlsx正在创建中,您可以在本程序同目录下找到'.format(good))
print('请等待程序关闭后再打开表格,谢谢配合!')
print('祝您购物愉快!\n')
print('-------------------------------------------------------------------')
class TaoBaoSpider(object):
    """淘宝爬虫"""
    def __init__(self, key, start_price, end_price):

        self.headers = {
            'User-Agent': 'Mozilla/5.0 (iPhone; CPU iPhone OS 10_3 like Mac OS X) AppleWebKit/603.1.30'
                          ' (KHTML, like Gecko) Version/10.0 Mobile/14E277 Safari/602.1',
        }
        self.start_price = start_price
        self.end_price = end_price
        self.count = 1
        self.rank_dict = {
            '0': '无',
            '1': '1心',
            '2': '2心',
            '3': '3心',
            '4': '4心',
            '5': '5心',
            '6': '1钻',
            '7': '2钻',
            '8': '3钻',
            '9': '4钻',
            '10': '5钻',
            '11': '1蓝冠',
            '12': '2蓝冠',
            '13': '3蓝冠',
            '14': '4蓝冠',
            '15': '5蓝冠',
            '16': '1金冠',
            '17': '2金冠',
            '18': '3金冠',
            '19': '4金冠',
            '20': '5金冠'
        }
        self.key = key
        self.file_path = f"{self.key}.xlsx"
        self.shop_set = set()
        if os.path.exists(self.file_path):
            self.wb = load_workbook(self.file_path)
            self.ws = self.wb.active
            max_row = self.ws.max_row
            for row in range(2, max_row + 1):
                value = self.ws.cell(row=row, column=2).value.strip()
                self.shop_set.add(value)

        else:
            self.wb = Workbook()
            self.ws = self.wb.active
            self.ws.append(['序号', '商品ID', '店铺ID', '商城类型', '标题', '链接', '价格', '月销', '地区', '店铺名称',
                            '店铺等级', '评论总数', '店铺评分', '相关描述', '图片评论', '追加评论', '好评', '中评', '差评', '与描述相符'])

    def get_img_add_key(self, item_id, user_id, s_type):

        url = f'https://rate.taobao.com/detailCommon.htm?auctionNumId={item_id}&userNumId={user_id}'

        headers = self.headers
        headers['Referer'] = f'https://item.taobao.com/item.htm?id={item_id}'

        response = requests.get(url, headers=headers)
        info = re.findall('\((.+}?)\)', response.text)[0]
        info = json.loads(info)
        data = info['data']
        keys = data['impress']
        keys = [f"{key['title']}({key['count']})" for key in keys]
        keys = ','.join(keys)
        if s_type == '淘宝':
            add_comment = data['count']['additional']
            img_comment = data['count']['pic']
            god_comment = data['count']['good']
            mid_comment = data['count']['normal']
            bad_comment = data['count']['bad']
        else:
            add_comment = data['count']['additional']
            img_comment = data['count']['pic']
            god_comment = data['count']['good']
            mid_comment = data['count']['normal']
            bad_comment = data['count']['bad']

        correspond = data['correspond']

        line = [keys, add_comment, img_comment, god_comment, mid_comment, bad_comment, correspond]
        return line

    def get_comment_key(self, item_id):
        url = f'https://rate.tmall.com/listTagClouds.htm?itemId={item_id}'

        response = requests.get(url, headers=self.headers)
        print(response.text)
        info = re.findall(r'\((.+}?)\)', response.text)[0]
        info = json.loads(info)
        keys = info['tags']['tagClouds']
        keys = [f"{key['tag']}({key['count']})" for key in keys]
        keys = ','.join(keys)
        return keys

    def get_info(self, data):
        title = data['raw_title']
        city = data['item_loc']
        price = data['view_price']
        item_id = data['nid']
        url = data['detail_url']
        if item_id in self.shop_set:
            print(title, '存在')
            self.count += 1
            return

        user_id = data['user_id']

        if 'tmall' in url or 'mclick' in url:
            s_type = '天猫'
            url = 'https://detail.tmall.com/item.htm?id={}'.format(item_id)
        elif 'taobao' in url:
            s_type = '淘宝'
            url = 'http://item.taobao.com/item.htm?id={}'.format(item_id)

        else:
            s_type = '未知'

        time.sleep(5)
        x_url = 'https://h5api.m.taobao.com/h5/mtop.taobao.detail.getdetail/6.0/?data=%7B%22itemNumId%22%3A%22{}%22%7D'.format(
            item_id)
        try:
            x_data = requests.get(x_url, headers=self.headers).json()['data']
        except:
            return
        try:
            shopName = x_data['seller']['shopName']
        except:
            shopName = ''

        try:
            rank = x_data['seller']['creditLevel']
            rank = self.rank_dict[rank]
        except:
            rank = '无'
        try:
            youhui_json = json.loads(x_data['apiStack'][0]['value'])
        except:
            youhui_json = {}
        try:
            month_xiao = youhui_json['item']['sellCount']
        except:
            month_xiao = ''

        # 评价数量
        try:
            comment_num = x_data['rate']['totalCount']
        except KeyError:
            comment_num = ''

        line = self.get_img_add_key(item_id, user_id, s_type)

        if shopName == '':
            print('闲鱼?')
            return

        # 店铺评分
        shop_source = x_data['seller']['evaluates']
        shop_source = [':'.join([source['title'], source['score']]) for source in shop_source]
        shop_source = ','.join(shop_source)

        item = [str(self.count), item_id + '\t', user_id + '\t', s_type, title, url, price, month_xiao, city, shopName, rank, comment_num, shop_source]
        item += line
        print(item)
        self.ws.append(item)
        self.wb.save(self.file_path)
        self.count += 1
        self.shop_set.add(item_id)

    def search(self):
        session = requests.session()
        cookie = 't=85db5e7cb0133f23f29f98c7d6955615; cna=3uklFEhvXUoCAd9H6ovaVLTG; isg=BM3NGT0Oqmp6Mg4qfcGPnvDY3-pNqzF2joji8w9SGWTYBu241_taTS6UdFrF3Rk0; miid=983575671563913813; thw=cn; um=535523100CBE37C36EEFF761CFAC96BC4CD04CD48E6631C3112393F438E181DF6B34171FDA66B2C2CD43AD3E795C914C34A100CE538767508DAD6914FD9E61CE; _cc_=W5iHLLyFfA%3D%3D; tg=0; enc=oRI1V9aX5p%2BnPbULesXvnR%2BUwIh9CHIuErw0qljnmbKe0Ecu1Gxwa4C4%2FzONeGVH9StU4Isw64KTx9EHQEhI2g%3D%3D; hng=CN%7Czh-CN%7CCNY%7C156; mt=ci=0_0; hibext_instdsigdipv2=1; JSESSIONID=EC33B48CDDBA7F11577AA9FEB44F0DF3'

        session.headers = {
            'User-Agent': 'Mozilla/5.0 (iPhone; CPU iPhone OS 10_3 like Mac OS X) AppleWebKit/603.1.30 (KHTML, like Gecko) Version/10.0 Mobile/14E277 Safari/602.1',
            'cookie': cookie,
            'referer': 'https://s.taobao.com/search?q=%E5%86%B0%E7%AE%B1&imgfile=&js=1&stats_click=search_radio_all%3A1&initiative_id=staobaoz_20190804&ie=utf8&sort=sale-desc&bcoffset=0&p4ppushleft=%2C48&s=1364'
        }

        url = 'https://s.taobao.com/search?rec_type=1&q={}&sort=sale-desc&s=0&ajax=true&data-value=396&filter=reserve_price%5B{}%2C{}%5D'.format(self.key, self.start_price, self.end_price)
        start_flag = 0
        while True:
            if start_flag > 10:
                session.headers['cookie'] = 't=85db5e7cb0133f23f29f98c7d6955615; cna=3uklFEhvXUoCAd9H6ovaVLTG; isg=BM3NGT0Oqmp6Mg4qfcGPnvDY3-pNqzF2joji8w9SGWTYBu241_taTS6UdFrF3Rk0; miid=983575671563913813; thw=cn; um=535523100CBE37C36EEFF761CFAC96BC4CD04CD48E6631C3112393F438E181DF6B34171FDA66B2C2CD43AD3E795C914C34A100CE538767508DAD6914FD9E61CE; _cc_=W5iHLLyFfA%3D%3D; tg=0; enc=oRI1V9aX5p%2BnPbULesXvnR%2BUwIh9CHIuErw0qljnmbKe0Ecu1Gxwa4C4%2FzONeGVH9StU4Isw64KTx9EHQEhI2g%3D%3D; hng=CN%7Czh-CN%7CCNY%7C156; mt=ci=0_0; hibext_instdsigdipv2=1; JSESSIONID=EC33B48CDDBA7F11577AA9FEB44F0DF3'
                start_flag = 0
            req = session.get(url).json()
            try:
                capurl = req['url']
                print('验证码', capurl)
                time.sleep(1)
                # cookies = self.loop.run_until_complete(main(capurl))
                # print(cookies)
                # session.cookies.set('x5sec', cookies['x5sec'])
                start_flag += 1
            except:
                break

        page = jsonpath.jsonpath(req, '$..totalPage')[0]
        datas = req['mods']['itemlist']['data']['auctions']
        for data in datas:
            self.get_info(data)

        for p in range(1, page):
            p_va = p * 44
            url = 'https://s.taobao.com/search?rec_type=1&q={}&sort=sale-desc&s={}&ajax=true&data-value=396&filter=reserve_price%5B{}%2C{}%5D'.format(self.key, p_va, self.start_price, self.end_price)
            print(url)
            flag = 0
            while True:
                if flag > 10:
                    session.headers['cookie'] = 't=85db5e7cb0133f23f29f98c7d6955615; cna=3uklFEhvXUoCAd9H6ovaVLTG; isg=BM3NGT0Oqmp6Mg4qfcGPnvDY3-pNqzF2joji8w9SGWTYBu241_taTS6UdFrF3Rk0; miid=983575671563913813; thw=cn; um=535523100CBE37C36EEFF761CFAC96BC4CD04CD48E6631C3112393F438E181DF6B34171FDA66B2C2CD43AD3E795C914C34A100CE538767508DAD6914FD9E61CE; _cc_=W5iHLLyFfA%3D%3D; tg=0; enc=oRI1V9aX5p%2BnPbULesXvnR%2BUwIh9CHIuErw0qljnmbKe0Ecu1Gxwa4C4%2FzONeGVH9StU4Isw64KTx9EHQEhI2g%3D%3D; hng=CN%7Czh-CN%7CCNY%7C156; mt=ci=0_0; hibext_instdsigdipv2=1; JSESSIONID=EC33B48CDDBA7F11577AA9FEB44F0DF3'

                    flag = 0
                req = session.get(url).json()
                try:
                    capurl = req['url']
                    print('验证码', capurl)
                    # cookies = self.loop.run_until_complete(main(capurl))
                    # print(cookies)
                    # session.cookies.set('x5sec', cookies['x5sec'])
                    time.sleep(1)
                    flag += 1
                except:
                    break

            datas = req['mods']['itemlist']['data']['auctions']
            for data in datas:
                self.get_info(data)


if __name__ == '__main__':
    tb = TaoBaoSpider(good, low_price, high_price)
    tb.search()

每次 f"{self.key}.xlsx"类似于这种样子的它双引号就会报错
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-3-25 21:10:57 From FishC Mobile | 显示全部楼层
看不到
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-3-25 21:14:26 | 显示全部楼层
<img id="aimg_jxZUz" onclick="zoom(this, this.src, 0, 0, 0)" class="zoom" width="702" height="1365" file="http://库/图片" border="0" alt="" />


emmm厉害了,那个图片地址不是填你电脑本地图片地址而是你上传到图床的地址。。
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-3-25 21:17:07 | 显示全部楼层
发代码
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-3-25 21:25:46 | 显示全部楼层
本帖最后由 一个账号 于 2020-3-25 21:29 编辑

那个图片地址不是填你电脑本地图片地址而是你上传到图床的地址。。


18.png
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-3-25 21:28:32 | 显示全部楼层

这是楼主上传的图片地址,我看网页源代码看到的,他在图片地址处写的本地图片的地址,所以帖子本来有图片但是加载不出~~~
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2020-3-25 21:29:20 | 显示全部楼层
dlnb526 发表于 2020-3-25 21:28
这是楼主上传的图片地址,我看网页源代码看到的,他在图片地址处写的本地图片的地址,所以帖子本来有图片 ...

想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2020-3-26 11:49:09 | 显示全部楼层
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2024-11-25 11:00

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表