|  | 
 
| 
本帖最后由 鱼C-小师妹 于 2021-3-3 17:38 编辑
x
马上注册,结交更多好友,享用更多功能^_^您需要 登录 才可以下载或查看,没有账号?立即注册  
 事先声明:
 
 
 
 春节假期结束啦,小师妹又来用代码搞事情啦!
 
 随着 唐探3 在全国影院的全面上线,大家对于这部电影的评价却是非常的出乎意料,豆瓣目前评分只有区区 5.7 分。
 
 
 
 很多影评表示非常的失望。
 
 小师妹作为纯路人,准备爬一下数据,看看口碑到底如何
   
 看完结果,小师妹只想到下面这句话:
 
 
 二流的作品,比广为流传的作品活得还久,其中有些根本不该问世,却赖着不肯死。——雷蒙德·钱德勒《谋杀的简约之道
剩下自己品~
 
 从豆瓣用 Python 获取了几千条影评数据,一起来看看大家是怎么说的吧。
 
 顺便展示下数据可视化功底。
 
 接下来的内容,偏重“分析”,代码只是简单注释。
 
 涉及到的知识点不做详细讲解啦,大家可以去看小甲鱼老师的教程,链接我都会罗列出来滴。
 
 主要就是两件事:
 
 
 废话不多说,开始吧!
 
 生动视频解说版:
 
 
 
 数据爬取
 
 由于豆瓣现在有较强的反爬机制,这里小师妹不方便透露具体实现方式。
 
 关键字:
 
 
 1、免费代理+代理池维护2、付费代理3、selenium 慢慢爬
 付费的,如果自用也就几块而已~
 
 出于稳定可用,用了付费代理构造一个 url 用 requests 去请求,主入口:
 
 
 复制代码if __name__ == '__main__':
    proxies_list = get_ip()
    can_use_ip_list = check_ip(proxies_list)
    page = 200
    for i in range(1, page + 1):
        time.sleep(random.randint(1, 3))
        print('鱼C秘制小爬虫在爬取第%s页' % i)
        url = 'https://movie.douban.com/subject/27619748/comments?start=%s&limit=20&status=P&sort=new_score' % (
            (i - 1) * 20)
        print(url)
        tree = get_tree(url, can_use_ip_list)
        info_list = parse(tree)
        print('保存中....')
        save(info_list, i)
计划大概爬取 10 页,不到 200 条数据。
 
 打开控制台查看标签:
 (评论页面:https://movie.douban.com/subject/27619748/comments)
 
 
 
 上面评论的标签都统一放在:
 
 
 复制代码div[@class="comment"]/h3/span[@class="comment-info"]/a/text()
到时代码用循环就可以啦!
 
 数据源找到了,写代码批量爬去上面 div 中的:用户名、星级、评论
 
 
 复制代码def parse(tree):
    global comment_set
    info_list = []
    comment_list = tree.xpath(
        '//div[@id="comments"]/div[@class="comment-item "]')
    for com in comment_list:
        comments_user = com.xpath(
            './div[@class="comment"]/h3/span[@class="comment-info"]/a/text()')[
                0]  # 评论者
        if comments_user in comment_set:
            pass
        else:
            stat_dict = {
                "10": "一星",
                "20": "二星",
                "30": "三星",
                "40": "四星",
                "50": "五星",
            }
            comment_star = com.xpath(
                './div[@class="comment"]/h3/span[@class="comment-info"]/span[2]/@class'
            )[0]  # 星级
            for i in stat_dict:
                if i in comment_star:
                    comment_star = stat_dict[i]
            try:
                comment_time = com.xpath(
                    './div[@class="comment"]/h3/span[@class="comment-info"]/span[3]/text()'
                )[0].split()[0]  # 评论时间
            except:
                comment_time = ""
            comment = com.xpath(
                './div[@class="comment"]/p[@class=" comment-content"]/span/text()'
            )[0]  # 评论
            comment_set.add(comments_user)
            info_list.append(
                [comments_user, comment_star, comment_time, comment])
    return info_list
将数据存到 csv 中:
 
 
 复制代码def save(item, title=None):
    # 创建文件对象
    try:
        if title == 1:
            content_list = ['评论者', '评论星级', '评论时间', '评论内容']
            with open('./唐探三.csv', 'a+', newline='',
                      encoding='utf-8-sig') as file:
                writer = csv.writer(file, delimiter=',')
                writer.writerow(content_list)
                writer.writerows(item)
        if title == 1:
            print('>>>创建表格成功,并加入标题成功!')
        else:
            print('>>>写入成功!')
    except:
        pass
搞定,看结果(节选):
 
 
 
 很尴尬,至于多尴尬,我们用词云来看下。
 
 不过先看下随着日期,评分的趋势变化。
 
 
 评分趋势
 
 从上面数据中我们可以看到有日期和星级。
 
 咱们就可以用 Matplotlib,基于这两个数据做一个趋势图!
 
 其中星级我们需要先按照进行求和算平均:
 
 
 复制代码file = csv.reader(f)
        sum_start_12 = 0
        sum_start_13 = 0
        sum_start_14 = 0
        sum_start_15 = 0
        sum_start_16 = 0
        count_12 = 0
        count_13 = 0
        count_14 = 0
        count_15 = 0
        count_16 = 0
        date_list = []
        for line, comment in enumerate(file):
            if line != 0:
                date_list.append(comment[2])
                # print(line,comment)
                if comment[2] == '2021-02-12':
                    sum_start_12 += movie_start_dict[comment[1]]
                    count_12 += 1
                elif comment[2] == '2021-02-13':
                    sum_start_13 += movie_start_dict[comment[1]]
                    count_13 += 1
                elif comment[2] == '2021-02-14':
                    sum_start_14 += movie_start_dict[comment[1]]
                    count_14 += 1
                elif comment[2] == '2021-02-15':
                    sum_start_15 += movie_start_dict[comment[1]]
                    count_15 += 1
                elif comment[2] == '2021-02-16':
                    sum_start_16 += movie_start_dict[comment[1]]
                    count_16 += 1
        star_list = [
            sum_start_12 / count_12, sum_start_13 / count_13,
            sum_start_14 / count_14, sum_start_15 / count_15,
            sum_start_16 / count_16
        ]
输出看结果:
 
 
 
  
 很明显随着日期增长,评分一路下滑...
 
 除了折线图,还可以适当修改代码(直接看评分占比):
 
 
 复制代码with open('Ori.csv', 'r', encoding='utf-8') as f:
        file = csv.reader(f)
        one = 0
        two = 0
        three = 0
        four = 0
        five = 0
        for line, comment in enumerate(file):
            if line != 0:
                # print(line, comment)
                if comment[1] == '一星':
                    one += 1
                elif comment[1] == '二星':
                    two += 1
                elif comment[1] == '三星':
                    three += 1
                elif comment[1] == '四星':
                    four += 1
                elif comment[1] == '五星':
                    five += 1
        groups = ["1星", "2星", "3星", "4星", "5星"]
        offsets = [0, 0, 0, 0, 0]
        rng = np.random.RandomState(27)
        sj = [one, two, three, four, five]
        plt.pie(sj,
                labels=groups,
                explode=offsets,
                autopct='%1.1f%%',
                startangle=90,
                shadow=True)  
        plt.title(u"星级饼图")
        plt.show()
图:
 
 
 
 五星好评占比 9.9%,剩下都是......
 
 
 内容词云
 
 词云文档:词云——将你的数据可视化的一种炫酷方案
 
 小甲鱼老师已经讲过词云玩法,去看上面的文章。
 
 词云往往能直观显示出内容中的高频词,上才艺:
 
 
 复制代码import wordcloud
file = open(r"Ori.csv", encoding="utf-8")
text = file.read()
stopwords = {"一星", "二星", "三星", "四星", "五星", "world", "评论内容", "评论星数"}
wc = wordcloud.WordCloud(font_path=r"Hiragino Sans GB.ttc",
                         stopwords=stopwords)
wc.generate(text)
image = wc.to_image()
image.show()
结果:
 
 
 
 可以看到,影评者中对于 唐探3 的评论中几乎没有关于“喜欢”、“好看”等等关键词。
 
 反而出现了XXX、XXXXX等关键词...
 
 这......嗯...群众的眼睛是雪亮滴。
 
 欢迎有看过的童鞋们在下方留言交流心得...
 
 | 
 评分
查看全部评分
 |