您当前的位置: 首页 >  Python

嗨学编程

暂无认证

  • 0浏览

    0关注

    1405博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文

用Python爬取猫眼电影里柯南剧场版的6000条评论

嗨学编程 发布时间:2019-11-29 16:17:19 ,浏览量:0

前言

本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。

作者: 城南有梦

PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取

python免费学习资料以及群交流解答点击即可加入

一、工具及环境准备

Pycharm Python3.7.3

二、网页分析

打开猫眼电影官网,发现猫眼电影在电脑网页上看不了很多的评论,于是小编打开开发者模式(按F12),并将其切换到手机端模拟状态。就是下面这个样子: 在这里插入图片描述 然后,点击柯南的那一栏直到出现评论: 在这里插入图片描述 之后小编就在想,前后端数据的传输肯定是以json格式传输,于是小编就在过滤器那里输入json过滤出json数据,额,,,发现什么都没有,有点尴尬: 在这里插入图片描述 不过别急,等我往下滑就出来了: 在这里插入图片描述 这样,相关的json数据就出来了,然后我们双击看一下是不是我们想要的评论:(密集恐惧者慎入) 在这里插入图片描述 接下来我们继续分析json数据接口url的特点和json格式数据中评论所在的地方,分析发现url的前面都是这样: 在这里插入图片描述 而变化的是后面的offset和ts,而且offset是从0开始之后每个增加15来开始增加的,而后面的ts则是一个长达13位的数据,不过如果对数字十分敏感的同学来说,1568854570326则是当前时间的毫秒级显示: 在这里插入图片描述 也就是说,这里传入的ts参数就是当前的时间戳,而小编也发现offset每次以15的数量增加,是因为每个json文件里对应15条评论。知道这些就好办了,接下来就是show time。

三、代码编写

总体思路:通过python构造对应的json文件的url,然后通过requests库的request.get方法向json文件的url发出请求从而获得对应的json文件数据,接下来就是对json文件数据的解析,获取我们所需要的评论,然后将评论存到一个.txt文件中,这样就完成了对评论数据的爬取了。代码如下:

import requests
import time
import json
import random
import codecs

# 伪装成浏览器
my_headers = {
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0;Win64; x64) '
                 'AppleWebKit/537.6 (KHTML),like Gecko Chrome/61.0.3613.00 '
                 'Safari/537.36',
    'Referer':'http://m.maoyan.com/movie/1258394/comments?_v_=yes'
}

def requestURL():
    baseUrl = 'http://m.maoyan.com/review/v2/comments.json'
    off = 0
    time_now = (int)(round(time.time()*1000))
    for i in range(400):
        parame = {
                'movieId':'1258394',
                'userId':'-1',
                'offset':off,
                'limit':'15',
                'ts':time_now,
                'type':'3'
            }
        off+=15
        r = requests.get(baseUrl,params=parame,headers=my_headers,timeout=5)
        if r.status_code==200:
            data = json.loads(r.text)
            commentList = data['data']['comments']
            time_now = (int)(round(time.time()*1000))
            writeToFile(commentList,off)
            time.sleep(random.random())
        else:
            print(r.status_code)

def writeToFile(comments,off):
    fileName = '电影评论.txt'
    with codecs.open(fileName,'a+',encoding='utf-8') as f:
        for contain in comments:
            f.write(str(contain['content'])+'\n')
    f.close()
    print("已经爬取",off,"条数据")


if __name__=='__main__':
    requestURL()

爬取过程: 在这里插入图片描述 爬取结果: 在这里插入图片描述 四、对评论进行数据分析

代码如下:

import numpy as np
from wordcloud import  WordCloud
import PIL.Image as image
import codecs

if __name__=='__main__':
    with codecs.open("电影评论.txt",encoding='utf-8') as fp:
        text = fp.read()
        mask = np.array(image.open("柯南.jpg"))
        wordcloud = WordCloud(mask=mask,background_color='white').generate(text)
        wordcloud.to_file('词云柯南.jpg')

在这里插入图片描述 .

关注
打赏
1663681728
查看更多评论
立即登录/注册

微信扫码登录

0.0498s