您当前的位置: 首页 > 
  • 0浏览

    0关注

    2393博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文

Crawler:基于BeautifulSoup库+requests库实现爬取2018最新电影《后来的我们》热门短评

一个处女座的程序猿 发布时间:2018-04-30 20:55:24 ,浏览量:0

Crawler:基于BeautifulSoup库+requests库实现爬取2018最新电影《后来的我们》热门短评

 

目录

输出结果

实现代码

 

 

输出结果

 

实现代码
# -*- coding: utf-8 -*-

#Py之Crawler:利用BeautifulSoup库实现爬取2018最新电影《后来的我们》热门短评
import time
import requests
import csv
from bs4 import BeautifulSoup
head = 'https://movie.douban.com/subject/'
middle = '/comments?start='
zr_tail = '&limit=20&sort=new_score&status=P&percent_type='
names = []
header = {
   'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36 SE 2.X MetaSr 1.0'
}

zr_urls = ['最热'] 
def createUrls(): 
   for j in range(1, 34, 2): 
       name = names[j]
       #print(name)
       for i in range(0, 100, 20):
           zr_urls.append(head + str(name) + middle + str(i) + zr_tail) 
           #print(zr_urls)得到某个电影短评地址(默认最热排序),如https://movie.douban.com/subject/27063335/comments?start=0&limit=20&sort=new_score&status=P&percent_type=

def readName(): 
   with open('爬取电影名称.txt', mode='r', encoding='utf-8') as f:
       for i in f.readlines():
           i = i.strip('\n')
           names.append(i)
           #print(names)  
readName()
createUrls()
get_comments(zr_urls)  #传入zr_urls

完整代码,后续一周内即将公布!

相关文章:Py之PIL:不一样的PS之利用PIL库的img.paste方法实现合成刘若英导演电影《后来的我们》海报设计

 

 

 

关注
打赏
1664196048
查看更多评论
立即登录/注册

微信扫码登录

0.0482s