吴京近年拍的影视都是非常富有国家情怀的,大人小孩都爱看,每次都是票房新高,最新的长津湖两部曲大家都有看吗,第一步还可以,第二部水门桥也不差,截止目前已经36.72亿票房。

某眼评分9.6,某瓣评分7.2。2月每日票房基本每天第一,但是它为什么好看呢?让我们用python来看看,看过的人都在说什么~

一、准备工作

爬虫部分需要使用这几个模块

requests

parsel

csv

 

前面两个需要安装,键盘上按 win+r 打开运行框,输入 cmd 然后确定,然后输入 pip install 模块名,回车即可安装。

二、代码

代码仅供参考,我就不一一分析,录了一个十分钟的视频讲解,不会的兄弟可以跟着视频学习。

视频地址:【Python案例合集】十分钟速成一个,就是这么效率!更多案例持续更新...

 

这也是一个视频合集,正在慢慢更新,大家可以三连一下~

爬虫代码

import csv

import requests

import parsel

# Python学习交流群:924040232

headers = {

'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/98.0.4758.102 Safari/537.36'

}

for page in range(1, 20):

url = f'...../subject/35613853/comments?start={page*20}&limit=20&status=P&sort=new_score'

data_html = requests.get(url=url, headers=headers).text

selector = parsel.Selector(data_html)

comment_list = selector.css('.comment-item')

for comment in comment_list:

short = comment.css('.short::text').get().strip()

name = comment.css('.comment-info a::text').get().strip()

time = comment.css('.comment-time::text').get().strip()

vote_count = comment.css('.votes.vote-count::text').get().strip()

print(short, name, time, vote_count)

with open('长津湖.csv', mode='a', encoding='utf-8', newline='') as f:

csv_writer = csv.writer(f)

csv_writer.writerow([short, name, time, vote_count])

 

 

词云图代码

import jieba

from pyecharts.charts import WordCloud

import pandas as pd

from pyecharts import options as opts

wordlist = []

data = pd.read_csv('长津湖.csv', encoding='utf-8')['short']

data

data_list = data.values.tolist()

data_str = ' '.join(data_list)

words = jieba.lcut(data_str)

#取出除每一个单词

for word in words:

#去除小于2个字的词

if len(word) > 1:

#数据的添加,

wordlist.append({"word":word,"count":1})

#wordlist为列表类型,元素为字典类型[{"word":发展,"count":1},...,...,]

df = pd.DataFrame(wordlist)

# 以word的值作为关键词分组,再统计每组的(count)的总数sum

#groupby DataFrame中的分组函数

dfword = df.groupby('word')['count'].sum()

# sort_values以列的值排序,ascending为false时降序排序

dfword2 = dfword.sort_values(ascending=False)

#将dfword2 的前100数据转为DataFrame。

dfword3 = pd.DataFrame(dfword2.head(100),columns=['count'])

# 此时列”word“是作为列索引,可将其转为列

dfword3['word'] = dfword3.index

#将word列转为列表

word = dfword3['word'].tolist()

#将count列转为列表

count = dfword3['count'].tolist()

#用for循环合并数据

a = [list(z) for z in zip(word,count)]

c = (

#WordCloud类的实列化

WordCloud()

#添加图名称、数据、字体的随机大小、图像类型 ,mask_image="demo.png"

# 词云图轮廓,有 'circle', 'cardioid', 'diamond', 'triangle-forward', 'triangle', 'pentagon', 'star' 可选

.add("", a, word_size_range=[20, 100],shape='circle')

#图像的具体设置也可以再全局设置中设置,其中还有一些好玩的设置,这里就不在深入了

.set_global_opts(title_opts=opts.TitleOpts(title="词云图"))

)

#在jupyter上显示

c.render_notebook()

 

兄弟们快去试试吧,有什么问题欢迎三连后在评论区交流~

参考阅读

评论可见,请评论后查看内容,谢谢!!!评论后请刷新页面。