一、准备一下

开发环境

Pycharm

python 3.8

ffmpeg

模块的使用

requests

re

subprocess

二、基本思路流程

1、明确需求

采集下破站视频数据通过开发者工具进行抓包分析,分析破站视频数据的来源。

开发者工具的使用

打开方式:

鼠标右键点击检查选择Network

F12

ctrl + shift + i

想要开发者工具中有数据加载, 需要 刷新网页。

通过元素(Element)面板,我们能查看到想抓取页面渲染内容所在的标签、使用什么 CSS 属性(例如:class=“middle”)等内容。例如我想要抓取我知乎主页中的动态标题,在网页页面所在处上右击鼠标,选择“检查”,可进入 Chrome 开发者工具的元素面板。

网络(Network)面板记录页面上每个网络操作的相关信息,包括详细的耗时数据、HTTP 请求与响应标头和 Cookie,等等。这就是我们通常说的抓包。

Requests Table参数:

all:所有请求数据(图片、视频、音频、js代码、css代码)

XHR:XMLHttpRequest 的缩写,是ajax技术的核心,动态加载完成经常分析的一个内容

CSS: css样式文件

JS:JavaScript文件,js解密是常分析的一个页面

Img: Images 图片文件

Font: 字体文件(字体反扒)

DOC : Document,文档内容

WS: WebSocket,web端的socket数据通信,一般用于一些实时更新的数据

Requests详情:

请求头

Headers 是显示 HTTP 请求的 Headers,我们通过这个能看到请求的方式,以及携带的请求参数等。

General

Request url :实际请求的网址

Request Method: 请求方法

Status Code: 状态码,成功时为 200

Response Headers

服务器返回时设置的一些数据,例如服务器更新的cookie数据最新是在这里出现修改。

Requests Headers

请求体,请求不到数据的原因一般出在这里,反扒也是反扒请求体里面的数据。

Accept:服务器接收的数据格式(一般忽略)

Accept-Encoding: 服务器接收的编码(一般忽略)

Accept-Language: 服务器接收的语言(一般忽略)

Connection: 保持连接(一般忽略)

Cookies: cookies信息,是身份信息,爬取VIP资源是需要携带身份信息。

Host: 请求的主机地址

User-Agent: 用户身份代理,服务器根据这个判断用户的大概信息。

Sec-xxx-xxx: 其他信息,可能没用,可能是反扒,具体情况具体分析。

预览

Preview 是请求结果的预览。一般用来查看请求到的图片,对于抓取图片网站比较给力。

响应体

Response 是请求返回的结果。一般的内容是整个网站的源代码。如果该请求是异步请求,返回的结果内容一般是 Json 文本数据。

此数据与浏览器展示的网页可能不一致,因为浏览器是动态加载的。

2、数据来源分析

所以可以根据里面的参数在开发者工具里面进行搜索

通过结果可得 playurl 就是我们想要的数据

既然我们知道了, 数据的来源, 接下来就要分析, 这个数据包url中有那些参数是我们需要去找寻分析的…

因为我们这个只是找到一个B站视频的数据, 如果想要获取多个那肯定是需要分析的。

通过请求参数对比, 我们现在所需要找的参数就是 cid , bvid , session

同样可以直接在开发者工具里面搜索 这些参数来源 bvid 就是B站视频对应的ID

**cid / session 在网页源代码里面就可以获取的 **

3、总结

通过以上分析可得:

首先获取 cid session 这两个参数, 顺带在获取视频标题

把cid session 以及 bv号 传入数据包内

最后再获取 音频数据 以及 视频画面数据

三、代码实现步骤

可以发现, 关于python爬虫的流程思路分析, 所涉及的知识点还是比较多的。

发送请求, 对于视频详情页url地址发送请求

获取数据, 获取响应体的文本数据 response.text

解析数据, 通过正则表达式提取数据内容: 视频标题 cid session

发送请求, 对于视频内容数据包url发送请求

获取数据, 获取响应体的json字典数据 response.json()

解析数据, 通过字典键值对取值, 提取音频url 视频url

保存数据, 对于音频url 视频url发送请求 获取响应体二进制数据 response.content

合成数据, 把音频内容以及视频画面内容合成为一个完整的mp4文件

四、代码实现

1、发送请求

import requests

import re

import subprocess

headers = {

'referer': 'https://www.bilibili.com',

'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/93.0.4577.82 Safari/537.36',

}

def get_response(html_url):

"""发送请求"""

# 完整源码+视频讲解 都放在这个扣裙了 708525271

response = requests.get(url=html_url, headers=headers)

return response

 

2、获取视频标题/cid/session

def get_video_info(html_url):

"""获取 cid session 视频标题"""

response = get_response(html_url)

cid = re.findall('"cid":(\d+),', response.text)[0]

session = re.findall('"session":"(.*?)"', response.text)[0]

title = re.findall('

', response.text)[0].replace(' ', '')

video_info = [cid, session, title]

return video_info

 

3、获取音频url/视频url

def get_video_content(cid, session, bvid):

"""获取音频内容以及视频内容"""

index_url = 'https://api.bilibili.com/x/player/playurl'

data = {

'cid': cid,

'qn': '80',

'type': '',

'otype': 'json',

'fourk': '1',

'bvid': bvid,

'fnver': '0',

'fnval': '976',

'session': session,

}

json_data = requests.get(url=index_url, params=data, headers=headers).json()

audio_url = json_data['data']['dash']['audio'][0]['baseUrl']

video_url = json_data['data']['dash']['video'][0]['baseUrl']

video_content = [audio_url, video_url]

return video_content

 

4、保存数据

def save(name, audio_url, video_url):

"""保存数据"""

audio_content = get_response(audio_url).content

video_content = get_response(video_url).content

with open(name + '.mp3', mode='wb') as a:

a.write(audio_content)

with open(name + '.mp4', mode='wb') as v:

v.write(video_content)

print(name, '保存成功')

 

5、合成视频

def merge_data(video_name):

"""数据的合并"""

print('视频合成开始:', video_name)

cmd = f"ffmpeg -i {video_name}.mp4 -i {video_name}.mp3 -c:v copy -c:a aac -strict experimental {video_name}output.mp4"

# print(cmd)

subprocess.run(cmd, shell=True)

print('视频合成结束:', video_name)

 

好了,今天的分享就到这结束了,咱们下次见!

查看原文