为什么使用ip代理

我们写爬虫程序,爬多了或者请求爬取数据快了,服务器就会拒绝访问,同时一个IP多次快速请求,网站会把你IP封掉,这时候 要么等一段时间,要么换IP。

基本思路

1.数据来源分析找我们想要数据内容, 从哪里来的

2.发送请求对于目标网址发送请求 https://www.kuaidaili.com/free/

3.获取数据获取服务器返回响应数据(网页源代码)

4.解析数据提取我们想要的数据内容

5.保存数据爬音乐 视频 本地csv 数据库… IP检测, 检测IP代理是否可用 可用用IP代理 保存

#兄弟们学习python,有时候不知道怎么学,从哪里开始学。掌握了基本的一些语法或者做了两个案例后,不知道下一步怎么走,不知道如何去学习更加高深的知识。

#那么对于这些大兄弟们,我准备了大量的免费视频教程,PDF电子书籍,以及视频源的源代码!

#还会有大佬解答!

#都在这个群里了 924040232

#欢迎加入,一起讨论 一起学习!

 

代码展示

模块拓展

requests 是数据请求模块,属于第三方模块,安装方法 pip install requests

re 是正则表达式模块,属于内置模块,不需要安装;

parsel 是数据解析模块,属于第三方模块,这个是scrapy框架核心组件,安装方法 pip install parsel

from 从import 导入从 什么模块里面 导入 什么方法from xxx import * 导入所有方法

全部代码

import requests

import re

import parsel

flis = []

lis_1 = []

for page in range(11, 21):

url = f'https://www.kuaidaili.com/free/inha/{page}/' # 确定请求url地址

# 用requests模块里面get 方法 对于url地址发送请求, 最后用response变量接收返回数据

response = requests.get(url)

# xpath 提取数据

selector = parsel.Selector(response.text) # 把html 字符串数据转成 selector 对象

ip_list = selector.xpath('//*[@id="list"]/table/tbody/tr/td[1]/text()').getall()

port_list = selector.xpath('//*[@id="list"]/table/tbody/tr/td[2]/text()').getall()

for ip, port in zip(ip_list, port_list):

proxy = ip + ':' + port

proxies_dict = {

"http": "http://" + proxy,

"https": "http://" + proxy,

}

lis.append(proxies_dict)

try:

response = requests.get(url=url, proxies=proxies_dict, timeout=1)

if response.status_code == 200:

print('当前代理IP: ', proxies_dict, '可以使用')

lis_1.append(proxies_dict)

except:

print('当前代理IP: ', proxies_dict, '请求超时, 检测不合格')

print('获取的代理IP数量: ', len(lis))

print('获取可用的IP代理数量: ', len(lis_1))

print('获取可用的IP代理: ', lis_1)

dit = {

'http': 'http://110.189.152.86:40698',

'https': 'http://110.189.152.86:40698'

}

 

视频展示

视频都有详细讲解,初学者文章看不太明白,可以看视频学习哈~

视频地址:爬虫必备技能:一招解决访问网站ip受限问题

 

 

精彩内容

评论可见,请评论后查看内容,谢谢!!!评论后请刷新页面。