在Python爬虫中设置代理IP可以通过使用第三方库如requests或urllib库来实现。以下是一个使用requests库设置代理IP的示例代码:
import requests# 设置代理IPproxies = {'http': 'http://IP:端口','https': 'https://IP:端口',}# 发送请求时使用代理IPresponse = requests.get('https://www.example.com', proxies=proxies)# 打印响应内容print(response.text)在上面的代码中,将IP和端口替换为你的代理IP和端口号。注意,http和https分别对应HTTP和HTTPS请求的代理设置。
如果你的代理IP需要身份验证,可以在代理IP的后面加上用户名和密码,如下所示:
import requests# 设置代理IPproxies = {'http': 'http://用户名:密码@IP:端口','https': 'https://用户名:密码@IP:端口',}# 发送请求时使用代理IPresponse = requests.get('https://www.example.com', proxies=proxies)# 打印响应内容print(response.text)同样,将用户名、密码、IP和端口替换为你的代理IP的相关信息。
另外,如果你需要使用多个代理IP,可以使用代理IP池来实现。代理IP池是一个存储多个代理IP的容器,你可以从中随机选择一个代理IP并设置为请求的代理。以下是一个简单的示例代码:
import randomimport requests# 代理IP池proxies = ['http://IP1:端口1','http://IP2:端口2','http://IP3:端口3',]# 随机选择一个代理IPproxy = random.choice(proxies)# 发送请求时使用代理IPresponse = requests.get('https://www.example.com', proxies={'http': proxy})# 打印响应内容print(response.text)在上面的代码中,proxies是一个代理IP池,你可以在其中添加多个代理IP。然后,使用random.choice函数从代理IP池中随机选择一个代理IP并设置为请求的代理。注意,这里只设置了HTTP请求的代理,如果你需要同时设置HTTPS请求的代理,需要在proxies中添加对应的代理信息。