详解Python爬虫使用代理proxy抓取网页方法

代理类型(proxy):透明代理 匿名代理 混淆代理和高匿代理. 这里写一些python爬虫使用代理的知识, 还有一个代理池的类. 方便大家应对工作中各种复杂的抓取问题。

urllib 模块使用代理

urllib/urllib2使用代理比较麻烦, 需要先构建一个ProxyHandler的类, 随后将该类用于构建网页打开的opener的类,再在request中安装该opener.

代理格式是”http://127.0.0.1:80″,如果要账号密码是”http://user:password@127.0.0.1:80″.

proxy="http://127.0.0.1:80"# 创建一个ProxyHandler对象proxy_support=urllib.request.ProxyHandler({'http':proxy})# 创建一个opener对象opener = urllib.request.build_opener(proxy_support)# 给request装载openerurllib.request.install_opener(opener)# 打开一个urlr = urllib.request.urlopen('http://youtube.com',timeout = 500)

登录后复制

requests 模块 使用代理

requests使用代理要比urllib简单多了…这里以单次代理为例. 多次的话可以用session一类构建.

如果需要使用代理,你可以通过为任意请求方法提供 proxies 参数来配置单个请求:

立即学习“Python免费学习笔记(深入)”;

import requestsproxies = {  "http": "http://127.0.0.1:3128",  "https": "http://127.0.0.1:2080",}r=requests.get("http://youtube.com", proxies=proxies)print r.text

登录后复制

你也可以通过环境变量 HTTP_PROXY 和 HTTPS_PROXY 来配置代理。

export HTTP_PROXY="http://127.0.0.1:3128"export HTTPS_PROXY="http://127.0.0.1:2080"python>>> import requests>>> r=requests.get("http://youtube.com")>>> print r.text

登录后复制

若你的代理需要使用HTTP Basic Auth,可以使用 http://user:password@host/ 语法:

proxies = {    "http": "http://user:pass@127.0.0.1:3128/",}

登录后复制

python的代理使用非常简单, 最重要的是要找一个网络稳定可靠的代理,有问题欢迎留言提问

以上就是详解Python爬虫使用代理proxy抓取网页方法的详细内容,更多请关注【创想鸟】其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至253000106@qq.com举报,一经查实,本站将立刻删除。

发布者:PHP中文网,转转请注明出处:https://www.chuangxiangniao.com/p/2276284.html

(0)
上一篇 2025年2月27日 15:05:48
下一篇 2025年2月22日 13:48:58

AD推荐 黄金广告位招租... 更多推荐

发表回复

登录后才能评论