国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

Python開發中爬蟲使用代理proxy抓取網頁的方法示例

2020-02-16 10:18:29
字體:
來源:轉載
供稿:網友

本文實例講述了Python開發中爬蟲使用代理proxy抓取網頁的方法。分享給大家供大家參考,具體如下:

代理類型(proxy):透明代理 匿名代理 混淆代理和高匿代理. 這里寫一些python爬蟲使用代理的知識, 還有一個代理池的類. 方便大家應對工作中各種復雜的抓取問題。

urllib 模塊使用代理

urllib/urllib2使用代理比較麻煩, 需要先構建一個ProxyHandler的類, 隨后將該類用于構建網頁打開的opener的類,再在request中安裝該opener.

代理格式是"http://127.0.0.1:80",如果要賬號密碼是"http://user:password@127.0.0.1:80".

proxy="http://127.0.0.1:80"# 創建一個ProxyHandler對象proxy_support=urllib.request.ProxyHandler({'http':proxy})# 創建一個opener對象opener = urllib.request.build_opener(proxy_support)# 給request裝載openerurllib.request.install_opener(opener)# 打開一個urlr = urllib.request.urlopen('http://youtube.com',timeout = 120)

requests 模塊 使用代理

requests使用代理要比urllib簡單多了…這里以單次代理為例. 多次的話可以用session一類構建.

如果需要使用代理,你可以通過為任意請求方法提供 proxies 參數來配置單個請求:

import requestsproxies = { "http": "http://127.0.0.1:3128", "https": "http://127.0.0.1:2080",}r=requests.get("http://youtube.com", proxies=proxies)print r.text

你也可以通過環境變量 HTTP_PROXY 和 HTTPS_PROXY 來配置代理。

export HTTP_PROXY="http://127.0.0.1:3128"export HTTPS_PROXY="http://127.0.0.1:2080"python>>> import requests>>> r=requests.get("http://youtube.com")>>> print r.text

若你的代理需要使用HTTP Basic Auth,可以使用 http://user:password@host/ 語法:

proxies = {  "http": "http://user:pass@127.0.0.1:3309/",}

python的代理使用非常簡單, 最重要的是要找一個網絡穩定可靠的代理。

更多關于Python相關內容可查看本站專題:《Python Socket編程技巧總結》、《Python數據結構與算法教程》、《Python函數使用技巧總結》、《Python字符串操作技巧匯總》、《Python入門與進階經典教程》及《Python文件與目錄操作技巧匯總》

希望本文所述對大家Python程序設計有所幫助。

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 山东省| 海丰县| 丹寨县| 嘉鱼县| 西丰县| 军事| 河东区| 阳西县| 于都县| 禹州市| 旺苍县| 巴彦县| 伊宁县| 垫江县| 襄樊市| 杭锦后旗| 庄河市| 泉州市| 长宁区| 益阳市| 温泉县| 丹棱县| 通州市| 丹寨县| 阿城市| 忻城县| 卢湾区| 新余市| 柳河县| 凤城市| 渭南市| 石楼县| 万荣县| 巴彦淖尔市| 溧水县| 鸡东县| 岳西县| 大理市| 吉隆县| 会东县| 大宁县|