1. 程式人生 > 程式設計 >Python常見反爬蟲機制解決方案

Python常見反爬蟲機制解決方案

1、使用代理

適用情況:限制IP地址情況,也可解決由於“頻繁點選”而需要輸入驗證碼登陸的情況。

這種情況最好的辦法就是維護一個代理IP池,網上有很多免費的代理IP,良莠不齊,可以通過篩選找到能用的。對於“頻繁點選”的情況,我們還可以通過限制爬蟲訪問網站的頻率來避免被網站禁掉。

proxies = {'http':'http://XX.XX.XX.XX:XXXX'}
Requests:
 import requests
 response = requests.get(url=url,proxies=proxies)
Urllib2:
 import urllib2
 proxy_support = urllib2.ProxyHandler(proxies)
 opener = urllib2.build_opener(proxy_support,urllib2.HTTPHandler)
 urllib2.install_opener(opener) # 安裝opener,此後呼叫urlopen()時都會使用安裝過的opener物件
 response = urllib2.urlopen(url)

2、時間設定

適用情況:限制頻率情況。

Requests,Urllib2都可以使用time庫的sleep()函式:

import time
time.sleep(1)

3、偽裝成瀏覽器,或者反“反盜鏈”

有些網站會檢查你是不是真的瀏覽器訪問,還是機器自動訪問的。這種情況,加上User-Agent,表明你是瀏覽器訪問即可。有時還

會檢查是否帶Referer資訊還會檢查你的Referer是否合法,一般再加上Referer。

headers = {'User-Agent':'XXXXX'} # 偽裝成瀏覽器訪問,適用於拒絕爬蟲的網站
headers = {'Referer':'XXXXX'}
headers = {'User-Agent':'XXXXX','Referer':'XXXXX'}
Requests:
 response = requests.get(url=url,headers=headers)
Urllib2:
 import urllib,urllib2  
 req = urllib2.Request(url=url,headers=headers)
 response = urllib2.urlopen(req)

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支援我們。