1. 程式人生 > >爬蟲(cookie,代理IP)

爬蟲(cookie,代理IP)

1.先登入得到url 和cookie

import urllib.request

url="https:***"
headers={
    "Host           ":"blog.csdn.net" ,
    "Connection     ":"keep-alive" ,
    # "Cache-Control  ":"max-age=0" ,
    "User-Agent     ":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36" ,
    "Accept         ":"text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8" ,
    "Referer        ":"https :****" ,
    "Accept-Language":"zh-CN,zh;q=0.9" ,
    "Cookie         ":"*******"

}
request=urllib.request.Request(url,headers=headers)
response=urllib.request.urlopen(request)
html=response.read()
html=html.decode('utf-8')
print(html)

2.opener 是urllib2.OpenerDirector的例項,我們之前一直都在使用的urlopen,它是一個特殊的opener(也就是模組幫我們構建好的).

但是基本的urlopen()方法不支援代理,cookie等其他的HTTP/HTTPS高階功能.所以要支援這些功能

  • 使用相關的Handler處理器,建立特定功能的處理物件
  • 然後通過urllib.request.build_opener()的方法使用這些處理器物件,建立自定義opener物件
  • 使用自定義的opener物件,呼叫open()方法傳送請求

如果程式裡所有的請求都是用自定義的opener,可以使用urllib.request.install_opener()將自定義的opener物件定義為全域性,表示如果之後凡是呼叫urlopen,都將使用opener()根據需求來選擇

開放代理與私密代理的使用

import urllib.request

#代理開關
from urllib.request import ProxyHandler

proxyswitch=True

#構建一個Handler處理物件,引數是一個字典型別,包括代理型別和代理伺服器IP+PROT
httpproxy_handler=ProxyHandler({"http":"****"})
#獨享私密代理
# httpproxy_handler=ProxyHandler({"http":"使用者名稱:密碼@114.215.95.188:埠號"})

#構建了一個沒有代理的處理物件
nullproxy_handler=ProxyHandler({})

if proxyswitch:
    opener=urllib.request.build_opener(httpproxy_handler)
else:
    opener=urllib.request.build_opener(nullproxy_handler)

#構建一個全域性的opener,之後的所有請求都可以用urlopen()方式去傳送,也附帶handler的功能
urllib.request.install_opener(opener)
request=urllib.request.Request('http://www.baidu.com/')
response=urllib.request.urlopen(request)
html=response.read()


print(html)