Python學習筆記__12.9章 urlib
1、概覽
urllib提供了一系列用於操作URL的功能。
urllib中包括了四個模塊,包括
urllib.request:可以用來發送request和獲取request的結果
urllib.error:包含了urllib.request產生的異常
urllib.parse:用來解析和處理URL
urllib.robotparse:用來解析頁面的robots.txt文件
1.1、urllib.request
urllib的request模塊可以非常方便地抓取URL內容。
它會先發送一個GET請求到指定的頁面,然後返回HTTP的響應:
1)對豆瓣的一個URL進行抓取,並返回響應
from urllib import request
# request模塊調用urlopen方法打開網址
with request.urlopen('https://api.douban.com/v2/book/2129650') as f:
data = f.read() #返回的網頁內容
print('Status:', f.status, f.reason)
for k, v in f.getheaders():
print('%s: %s' % (k, v))
print('Data:', data.decode('utf-8')
2)模擬iPhone 6去請求豆瓣首頁
模擬瀏覽器發送GET請求,使用Request對象。通過往Request對象添加HTTP頭,我們就可以把請求偽裝成各種瀏覽器
from urllib import request
req = request.Request('http://www.douban.com/') #創建了一個Request對象 req是類
# 添加請求的頭信息
req.add_header('User-Agent', 'Mozilla/6.0 (iPhone; CPU iPhone OS 8_0 like Mac OS X) AppleWebKit/536.26 (KHTML, like Gecko) Version/8.0 Mobile/10A5376e Safari/8536.25')
with request.urlopen(req) as f: #將Request對象作為url傳入
print('Status:', f.status, f.reason)
for k, v in f.getheaders():
print('%s: %s' % (k, v))
print('Data:', f.read().decode('utf-8'))
1.2、Post
如果要以POST發送一個請求,只需要把參數data以bytes形式傳入。
1)我們模擬一個微博登錄,先讀取登錄的郵箱和口令,然後按照weibo.cn的登錄頁的格式以username=xxx&password=xxx的編碼傳入
from urllib import request, parse
print('Login to weibo.cn...')
email = input('Email: ')
passwd = input('Password: ')
login_data = parse.urlencode([ # 用parse的urlencode方法,對要傳過去的數據進行編碼
('username', email),
('password', passwd),
('entry', 'mweibo'),
('client_id', ''),
('savestate', '1'),
('ec', ''),
('pagerefer', 'https://passport.weibo.cn/signin/welcome?entry=mweibo&r=http%3A%2F%2Fm.weibo.cn%2F')
])
req = request.Request('https://passport.weibo.cn/sso/login') # 創建Request 對象
req.add_header('Origin', 'https://passport.weibo.cn')
req.add_header('User-Agent', 'Mozilla/6.0 (iPhone; CPU iPhone OS 8_0 like Mac OS X) AppleWebKit/536.26 (KHTML, like Gecko) Version/8.0 Mobile/10A5376e Safari/8536.25')
req.add_header('Referer', 'https://passport.weibo.cn/signin/login?entry=mweibo&res=wel&wm=3349&r=http%3A%2F%2Fm.weibo.cn%2F')
with request.urlopen(req, data=login_data.encode('utf-8')) as f: #data用來指明發往服務器請求中的額外的信息
print('Status:', f.status, f.reason)
for k, v in f.getheaders():
print('%s: %s' % (k, v))
print('Data:', f.read().decode('utf-8'))
1.3、Header
1)如果還需要更復雜的控制,比如通過一個Proxy去訪問網站,我們需要利用ProxyHandler來處理
proxy_handler = urllib.request.ProxyHandler({'http': 'http://www.example.com:3128/'}) #創建代理
proxy_auth_handler = urllib.request.ProxyBasicAuthHandler() #設置基礎認證管理,用代理處理身份認證
# relam:代理的範圍,'host':代理url,
# 用一個使用編程提供的代理url(’host‘)替換默認的ProxyHandler
proxy_auth_handler.add_password('realm', 'host', 'username', 'password')
opener = urllib.request.build_opener(proxy_handler, proxy_auth_handler) # 返回一個 OpenerDirector 實例
with opener.open('http://www.example.com/login.html') as f: # 訪問網址
pass
1.4、小結
urllib提供的功能就是利用程序去執行各種HTTP請求。如果要模擬瀏覽器完成特定功能,需要把請求偽裝成瀏覽器。偽裝的方法是先監控瀏覽器發出的請求,再根據瀏覽器的請求頭來偽裝,User-Agent頭就是用來標識瀏覽器的。
1.5、擴展文檔
python3網絡爬蟲一《使用urllib.request發送請求》 (https://blog.csdn.net/bo_mask/article/details/76067790)
Python中urlopen()介紹 (https://www.cnblogs.com/zyq-blog/p/5606760.html)
python 爬蟲之為什麽使用opener對象以及為什麽要創建全局默認的opener對象 (https://www.cnblogs.com/cunyusup/p/7341829.html)
2、例子
1、利用urllib讀取JSON,然後將JSON解析為Python對象:
# -*- coding: utf-8 -*-
from urllib import request
import json
def fetch_data(url):
with request.urlopen(url) as f:
data = json.loads(f.read().decode('utf-8')) #將讀到的網頁內容解碼,再由json.loads()反序列化為Python對象
return data
# 測試
URL = 'https://query.yahooapis.com/v1/public/yql?q=select%20*%20from%20weather.forecast%20where%20woeid%20%3D%202151330&format=json'
data = fetch_data(URL)
print(data)
assert data['query']['results']['channel']['location']['city'] == 'Beijing'
print('ok')
Python學習筆記__12.9章 urlib