1. 程式人生 > >urllib.request.urlopen()用法

urllib.request.urlopen()用法

  • 請求模組定義了以下功能:
    urllib.request.urlopen(url, data=None, [timeout, ]*, cafile=None, capath=None, cadefault=False, context=None) 
    Open the URL url, which can be either a string or a Request object.
    開啟URL URL,它可以是字串或請求物件。
    data must be an object specifying additional data to be sent to the server, or None if no such data is needed. See Request for details.
    資料必須是指定要傳送到伺服器的附加資料的物件,否則不需要這些資料。
    有關詳細資訊,請參閱請求。
    urllib.request module uses HTTP/1.1 and includes Connection:close header in its HTTP requests.
    urllib。
    請求模組使用HTTP/1.1幷包括連線:在其HTTP請求中關閉頭部。 The optional timeout parameter specifies a timeout in seconds for blocking operations like the connection attempt (if not specified, the global default timeout setting will be used). This actually only works for HTTP, HTTPS and FTP connections. 可選的timeout引數指定了阻塞操作(如未指定的全域性預設超時設定)的秒數。
    這實際上只適用於HTTP、HTTPS和FTP連線。 If context is specified, it must be a ssl.SSLContext instance describing the various SSL options. See HTTPSConnection for more details. 如果指定了上下文,它必須是一個ssl。描述各種SSL選項的SSLContext例項。有關更多細節,請參見HTTPSConnection。 The optional cafile and capath parameters specify a set of trusted CA certificates for HTTPS requests. cafile should point to a single file containing a bundle of CA certificates, whereas capath should point to a directory of hashed certificate files. More information can be found in ssl.SSLContext.load_verify_locations(). 可選的cafile和capath引數為HTTPS請求指定了一組受信任的CA證書。 cafile應該指向包含一個CA證書包的單個檔案,而capath應該指向一個雜湊證書檔案的目錄。 在ssl.sslcontext.load_verify_location()中可以找到更多的資訊。 The cadefault parameter is ignored. cadefault引數被忽略。
  • This function always returns an object which can work as a context manager and has methods such as
  • 該函式始終返回一個物件,該物件可以作為上下文管理器工作,並具有諸如此類的方法。
geturl() � return the URL of the resource retrieved, commonly used to determine if a redirect was followed 
geturl()�返回的URL資源檢索,常用來確定一個重定向之後
info() � return the meta-information of the page, such as headers, in the form of an email.message_from_string() instance (see Quick Reference to HTTP Headers) 
info()�返回頁面的元資訊,如標題,的形式email.message_from_string()例項(參見快速參考HTTP頭)
getcode() � return the HTTP status code of the response. 
getcode()�返回響應的HTTP狀態程式碼。參考HTTP頭)


相關推薦

urllib.request.urlopen()用法

請求模組定義了以下功能: urllib.request.urlopen(url, data=None, [timeout, ]*, cafile=None, capath=None, cadefault=False, context=None) Open the UR

Python 3.6模組學習urlliburllib.request.urlopen()函式學習

urllib提供了一系列用於操作URL的功能。包含urllib.request,urllib.error,urllib.parse,urllib.robotparser四個子模組。 官網資料如下:

Python urllib Request 用法

name 首頁 tis detail tar 字符串 tty log down 轉載自:https://blog.csdn.net/ywy0ywy/article/details/52733839 python2.7 httplib, urllib, urllib2, r

python3 urllib.request.Request用法

import urllib.request import urllib.parse url = 'http://127.0.0.1:8000/api/login/' headers = {'User-

urllib.request模板的高階用法

一 urllib.request的各種Handler Handler簡而言之,我們可以把它理解為各種處理器,有專門處理登入驗證的,有處理Cookies的,有處理代理設定的。利用它們,我們幾乎可以做到HTTP請求中所有的事情。 首先,介紹一下urllib.request模組裡的B

python2 與 python3 中 request (urlopen) 的用法

此處以 python2.7 和 python3.5 為例,對於其他 2.x 和 3.x 的版本也奏效。 在 python2.7中,urlopen 是在 urllib2 下面的。 示例程式碼如下: 在 python3.5 中,urlopen 是在 url

通過python的urllib.request庫來爬取一只貓

com cat alt cnblogs write amazon 技術分享 color lac 我們實驗的網站很簡單,就是一個關於貓的圖片的網站:http://placekitten.com 代碼如下: import urllib.request respond =

爬蟲小探-Python3 urllib.request獲取頁面數據

text height urlopen -s mozilla 使用 pri 爬蟲 size 使用Python3 urllib.request中的Requests()和urlopen()方法獲取頁面源碼,並用re正則進行正則匹配查找需要的數據。 #forex.py#co

Python爬蟲-urllib的基本用法

quest resp lan roc 用法 rom handler baidu github from urllib import response,request,parse,error from http import cookiejar if __name__

Python3——根據m3u8下載視頻(上)之urllib.request

解決 cep 有用 其它 shu filename use 路徑 bre 幹活幹活,區區懶癌已經阻擋不了澎湃的洪荒之力了...... 運行環境:Windows基於python3.6 ----------------------------------

flask中request用法

最近在做flask專案,總結了一下用到的request的接收引數的方法,如果有沒寫到的,歡迎補充! flask獲取引數方式,主要有下面幾種: request.form.get("key", type=str, default=None) 獲取表單資料 request.args.get("

Python的Request函式用法

目錄 傳送請求 POST 請求: 其他請求: 傳遞 URL 引數 響應內容 二進位制響應內容 JSON 響應內容 原始響應內容 定製請求頭 更加複雜的 POST 請求 POST一個多部分編碼(Multipart-Encoded)的檔案 響應狀態碼

Python3.7 urllib.request https urllib.error.URLError

Python3.7 urllib.request https urllib.error.URLError 在python3.7中,請求https出現urllib.error.URLError異常,導致程式報錯; 異常如下: urllib.error.URLError: urlope

爬蟲學習-urllib.request資訊傳送

爬蟲資訊傳送是一個比較複雜的過程,接下來就簡單學習一下資訊傳送的幾個簡單例項,接下來我們主要使用的是urlopen API: urllib.request.urlopen(url, data=None, [timeout, ]*, cafile=None, capath=None, cade

絕對路徑${pageContext.request.contextPath}用法

一般從 JSP檔案中,可以直接使用 ${pageContext.request.contextPath}非常方便的獲得當前頁面的路徑,用來處理被 Apache2代理之後出現 URL變化的問題,比如增加了某些字首,方便轉發,即使是 JSP內嵌的 JavaScript指令碼,也是可以如此操作。但

Python爬蟲基礎——urllib.request

#-*- coding:UTF-8 -*- #Author Chen Da import urllib.request import random # 所謂網頁抓取,就是把URL地址中指定的網路資源從網路流中讀取出來; # User-Agent是爬蟲與反爬蟲的第一步,養成

urllib.request headers 兩種方法和注意問題

url= "http://desk.zol.com.cn/" #第一種個人覺得好用方便 req = urllib.request.Request(url) req.add_header("User-Agent","Mozilla/5.0 (Windows NT

request.getParameterMap()用法筆記

一、     根據Java規範:request.getParameterMap()返回的是一個Map型別的值,該返回值記錄著前端(如jsp頁面)所提交請求中的請求引數和請求引數值的對映關係。這個返回值有個特別之處——只能讀。不像普通的Map型別資料一樣可以修改。這是因為伺服

Python爬蟲(urllib.request和BeautifulSoup)

學習urllib.request和beautifulsoup,並從dribbble和behance上爬取了一些圖片,記錄一下。 一、urllib.request 1. url的構造 構造請求的url遇到的主要問題是如何翻頁的問題,dribbble網站是下拉到底自動載入下

python模組之urllib.request基礎使用

</script> <script type="text/javascript">var Cookie={set:function(e,t,o,i,s,n){document.cookie=e+"="+(n?t:escape(t))+(s?"; expires="+s.toGMTS