爬蟲介紹
阿新 • • 發佈:2020-07-31
爬蟲介紹
# 介紹爬蟲 2 urilib3(內建,不好用),requests--模擬傳送http請求 3 Beautifulsoup解析,xpth解析 4 selenium模組,操作瀏覽器 5 Mongodb 6 反爬:代理池,cookie池,請求頭中:user-agent,refer,js逆向 7 爬蟲框架scrapy,爬蟲界的django 8 scrapy-redis分散式爬蟲 9 模擬登陸網站 10 爬取視訊,爬肯德基門店地址,爬紅樓夢書 11 驗證碼破解(打碼平臺:超級鷹) 12 破解12306 13 抓包工具的使用(fiddler,charls) 14 安卓app的爬取,逆向View Code
一 什麼是爬蟲
# 1、什麼是網際網路? 網際網路是由網路裝置(網線,路由器,交換機,防火牆等等)和一臺臺計算機連線而成,像一張網一樣。 # 2、網際網路建立的目的? 網際網路的核心價值在於資料的共享/傳遞:資料是存放於一臺臺計算機上的,而將計算機互聯到一起的目的就是為了能夠方便彼此之間的資料共享/傳遞,否則你只能拿U盤去別人的計算機上拷貝資料了。 # 3、什麼是上網?爬蟲要做的是什麼? 我們所謂的上網便是由使用者端計算機發送請求給目標計算機,將目標計算機的資料下載到本地的過程。 #3.1 只不過,使用者獲取網路資料的方式是: 瀏覽器提交請求->下載網頁程式碼->解析/渲染成頁面。# 3.2 而爬蟲程式要做的就是: 模擬瀏覽器傳送請求->下載網頁程式碼->只提取有用的資料->存放於資料庫或檔案中 #3.1與3.2的區別在於: 我們的爬蟲程式只提取網頁程式碼中對我們有用的資料 #4、總結爬蟲 #4.1 爬蟲的比喻: 如果我們把網際網路比作一張大的蜘蛛網,那一臺計算機上的資料便是蜘蛛網上的一個獵物,而爬蟲程式就是一隻小蜘蛛,沿著蜘蛛網抓取自己想要的獵物/資料 #4.2 爬蟲的定義: 向網站發起請求,獲取資源後分析並提取有用資料的程式 #4.3 爬蟲的價值: 網際網路中最有價值的便是資料,比如天貓商城的商品資訊,鏈家網的租房資訊,雪球網的證券投資資訊等等,這些資料都代表了各個行業的真金白銀,可以說,誰掌握了行業內的第一手資料,誰就成了整個行業的主宰,如果把整個網際網路的資料比喻為一座寶藏,那我們的爬蟲課程就是來教大家如何來高效地挖掘這些寶藏,掌握了爬蟲技能,你就成了所有網際網路資訊公司幕後的老闆,換言之,它們都在免費為你提供有價值的資料。
簡單總結:
1 爬蟲:網路蜘蛛 2 爬蟲本質:模擬瀏覽器傳送請求(requests,selenium)->下載網頁程式碼->只提取有用的資料(bs4,xpath,re)->存放於資料庫或檔案中(檔案,excel,mysql,redis,mongodb) 3 傳送請求:請求地址(瀏覽器除錯,抓包工具),請求頭(難),請求體(難),請求方法 4 拿到響應:拿到響應體(json格式,xml格式,html格式(bs4,xpath),加密的未知格式(需要解密)) 5 入庫:Mongodb(json格式資料) 6 效能高一些(多執行緒,多程序,協程),只針對與python語言的cpython直譯器(GIL:同一時刻只能由一個執行緒在執行) -io密集型:用執行緒 -計算密集型:用程序 7 scrapy框架處理了效能
二 爬蟲的基本流程
#1、發起請求 使用http庫向目標站點發起請求,即傳送一個Request Request包含:請求頭、請求體等 #2、獲取響應內容 如果伺服器能正常響應,則會得到一個Response Response包含:html,json,圖片,視訊等 #3、解析內容 解析html資料:正則表示式,第三方解析庫如Beautifulsoup,pyquery等 解析json資料:json模組 解析二進位制資料:以b的方式寫入檔案 #4、儲存資料 資料庫 檔案
三 請求與響應
#http協議:http://www.cnblogs.com/linhaifeng/articles/8243379.html #Request:使用者將自己的資訊通過瀏覽器(socket client)傳送給伺服器(socket server) #Response:伺服器接收請求,分析使用者發來的請求資訊,然後返回資料(返回的資料中可能包含其他連結,如:圖片,js,css等) #ps:瀏覽器在接收Response後,會解析其內容來顯示給使用者,而爬蟲程式在模擬瀏覽器傳送請求然後接收Response後,是要提取其中的有用資料。
四 Request
#1、請求方式: 常用的請求方式:GET,POST 其他請求方式:HEAD,PUT,DELETE,OPTHONS ``` ps:用瀏覽器演示get與post的區別,(用登入演示post) post與get請求最終都會拼接成這種形式:k1=xxx&k2=yyy&k3=zzz post請求的引數放在請求體內: 可用瀏覽器檢視,存放於form data內 get請求的引數直接放在url後 ``` #2、請求url url全稱統一資源定位符,如一個網頁文件,一張圖片 一個視訊等都可以用url唯一來確定 ``` url編碼 https://www.baidu.com/s?wd=圖片 圖片會被編碼(看示例程式碼) ``` ``` 網頁的載入過程是: 載入一個網頁,通常都是先載入document文件, 在解析document文件的時候,遇到連結,則針對超連結發起下載圖片的請求 ``` #3、請求頭 User-agent:請求頭中如果沒有user-agent客戶端配置, 服務端可能將你當做一個非法使用者 host cookies:cookie用來儲存登入資訊 ``` 一般做爬蟲都會加上請求頭 ``` #4、請求體 如果是get方式,請求體沒有內容 如果是post方式,請求體是format data ``` ps: 1、登入視窗,檔案上傳等,資訊都會被附加到請求體內 2、登入,輸入錯誤的使用者名稱密碼,然後提交,就可以看到post,正確登入後頁面通常會跳轉,無法捕捉到post ```
五 Response
#1、響應狀態 200:代表成功 301:代表跳轉 404:檔案不存在 403:許可權 502:伺服器錯誤 #2、Respone header set-cookie:可能有多個,是來告訴瀏覽器,把cookie儲存下來 #3、preview就是網頁原始碼 最主要的部分,包含了請求資源的內容 如網頁html,圖片 二進位制資料等
六 總結
#1、總結爬蟲流程: 爬取--->解析--->儲存 #2、爬蟲所需工具: 請求庫:requests,selenium 解析庫:正則,beautifulsoup,pyquery 儲存庫:檔案,MySQL,Mongodb,Redis #3、爬蟲常用框架: scrapy