[Android基礎] Android專項測試
阿新 • • 發佈:2019-02-03
課程目錄
第1章:爬蟲前奏
小節1【爬蟲前奏】什麼是網路爬蟲23:05
小節2【爬蟲前奏】HTTP協議介紹16:29
小節3【爬蟲前奏】抓包工具的使用24:49
第2章:網路請求
小節4【urllib庫】urlopen函式用法09:42
小節5【urllib庫】urlretrieve函式用法04:35
小節6【urllib庫】引數編碼和解碼函式10:01
小節7【urllib庫】urlparse和urlsplit函式用法10:17
小節8【urllib庫】實戰-用Request爬取拉勾網職位資訊18:36
小節9【urllib庫】作業-內涵段子爬蟲作業02:14
小節10【urllib庫】ProxyHandler實現代理ip23:08
小節11【urllib庫】cookie原理和格式詳解13:01
小節12【urllib庫】實戰-爬蟲使用cookie模擬登入14:05
小節13【urllib庫】實戰-爬蟲自動登入訪問授權頁面22:27
小節14【urllib庫】cookie資訊的載入與儲存12:35
小節15【requests庫】requests庫的基本使用18:36
小節16【requests庫】requests傳送post請求08:14
小節17【requests庫】requests使用代理ip11:21
小節18【requests庫】requests處理cookie資訊08:58
小節19【requests庫】requests處理不信任的ssl證書02:02
第3章:資料解析
小節20【xpath解析】xpath介紹和工具安裝09:00
小節21【xpath解析】xpath語法詳解22:57
小節22【xpath解析】lxml解析html程式碼和檔案20:09
小節23【xpath解析】lxml和xpath結合使用詳解36:38
小節24【xpath解析】實戰-豆瓣電影爬蟲24:11
小節25【xpath解析】實戰-電影天堂爬蟲之網頁分析18:35
小節26【xpath解析】實戰-電影天堂爬蟲之爬取詳情頁url09:30
小節27【xpath解析】實戰-電影天堂爬蟲之解析詳情頁38:34
小節28【xpath解析】實戰-電影天堂爬蟲之爬蟲完成11:29
小節29【xpath解析】作業-騰訊招聘網爬蟲作業04:11
小節30【BeautifulSoup庫】bs4庫的基本介紹08:16
小節31【BeautifulSoup庫】bs4庫的基本使用08:36
小節32【BeautifulSoup庫】bs4庫提取資料詳解37:23
小節33【BeautifulSoup庫】css常用選擇器介紹21:55
小節34【BeautifulSoup庫】select和css選擇器提取元素13:59
小節35【BeautifulSoup庫】bs4庫拾遺22:49
小節36【BeautifulSoup庫】實戰-中國天氣網爬蟲之頁面分析09:35
小節37【BeautifulSoup庫】實戰-中國天氣網爬蟲之華北城市資料爬取17:08
小節38【BeautifulSoup庫】實戰-中國天氣網爬蟲之所有城市資料爬取19:22
小節39【BeautifulSoup庫】實戰-中國天氣網爬蟲之資料視覺化21:32
小節40【正則表示式】單字元匹配規則26:40
小節41【正則表示式】匹配多個字元08:287 s
小節42【正則表示式】常用匹配小案例12:36
小節43【正則表示式】開始結束和或語法20:33
小節44【正則表示式】轉義字元和原生字串14:45
小節45【正則表示式】group分組07:59
小節46【正則表示式】re模組常用函式14:23
小節47【正則表示式】實戰-古詩文網爬蟲實戰31:39
小節48【正則表示式】作業-糗事百科爬蟲作業01:29
第4章:資料儲存
小節49【json檔案】json字串介紹07:35
小節50【json檔案】dump成json字串以及編碼問題11:12
小節51【json檔案】load成Python物件03:53
小節52【csv檔案】讀取csv檔案的兩種方式15:32
小節53【csv檔案】寫入csv檔案的兩種方式11:14
小節54【MySQL資料庫】windows下安裝MySQL資料庫09:00
小節55【MySQL資料庫】使用軟體和程式碼連線資料庫14:19
小節56【MySQL資料庫】使用程式碼插入資料的兩種方式08:32
小節57【MySQL資料庫】使用程式碼查詢資料的三種方式09:04
小節58【MySQL資料庫】使用程式碼刪除和更新資料04:01
小節59【MongoDB資料庫】mongodb資料庫的安裝06:05
小節60【MongoDB資料庫】mongodb資料庫啟動和連線09:45
小節61【MongoDB資料庫】將mongodb製作成服務05:48
小節62【MongoDB資料庫】mongodb常用概念介紹05:18
小節63【MongoDB資料庫】mongodb的基本操作命令05:27
小節64【MongoDB資料庫】python操作mongodb16:34
第5章:爬蟲進階
小節65【多執行緒】多執行緒概念和threading模組介紹13:14
小節66【多執行緒】使用Thread類建立多執行緒06:40
小節67【多執行緒】多執行緒共享全域性變數以及鎖機制15:05
小節68【多執行緒】Lock版生產者和消費者模式27:03
小節69【多執行緒】Condition版生產者與消費者模式20:19
小節70【多執行緒】Queue執行緒安全佇列講解20:32
小節71【多執行緒】實戰-下載表情包之同步爬蟲完成24:14
小節72【多執行緒】實戰-下載表情包之非同步爬蟲完成18:23
小節73【多執行緒】GIL全域性直譯器鎖詳解12:38
小節74【多執行緒】作業-多執行緒下載百思不得姐段子爬蟲作業04:13
小節75【動態網頁爬蟲】ajax介紹和爬取ajax資料的兩種方式21:37
小節76【動態網頁爬蟲】selenium+chromedriver安裝和入門11:18
小節77【動態網頁爬蟲】selenium關閉頁面和瀏覽器03:36
小節78【動態網頁爬蟲】selenium定位元素的方法詳解11:59
小節79【動態網頁爬蟲】selenium操作表單元素17:25
小節80【動態網頁爬蟲】selenium行為鏈05:38
小節81【動態網頁爬蟲】selenium操作cookie05:43
小節82【動態網頁爬蟲】selenium的隱式等待和顯式等待10:21
小節83【動態網頁爬蟲】selenium開啟多視窗和切換視窗10:38
小節84【動態網頁爬蟲】selenium使用代理ip08:34
小節85【動態網頁爬蟲】selenium中的WebElement類補充06:40
小節86【動態網頁爬蟲】實戰-selenium完美實現拉勾網列表頁之爬蟲解析21:12
小節87【動態網頁爬蟲】實戰-selenium完美實現拉勾網詳情頁之爬蟲解析20:14
小節88【動態網頁爬蟲】實戰-selenium完美實現拉勾網爬蟲之跑通流程32:01
小節89【動態網頁爬蟲】實戰-selenium完美實現拉勾網爬蟲之細節處理10:05
小節90【動態網頁爬蟲】作業-使用selenium實現boss直聘爬蟲作業05:01
小節91【驗證碼識別】tesseract庫介紹08:01
小節92【驗證碼識別】tesseract在終端下識別圖片13:09
小節93【驗證碼識別】tesseract程式碼識別圖片08:11
小節94【驗證碼識別】tesseract處理拉勾網驗證碼09:22
小節95【12306自動搶票】12306搶票流程分析19:46
小節96【12306自動搶票】登入12306功能完成15:01
小節97【12306自動搶票】購票資訊輸入功能完成18:49
小節98【12306自動搶票】自動查詢餘票功能完成21:18
小節99【12306自動搶票】自動提交訂單功能完成16:47
第6章:Scrapy框架
小節100【Scrapy框架】scrapy框架架構詳解09:20
小節101【Scrapy框架】scrapy框架快速入門14:24
小節102【Scrapy框架】實戰-糗事百科之爬蟲編寫24:35
小節103【Scrapy框架】實戰-糗事百科之pipeline儲存資料17:48
小節104【Scrapy框架】實戰-糗事百科之優化資料儲存的方式12:47
小節105【Scrapy框架】實戰-糗事百科之抓取多個頁面07:17
小節106【Scrapy框架】CrawlSpider講解06:13
小節107【Scrapy框架】實戰-CrawlSpider實現微信小程式社群爬蟲34:19
小節108【Scrapy框架】Scrapy Shell的使用07:43
小節109【Scrapy框架】Request和Response物件講解07:11
小節110【Scrapy框架】實戰-scrapy模擬登入某社交網13:03
小節111【Scrapy框架】實戰-scrapy模擬登入豆瓣網28:51
小節112【Scrapy框架】實戰-自動識別豆瓣網驗證碼23:46
小節113【Scrapy框架】實戰-汽車之家寶馬5系圖片下載爬蟲(1)20:59
小節114【Scrapy框架】實戰-汽車之家寶馬5系圖片下載爬蟲(2)13:33
小節115【Scrapy框架】實戰-汽車之家寶馬5系圖片下載爬蟲(3)25:18
小節116【Scrapy框架】實戰-汽車之家寶馬5系圖片下載爬蟲(4)25:36
小節117【Scrapy框架】下載器中介軟體講解10:54
小節118【Scrapy框架】反爬蟲-設定隨機請求頭15:12
小節119【Scrapy框架】反爬蟲-開放ip代理池和獨享代理配置20:10
小節120【Scrapy框架】實戰-攻克BOSS直聘反爬蟲之正常爬取32:46
小節121【Scrapy框架】實戰-攻克BOSS直聘反爬蟲之無限爬取50:50
小節122【Scrapy框架】簡書網整站爬蟲之頁面解析32:04
小節123【Scrapy框架】實戰-簡書網整站爬蟲之儲存資料到Mysql25:19
小節124【Scrapy框架】實戰-簡書網整站爬蟲之爬取ajax資料25:29
小節125【分散式爬蟲】分散式爬蟲介紹11:33
小節126【分散式爬蟲】redis介紹06:43
小節127【分散式爬蟲】linux下安裝redis05:13
小節128【分散式爬蟲】windows下redis安裝與配置08:07
小節129【分散式爬蟲】配置其他機器連線本機redis伺服器08:01
小節130【分散式爬蟲】redis的字串操作03:31
小節131【分散式爬蟲】redis的列表操作11:08
小節132【分散式爬蟲】redis的集合操作07:49
小節133【分散式爬蟲】redis的雜湊操作05:22
小節134【分散式爬蟲】實戰-房天下全國658城市房源資訊抓取(1)10:07
小節135【分散式爬蟲】實戰-房天下全國658城市房源資訊抓取(2)11:07
小節136【分散式爬蟲】實戰-房天下全國658城市房源資訊抓取(3)26:41
小節137【分散式爬蟲】實戰-房天下全國658城市房源資訊抓取(4)38:17
小節138【分散式爬蟲】實戰-房天下全國658城市房源資訊抓取(5)30:44
小節139【分散式爬蟲】實戰-房天下全國658城市房源資訊抓取(6)12:44
小節140【分散式爬蟲】實戰-房天下全國658城市房源資訊抓取(7)20:45