1. 程式人生 > 其它 >Python爬蟲實戰,Scrapy實戰,爬取並簡單分析知網中國專利資料

Python爬蟲實戰,Scrapy實戰,爬取並簡單分析知網中國專利資料

前言

今天我們就用scrapy爬一波知網的中國專利資料並做簡單的資料視覺化分析唄。讓我們愉快地開始吧~

PS:本專案僅供學習交流,實踐本專案時煩請設定合理的下載延遲與爬取的專利資料量,避免給知網伺服器帶來不必要的壓力。

開發工具

Python版本:3.6.4
相關模組:

scrapy模組;

fake_useragent模組;

pyecharts模組;

wordcloud模組;

jieba模組;

以及一些Python自帶的模組。

環境搭建

安裝Python並新增到環境變數,pip安裝需要的相關模組即可。

資料爬取

我們需要爬取的資料例如下圖所示:

即包括以下這些內容:

爬取思路:

我們可以很容易地發現每個專利的詳情頁url都是類似這樣的:

http://dbpub.cnki.net/grid2008/dbpub/Detail.aspx?DBName=SCPD年份&FileName=專利公開號&QueryID=4&CurRec=1

因此,只要改變專利公開號即可獲得對應專利的詳情頁url(經測試,即使年份對不上也沒關係),從而獲得對應專利的資訊,具體而言程式碼實現如下:

All done~完整原始碼詳見個人簡介相關檔案。

PS:程式碼執行方式為執行main.py檔案。

資料視覺化

為避免給知網伺服器帶來不必要的壓力,這裡我們只爬了2014年的一部分知網中國專利資料(就跑了一個多小時吧),對這些資料進行視覺化分析的結果如下。

我們先來看看申請專利的省份分佈唄:

然後再來統計一下專利代理機構?

最後再來看看所有專利摘要做成的詞雲唄:

還有所有專利標題做成的詞雲唄:

文章到這裡就結束了,感謝你的觀看,關注我每天分享Python系列爬蟲,下篇文章分享Python爬蟲知乎表情包。

為了感謝讀者們,我想把我最近收藏的一些程式設計乾貨分享給大家,回饋每一個讀者,希望能幫到你們。

乾貨主要有:

① 2000多本Python電子書(主流和經典的書籍應該都有了)

② Python標準庫資料(最全中文版)

③ 專案原始碼(四五十個有趣且經典的練手專案及原始碼)

④ Python基礎入門、爬蟲、web開發、大資料分析方面的視訊(適合小白學習)

⑤ Python學習路線圖(告別不入流的學習)

All done~完整原始碼+乾貨詳見個人簡介或者私信獲取相關檔案。。