Anaconda: 特別方便的整合了python下爬蟲相關的依賴包
阿新 • • 發佈:2019-02-03
在windows下安裝python和很多依賴包對於我這種懶人來說總覺得是一件非常痛苦的事情。之前偶然發現了一個python的大整合包,覺得異常好用,因此分享給大家。
Anaconda下載地址:
http://continuum.io/downloads
下載好後,直接雙擊安裝就OK了,連環境變數Path都不用自己設,方便快捷。
最方便的一點是,它整合了大量的依賴包,下面是它所包含的全部依賴包:
http://docs.continuum.io/anaconda/pkg-docs.html
其中比如科學計算的numpy, theano等都應有盡有。
‘
比如爬蟲的scrapy在整合包裡面沒有的話怎麼辦呢?也非常的簡單,只需要在命令列中輸入conda install *** 即可安裝相應的包:conda install scrapy
以下是我安裝的截圖:
安裝好的那一刻真是感動哭了,比網上介紹的各種scrapy的安裝方法都要簡單多了。
希望能對大家有所幫助,不會使程式設計的興趣磨滅在配置環境的路上。
Anaconda下載地址:
http://continuum.io/downloads
下載好後,直接雙擊安裝就OK了,連環境變數Path都不用自己設,方便快捷。
最方便的一點是,它整合了大量的依賴包,下面是它所包含的全部依賴包:
http://docs.continuum.io/anaconda/pkg-docs.html
其中比如科學計算的numpy, theano等都應有盡有。
‘
比如爬蟲的scrapy在整合包裡面沒有的話怎麼辦呢?也非常的簡單,只需要在命令列中輸入conda install *** 即可安裝相應的包:conda install scrapy
以下是我安裝的截圖:
安裝好的那一刻真是感動哭了,比網上介紹的各種scrapy的安裝方法都要簡單多了。
希望能對大家有所幫助,不會使程式設計的興趣磨滅在配置環境的路上。