1. 程式人生 > 其它 >爬蟲-搭建代理池、爬蟲小案例

爬蟲-搭建代理池、爬蟲小案例

1 搭建免費代理池

# requests模擬傳送http請求,頻率限制---》變換ip---》代理(免費,收費)---》
# 搭建代理池---》開源(參照:python,flask+爬蟲)
	通過爬蟲去免費網站爬取 免費代理--》驗證一下---》存到庫中(redis)--->請求一個介面,就隨機返回一個代理地址
  
  
  
  
  
  
#搭建步驟
  ### 第一步:下載程式碼
  	git clone [email protected]:jhao104/proxy_pool.git
  	
  ### 第二步:安裝依賴
  	pip3  install -r requirements.txt
    
 ### 第三步:修改配置--》專案路徑下的settings.py
	# 配置API服務
    HOST = "0.0.0.0"               # IP
    PORT = 5000                    # 監聽埠
    # 配置資料庫
    DB_CONN = 'redis://127.0.0.1:8888/0'
    # 配置 ProxyFetcher--->配置爬取哪幾個免費代理的網站
    PROXY_FETCHER = [
        "freeProxy01",      # 這裡是啟用的代理抓取方法名,所有fetch方法位於fetcher/proxyFetcher.py
        "freeProxy02",
        # ....
    ]
  ### 第四步,啟動專案
    # 啟動排程程式(爬取代理)
    python3 proxyPool.py schedule
    # 啟動webApi服務(提供介面)
    python3 proxyPool.py server
    
    
    
    
    
 # 編寫搭建代理池---》隨機取一個值---》json格式字串---》返回給前端

# django--->取出客戶端的ip---》META:REMOTE_ADDR---》django介面,一訪問就返回使用者ip--》
部署在公網ip上,大家都可以訪問---》使用代理測一下,看看是不是使用了代理
#1  使用代理池
import requests
# res=requests.get('http://127.0.0.1:5010/get/')
# print(res.json()['proxy'])
#
#
# ## 咱們的爬蟲,隨機使用代理去訪問
# proxies={
#     'http':res.json()['proxy']
# }
# respone=requests.get('https://www.12306.cn',
#                      proxies=proxies)
#
# print(respone.status_code)


2 requests 超時設定,認證設定,異常處理,上傳檔案


### 2 超時設定
# import requests
# respone=requests.get('https://www.baidu.com',timeout=1)
# print(respone.status_code)


### 3 認證設定 --->特別古老的專案中(老版本的路由器)---》一訪問,彈出輸入使用者名稱密碼的框
# import requests
# from requests.auth import HTTPBasicAuth
# r=requests.get('xxx',auth=HTTPBasicAuth('user','password'))
# print(r.status_code)


### 4 異常處理
# import requests
# from requests.exceptions import * #可以檢視requests.exceptions獲取異常型別
#
# try:
#     r=requests.get('http://www.baidu.com',timeout=0.00001)
# # except ReadTimeout:
# #     print('讀資料超時')
# # except ConnectionError: #網路不通
# #     print('網路不通')
# # except Timeout:
# #     print('超時')
# except Exception as e:
#     print('未知錯誤',e)



##5  上傳檔案--->瀏覽器js上傳檔案,postman上傳檔案
# python程式碼上傳檔案---》第三方服務--》需要傳檔案

# 使用django寫個 上傳檔案的後端---》前端使用requests上傳試試
import requests
files={'file':open('a.txt','rb')}
respone=requests.post('http://httpbin.org/post',files=files)
print(respone.text)

3 爬取梨視訊網站

# 爬取短視訊---》https://www.pearvideo.com/--》有不同分類--》分類id號

# 開啟某一個分類--->下拉會載入更多(分頁)---》傳送一個一個ajax請求,獲取資料---》

# 下一頁是向:https://www.pearvideo.com/category_loading.jsp?reqType=5&categoryId=8&start=24&mrd=0.49236580390163986&filterIds=1754494,1754069,1751419,1752963,1752680,1752298,1752049,1751988,1751497,1751503,1683918,1750556,1750534,1750365,1750407----》傳送get請求---》xml資料

# 向這個地址發請求,指定起始位置,每次拿12條資料


# https://www.pearvideo.com/category_loading.jsp?reqType=5&categoryId=8&start=24&mrd=0.49236580390163986&filterIds=1754494,1754069,1751419,1752963,1752680,1752298,1752049,1751988,1751497,1751503,1683918,1750556,1750534,1750365,1750407


# 傳送請求,獲取資料

import requests
import re
res=requests.get('https://www.pearvideo.com/category_loading.jsp?reqType=5&categoryId=8&start=0&mrd=0.49236580390163986')
# print(res.text) # 從返回的資料中解析出視訊詳情地址
# 從內容中解析出所有 video_xxx--->正則
video_list=re.findall('<a href="(.*?)" class="vervideo-lilink actplay">',res.text)
# print(video_list)
for video in  video_list:
    video_id=video.split('_')[-1]
    real_video_url='https://www.pearvideo.com/'+video
    header={
        'Referer':real_video_url
    }
    res1=requests.get('https://www.pearvideo.com/videoStatus.jsp?contId=%s&mrd=0.04747965073841365'%video_id,headers=header)
    # print(res1.text)
    mp4_url=res1.json()['videoInfo']['videos']['srcUrl']
    mp4_real_url=mp4_url.replace(mp4_url.split('/')[-1].split('-')[0],'cont-%s'%video_id)
    print(mp4_real_url)
    # 向真正視訊地址發請求,獲取資料
    res2=requests.get(mp4_real_url)
    video_name=mp4_real_url.split('/')[-1]
    with open('video/%s'%video_name,'wb') as f:
        for line in res2.iter_content(1024):
            f.write(line)



# 視訊去水印---》ffmpeg軟體,python呼叫
# 視訊裁剪----》ffmpeg軟體或者自己---》開啟檔案-->檔案操作把末尾的幾個位元組去掉儲存起來




## 第一層反扒---》攜帶refer
# header={
#     'Referer':'https://www.pearvideo.com/video_1754274'
# }
# res=requests.get('https://www.pearvideo.com/videoStatus.jsp?contId=1754274&mrd=0.04747965073841365',headers=header)
# print(res.text)


## 第二層反扒-->視訊地址又處理
# 能播放的地址:
# https://video.pearvideo.com/mp4/third/20220310/  cont-視訊id號      -10440061-222038-hd.mp4
# https://video.pearvideo.com/mp4/third/20220310/   1647401376175    -10440061-222038-hd.mp4
# url='https://video.pearvideo.com/mp4/third/20220310/1647401376175-10440061- 222038- hd.mp4'
# url.replace(url.split('/')[-1].split('-')[1],'cont-%s'%video_id)

4 爬取汽車之家新聞

import requests
# 解析庫  bs4
from bs4 import BeautifulSoup

res = requests.get('https://www.autohome.com.cn/news/1/#liststart')
# print(res.text)
soup = BeautifulSoup(res.text, 'lxml')
# 使用bs4,解析和獲取文件中資料

# 通過bs4,找到所有類名為article的ul標籤
ul_list = soup.find_all(name='ul', class_='article')
print(len(ul_list))
# 迴圈從ul中,找出所有的li---》一個li就是一個新聞
for ul in ul_list:
    li_list = ul.find_all(name='li')
    for li in li_list:
        title = li.find(name='h3')
        if title:  # 能找到,再繼續幹別的,如果沒找到,說明這是個廣告或者是沒有標題的,不管了
            title = title.text
            url = 'http:' + li.find(name='a').attrs['href']
            desc = li.find(name='p').text
            img = 'http:'+li.find(name='img').attrs['src']
            print('''
            新聞標題:%s
            新聞地址:%s
            新聞圖片:%s
            新聞摘要:%s 
            ''' % (title, url, img, desc))


# 正常應該入庫---》mysql,es
# 可以把圖片下載到本地

5 beautifulsoup4 介紹

# 爬取資料沒問題---》解析資料---》re---》比較好用的可以解析xml格式的庫---》bs4
# 查詢,修改,刪除 xml文件中的標籤
# pip3 install beautifulsoup4
# pip3 install lxml
from bs4 import BeautifulSoup
# lxml是使用的解析器的名字 
# lxml速度快,文件容錯能力強,lxml是一個第三方,需要額外安裝
# 預設的html.parser :速度慢
soup=BeautifulSoup(要解析的xml字串,'html.parser')