1. 程式人生 > 程式設計 >python遞迴下載資料夾下所有檔案

python遞迴下載資料夾下所有檔案

最近想備份網站,但是php下載檔案的大小是有大小限制的,而我也懶得裝ftp再下載了,就想著暫時弄個二級域名站,然後用python(python3)的requests庫直接下載網站根目錄下的所有檔案以及資料夾。(0-0就是這麼任性)

1.安裝requests庫

pip install requests

2.下載資料夾下所有檔案及資料夾

這裡需要處理的地方主要是資料夾,這裡我們判斷出該連結是資料夾時,自動建立資料夾,並遞迴繼續進行操作,否則判斷該連結是檔案,直接使用requests get方法下載,話不多說,看程式碼

####春江暮客 www.bobobk.com
import requests
import re
import os
import sys
def help(script):
 text = 'python3 %s https://www.bobobk.com ./' % script

 print(text)
def get_file(url,path):##檔案下載函式
  content = requests.get(url)
  print("write %s in %s" % (url,path))
  filew = open(path+url.split("/")[-1],'wb')
  for chunk in content.iter_content(chunk_size=512 * 1024): 
    if chunk: # filter out keep-alive new chunks
      filew.write(chunk)
  filew.close()
def get_dir(url,path): #資料夾處理邏輯
  content = requests.get(url).text
  if "<title>Index of" in content:
    sub_url = re.findall('href="(.*?)" rel="external nofollow" ',content)
  
    print(sub_url)
    for i in sub_url:
      if "/" in i:
      
        i = i.split("/")[0]
        print(i)
        if i!="." and i!="..":
          
          if not os.direxists(path+i):
            os.mkdir(path+i)
         
          get_dir(url+"/"+i,path+i+"/")
          print("url:"+url+"/"+i+"\nurl_path:"+path+i+"/")
      else:
        get_file(url+"/"+i,path)
  else:
    get_file(url,path)
if __name__ == '__main__':
 if not sys.argv[1]:
 help(sys.argv[0])
 exit(0)
 else:
 get_dir(sys.argv[1],"./")

至此,就在本地目錄完全還原下載原網站的路徑和檔案了。

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支援我們。