欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

python遞歸下載文件夾下所有文件

 更新時(shí)間:2019年08月31日 10:37:33   作者:春江暮客  
這篇文章主要為大家詳細(xì)介紹了python遞歸下載文件夾下所有文件,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下

最近想備份網(wǎng)站,但是php下載文件的大小是有大小限制的,而我也懶得裝ftp再下載了,就想著暫時(shí)弄個(gè)二級(jí)域名站,然后用python(python3)的requests庫直接下載網(wǎng)站根目錄下的所有文件以及文件夾。(0-0就是這么任性)

1.安裝requests庫

pip install requests

2.下載文件夾下所有文件及文件夾

這里需要處理的地方主要是文件夾,這里我們判斷出該鏈接是文件夾時(shí),自動(dòng)創(chuàng)建文件夾,并遞歸繼續(xù)進(jìn)行操作,否則判斷該鏈接是文件,直接使用requests get方法下載,話不多說,看代碼

####春江暮客 www.bobobk.com
import requests
import re
import os
import sys
def help(script):
 text = 'python3 %s https://www.bobobk.com ./' % script

 print(text)
def get_file(url,path):##文件下載函數(shù)
  content = requests.get(url)
  print("write %s in %s" % (url,path))
  filew = open(path+url.split("/")[-1],'wb')
  for chunk in content.iter_content(chunk_size=512 * 1024): 
    if chunk: # filter out keep-alive new chunks
      filew.write(chunk)
  filew.close()
def get_dir(url,path): #文件夾處理邏輯
  content = requests.get(url).text
  if "<title>Index of" in content:
    sub_url = re.findall('href="(.*?)" rel="external nofollow" ',content)
  
    print(sub_url)
    for i in sub_url:
      if "/" in i:
      
        i = i.split("/")[0]
        print(i)
        if i!="." and i!="..":
          
          if not os.direxists(path+i):
            os.mkdir(path+i)
         
          get_dir(url+"/"+i,path+i+"/")
          print("url:"+url+"/"+i+"\nurl_path:"+path+i+"/")
      else:
        get_file(url+"/"+i,path)
  else:
    get_file(url,path)
if __name__ == '__main__':
 if not sys.argv[1]:
 help(sys.argv[0])
 exit(0)
 else:
 get_dir(sys.argv[1],"./")

至此,就在本地目錄完全還原下載原網(wǎng)站的路徑和文件了。

以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。

相關(guān)文章

最新評(píng)論