欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

基于SpringBoot和Vue實現(xiàn)分片上傳系統(tǒng)

 更新時間:2023年12月08日 11:07:13   作者:懂咖啡的Java實習生  
最近想做一個關(guān)于文件上傳的個人小網(wǎng)盤,一開始嘗試使用了OSS的方案,但是該方案對于大文件來說并不友好,所以開始嘗試分片上傳方案的探索,接下來小編給大家詳細的介紹一下如何基于SpringBoot和Vue實現(xiàn)分片上傳系統(tǒng),需要的朋友可以參考下

最近想做一個關(guān)于文件上傳的個人小網(wǎng)盤,一開始嘗試使用了OSS的方案,但是該方案對于大文件來說并不友好,一個是OSS云服務(wù)廠商費用高昂的問題,另外一個是大文件速度較慢。于是看了網(wǎng)絡(luò)上的帖子以及工作室小伙伴的推薦,開始嘗試分片上傳方案的探索,目前整個項目已經(jīng)完成,本人認為使用的技術(shù)都是最簡單且高效的方法,主要采用自己編寫的方案,在應(yīng)用層比較少使用到第三方的技術(shù),主要用到的技術(shù)有Vue+SpringBoot+MySQL+Redis。此次展示分享上傳部分,感興趣的小伙伴們可以點贊評論,我會在后面及時更新!

首先第一步是整個上傳過程中最重要的一環(huán),對文件內(nèi)容而并非標題進行一個md5編碼,基于每一個文件一個唯一的字符串,后續(xù)所有文件相關(guān)的處理都需要使用到該字符串。這里的計算過程中,采取了黑馬在知乎上一篇文章的建議,對文件第一個分片和最后一個分片進行全部計算,其他地方采用前中后兩個字節(jié)進行計算,這樣子可以減少計算量,加快我們的編碼速度,此步驟據(jù)說也有開源的框架可以代替,這樣子可靠性也更高,有興趣的小伙伴可以自己了解,下面附上自己實現(xiàn)的。

    async calculateHash(fileChunks) {
      return new Promise(resolve => {
        const spark = new sparkMD5.ArrayBuffer()
        const chunks = []
        const CHUNK_SIZE = this.CHUNK_SIZE
        fileChunks.forEach((chunk, index) => {
          if (index === 0 || index === fileChunks.length - 1) {
            // 1. 第一個和最后一個切片的內(nèi)容全部參與計算
            chunks.push(chunk.file)
          } else {
            // 2. 中間剩余的切片我們分別在前面、后面和中間取2個字節(jié)參與計算
            // 前面的2字節(jié)
            chunks.push(chunk.file.slice(0, 2))
            // 中間的2字節(jié)
            chunks.push(chunk.file.slice(CHUNK_SIZE / 2, CHUNK_SIZE / 2 + 2))
            // 后面的2字節(jié)
            chunks.push(chunk.file.slice(CHUNK_SIZE - 2, CHUNK_SIZE))
          }
        })
        const reader = new FileReader()
        reader.readAsArrayBuffer(new Blob(chunks))
        reader.onload = (e) => {
          spark.append(e.target.result)
          resolve(spark.end())
        }
      })
    }

在計算完畢之后,我們可以在上傳之前可以先做一次檢查,返回我們需要得到的信息,包括但不限于文件是否存在于系統(tǒng)中,文件沒有上傳的話,那么是否有已經(jīng)上傳了的分片,可以返回一個索引數(shù)組。如果已經(jīng)有該文件存在的話則直接進行保存文件信息就好了,后者有利于實現(xiàn)我們的斷點續(xù)傳工作,第二次上傳只要上傳還沒有上傳的部分即可,主要是后端實現(xiàn)為主。

    async uploadCheck() {
      let r;
      await axios.get('/api/file//uploadCheck?fileMd5=' + this.key).then(res => {
        r = res.data.flag;
        this.existCheck=[];
        //存在部分分片則返回存在的文件信息
        if (r == false){
          this.existCheck=res.data.data;
        }
      })
      return r;
    }

后端代碼分為接口和服務(wù)層代碼,分別給出:

    /**
     * 文件整體的查重校驗
     * @param fileMd5
     * @return
     */
    @GetMapping("/uploadCheck")
    public Result uploadCheck(String fileMd5,HttpServletRequest httpServletRequest){
        String user = JwtUtil.getId(httpServletRequest.getHeader("token"));
        if (fileService.uploadCheck(fileMd5,user)){
            return new Result(true,true);
        }else {
            //查找文件是否有分片上傳過到系統(tǒng)中
            Integer arr[] = fileService.existCheck(fileMd5);
            return new Result(false,arr);
        }
    }

上傳時候如果在數(shù)據(jù)庫中發(fā)現(xiàn),已經(jīng)有用戶或者本用戶在系統(tǒng)中已經(jīng)成功上傳過該文件的話,那么我們可以直接插入數(shù)據(jù)返回保存完畢即可了,無需真正意義上的上傳。不存在則在redis中看一下那些索引已經(jīng)上傳過了,將索引數(shù)組返回,前端后續(xù)上傳跳過即可。

    @Override
    public Boolean uploadCheck(String fileMd5, String userId) {
        //判斷文件是否存在
        MyFile myFile = fileMapper.getFileByMd5(fileMd5);
        //如果文件存在直接給用戶插入數(shù)據(jù)記錄即可
        if (myFile != null) {
            MyFile newMyFile = new MyFile();
            newMyFile.setId(userId + DateTimeUtil.getTimeStamp());
            newMyFile.setFileName(myFile.getFileName());
            newMyFile.setUser(userId);
            newMyFile.setFileMd5(fileMd5);
            newMyFile.setFileSize(myFile.getFileSize());
            newMyFile.setTime(LocalDateTime.parse(DateTimeUtil.getDateTime(), DateTimeFormatter.ofPattern("yyyy-MM-dd HH:mm:ss")));
            Integer num = fileMapper.insert(newMyFile);
            if (num == 1) {
                return true;
            }
        }
        return false;
    }

檢查完畢之后我們可以開始上傳文件啦!上傳過程中我認為依然是前端占了打頭的,后端只要接收文件不斷磁盤寫入就好了,雖然說不建議那么多的io次數(shù),但是實際上測試下來還可以,4M帶寬的學生服務(wù)器都可以做到20秒左右上傳100M,本地的話更加是快的不得了,反而前端如果分片分的太小的話,觸發(fā)的網(wǎng)絡(luò)請求數(shù)量過多,這時候速度上才容易出事,前端分片不要設(shè)置太小的話,io次數(shù)的話也可以小一點。

      const formDatas = data.map(({chunk, fileHash, index, filename, chunkSize}) => {
        const formData = new FormData()
        // 切片文件
        formData.append('file', chunk)
        // 大文件hash
        formData.append('fileMd5', fileHash)
        //切片的索引
        formData.append('currentIndex', index)
        // 大文件的文件名
        formData.append('fileName', filename)
        // 分片大小
        formData.append('chunkCount', chunkSize)
        return formData
      })
      let index = 0;
      const max = 6; // 并發(fā)請求數(shù)量
      const taskPool = []// 請求隊列
      let t = this.existCheck.length;
      while (index < formDatas.length) {
        //出現(xiàn)重復(fù)的切片,跳過
        if (this.existCheck.includes(index)){
          index++;
          continue;
        }
        const task = axios.post('/api/file/uploadBySlice', formDatas[index])
        //splice方法會刪除數(shù)組中第一個匹配的元素,參數(shù)搭配使用findIndex可以找到第一個匹配的元素的索引
        task.then(() => {
          taskPool.splice(taskPool.findIndex((item) => item === task))
          t=t+1;
          this.percentage = Math.floor((t / formDatas.length * 100) * (1.0))-1
        })
        taskPool.push(task);
        if (taskPool.length === max) {
          // 當請求隊列中的請求數(shù)達到最大并行請求數(shù)的時候,得等之前的請求完成再循環(huán)下一個
          await Promise.race(taskPool)
        }
        index++
      }
      await Promise.all(taskPool)
    }

后端代碼實現(xiàn),接口層簡單,只展示服務(wù)層即可。后端主要負責的工作,包括分片寫入磁盤,并且在redis中保存已經(jīng)上傳好的文件索引號。

    /**
     * 上傳分片、文件
     *
     * @param file
     * @param fileMd5
     * @param currentIndex
     * @return
     */
    @Override
    public Integer uploadFile(MultipartFile file, String fileMd5, Integer currentIndex) {
        //在redis中查詢該分片是否已經(jīng)存在
        if (redisTemplate.opsForSet().isMember(fileMd5, currentIndex)) {
            return currentIndex;
        }
        // 生成分片的臨時路徑
        String filePath = tempPath + fileMd5 + "_" + currentIndex + ".tmp";
        //保存文件分片到本地的目標路徑
        File targetFile = new File(filePath);
        try {
            RandomAccessFile raf = new RandomAccessFile(targetFile, "rw");
            byte[] data = file.getBytes();
            raf.write(data);
            raf.close();
            //在redis中保存該分片的索引
            redisTemplate.opsForSet().add(fileMd5, currentIndex);
            return currentIndex;
        } catch (IOException e) {
            // 處理異常
            throw new ServiceException("文件上傳失敗");
        }
    }

那么,如果我們我們上傳一次中間不小心刷新或者網(wǎng)絡(luò)中斷后,我們應(yīng)該如何處理呢?其實在前面的時候我們已經(jīng)解決了,因為我們上傳檢查的時候,已經(jīng)返回了已經(jīng)上傳過的索引號,所以這一次上傳的時候自動跳過即可了,在上面前端的上傳區(qū)域可以看見有跳過的代碼設(shè)置!

最后文件分片都上傳完畢了,我們就是最后一步了,等待前端所有的上傳任務(wù)執(zhí)行完畢,我們執(zhí)行一次發(fā)送合并指令即可了,當然在后端其實也可以做,前端就不需要發(fā)送合并指令了。

    //發(fā)起文件合并請求
    merge() {
      axios.get('/api/file/merge' + '?fileMd5=' + this.key + '&fileName=' + this.filename + '&chunkCount=' + this.fileChunks.length).then((resp) => {
        if (resp.data.flag == true) {
          this.$message({
            message: '文件上傳成功',
            type: 'success'
          });
          this.percentage = 100;
          this.query();
          this.uploadRefresh=false;
        }
      })
    }

后端此處代碼比較長,但是實際上也比較簡單的,主要是做了合并故障的處理,和剛才前端上傳故障處理的思路類似,如果出現(xiàn)故障,下一次合并從斷點繼續(xù)就好了,這一次的邏輯從前端搬到了后端來做,也是通過redis來記錄。

    /**
     * 合并分片文件
     *
     * @param fileName
     * @param chunkCount
     * @return
     */
    @Override
    public String mergeTmpFiles(String fileMd5, String fileName, Integer chunkCount, String userId) throws IOException {
        //記錄本次合并的字節(jié)數(shù)
        long count = 0;
        //獲取分片索引號的起始地址
        int start = 0 ;
        String countKey = fileMd5+"-count";
        if (!redisTemplate.hasKey(countKey)) {
            redisTemplate.opsForHash().put(countKey, "count", "0");
        }else {
            start = Integer.parseInt(redisTemplate.opsForHash().get(countKey, "count").toString());
            start++;
        }
        //記錄分片文件的總大小
        for (int i = start; i < chunkCount; i++) {
            //讀取分片文件
            String filePath = tempPath + fileMd5 + "_" + i + ".tmp";
            File file = new File(filePath);
            if (!file.exists()) {
                //需要排除redis造成的異常情況
                redisTemplate.opsForSet().remove(fileMd5, i);
                log.info("缺失索引編號", i);
                throw new ServiceException("文件分片缺失");
            } else {
                count += file.length();
            }
            //使用緩沖流讀取到內(nèi)存中
            byte[] data = new byte[(int) file.length()];
            FileInputStream inputStream = new FileInputStream(file);
            inputStream.read(data);
            inputStream.close();
            //保存文件到文件夾中
            file = new File(endPath + fileMd5 + "." + getFileExtension(fileName));
            FileOutputStream outputStream = new FileOutputStream(file, true);
            outputStream.write(data);
            outputStream.close();
            //刪除碎片文件
            File temp = new File(filePath);
            temp.delete();
            //記錄合并進度
            redisTemplate.opsForHash().put(countKey, "count", i);
        }
        //記錄文件保存數(shù)據(jù)
        MyFile myFile = new MyFile();
        myFile.setId(userId + DateTimeUtil.getTimeStamp());
        myFile.setFileName(fileName);
        myFile.setUser(userId);
        myFile.setFileMd5(fileMd5);
        File file = new File(endPath + fileMd5 + "." + getFileExtension(fileName));
        myFile.setFileSize(file.length());
        myFile.setTime(LocalDateTime.parse(DateTimeUtil.getDateTime(), DateTimeFormatter.ofPattern("yyyy-MM-dd HH:mm:ss")));
        fileMapper.insert(myFile);
        //刪除各類緩存數(shù)據(jù)
        redisTemplate.delete(countKey);
        redisTemplate.delete(fileMd5);
        //返回處理結(jié)果
        return fileName + "  此次合并:" + count + "字節(jié)";
    }

好啦!分片上傳,斷點上傳,秒傳等功能已經(jīng)全部實現(xiàn)啦!合并文件或者故障處理等都已經(jīng)自己在后端打斷點測試過,可靠性較高。在本地跑用的是8核+24G配置,沒有出過什么故障,但是上傳到本人2核+2G的機器上,超過100M的文件,偶爾合并會出現(xiàn)故障,但是通過合并的故障處理,我們可以讓前端如果合并失敗的話,再次發(fā)起合并請求即可,目前還沒有出現(xiàn)過連續(xù)合并請求兩次都不成功的,而且第二次合并請求也是在斷點的基礎(chǔ)上進行的,沒有白費消耗。

以上就是基于SpringBoot和Vue實現(xiàn)的分片上傳系統(tǒng)的詳細內(nèi)容,更多關(guān)于SpringBoot Vue分片上傳系統(tǒng)的資料請關(guān)注腳本之家其它相關(guān)文章!

相關(guān)文章

  • Spring AOP統(tǒng)一功能處理示例代碼

    Spring AOP統(tǒng)一功能處理示例代碼

    AOP面向切面編程,它是一種思想,它是對某一類事情的集中處理,而AOP是一種思想,而Spring AOP是一個框架,提供了一種對AOP思想的實現(xiàn),它們的關(guān)系和loC與DI類似,這篇文章主要介紹了Spring AOP統(tǒng)一功能處理示例代碼,需要的朋友可以參考下
    2023-01-01
  • 淺析Java?BigDecimal為什么可以不丟失精度

    淺析Java?BigDecimal為什么可以不丟失精度

    在金融領(lǐng)域,為了保證數(shù)據(jù)的精度,往往會使用BigDecimal,所以這篇文章主要來和大家探討下為什么BigDecimal可以保證精度不丟失,感興趣的可以了解下
    2024-03-03
  • 為什么Java項目中別用!=null做判空

    為什么Java項目中別用!=null做判空

    本文主要介紹了為什么Java項目中別用!=null做判空,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2023-04-04
  • Java發(fā)送post方法詳解

    Java發(fā)送post方法詳解

    這篇文章主要介紹了Java發(fā)送post方法,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2019-04-04
  • mybatis-plus如何使用mapper的xml

    mybatis-plus如何使用mapper的xml

    這篇文章主要介紹了mybatis-plus如何使用mapper的xml問題,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教
    2023-06-06
  • springboot項目讀取resources目錄下的文件的9種方式

    springboot項目讀取resources目錄下的文件的9種方式

    本文主要介紹了springboot項目讀取resources目錄下的文件的9種方式,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2023-04-04
  • springmvc url處理映射的三種方式集合

    springmvc url處理映射的三種方式集合

    這篇文章主要介紹了springmvc url處理映射的三種方式集合,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教
    2021-08-08
  • Java實戰(zhàn)個人博客系統(tǒng)的實現(xiàn)流程

    Java實戰(zhàn)個人博客系統(tǒng)的實現(xiàn)流程

    讀萬卷書不如行萬里路,只學書上的理論是遠遠不夠的,只有在實戰(zhàn)中才能獲得能力的提升,本篇文章手把手帶你用java+springboot+mybatis+redis+vue+elementui+Mysql實現(xiàn)一個個人博客系統(tǒng),大家可以在過程中查缺補漏,提升水平
    2022-01-01
  • 基于SpringBoot框架管理Excel和PDF文件類型

    基于SpringBoot框架管理Excel和PDF文件類型

    這篇文章主要介紹了基于SpringBoot框架,管理Excel和PDF文件類型,本文給大家介紹的非常詳細,具有一定的參考借鑒價值,需要的朋友可以參考下
    2020-02-02
  • Java用文件流下載網(wǎng)絡(luò)文件示例代碼

    Java用文件流下載網(wǎng)絡(luò)文件示例代碼

    這篇文章主要介紹了Java用文件流的方式下載網(wǎng)絡(luò)文件,大家參考使用吧
    2013-11-11

最新評論