亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么用Vue+NodeJS實現大文件上傳

發布時間:2022-05-19 09:13:48 來源:億速云 閱讀:189 作者:iii 欄目:開發技術

本文小編為大家詳細介紹“怎么用Vue+NodeJS實現大文件上傳”,內容詳細,步驟清晰,細節處理妥當,希望這篇“怎么用Vue+NodeJS實現大文件上傳”文章能幫助大家解決疑惑,下面跟著小編的思路慢慢深入,一起來學習新知識吧。

常見的文件上傳方式可能就是new一個FormData,把文件append進去以后post給后端就可以了。但如果采用這種方式來上傳大文件就很容易產生上傳超時的問題,而且一旦失敗還得從新開始,在漫長的等待過程中用戶還不能刷新瀏覽器,不然前功盡棄。因此這類問題一般都是通過切片上傳。

整體思路

  • 將文件切成多個小文件

  • hash計算,需要計算一個文件的唯一標識,這樣下次再傳,就能篩選出剩余的切片進行上傳。

  • 所有切片上傳后,通知服務端進行切片合成

  • 上傳成功通知前端文件路徑

  • 整個過程如果出現失敗,下次再傳時,由于之前計算過文件hash,可以篩選出未傳數的切片續傳(斷點續傳); 如果整個文件已經上傳過,就不需要傳輸(秒傳)

項目演示

這里用vue和node分別搭建前端和后端

前端界面

fileUpload.vue

<template>
    <div class="wrap">
        <div >
           <el-upload
             ref="file"
             :http-request="handleFileUpload"
             action="#"
             class="avatar-uploader"
             :show-file-list='false'
           >
               <el-button type="primary">上傳文件</el-button>
           </el-upload>
           <div>
               <div>計算hash的進度:</div>
              <el-progress :stroke-width="20" :text-inside="true" :percentage="hashProgress"></el-progress> 
           </div>
           <div>
               <div>上傳進度:</div>
              <el-progress :stroke-width="20" :text-inside="true" :percentage="uploaedProgress"></el-progress> 
           </div>
        </div>
    </div>
</template>

怎么用Vue+NodeJS實現大文件上傳

文件切片

利用 File.prototype.slice 的方法可以對文件進行切片 fileUpload.vue

    const CHUNK_SIZE=1024*1024//每個切片為1M
    import sparkMD5 from 'spark-md5'
    export default {
        name:'file-upload',
        data(){
            return {
              file:null,//上傳的文件
              chunks:[],//切片
              hashProgress:0,//hash值計算進度
              hash:''
            }
        },
        methods:{
            async handleFileUpload(e){
              if(!file){
                  return 
              }
              this.file=file
              this.upload()
            },
            //文件上傳
            async upload(){
             //切片
             const chunks=this.createFileChunk(this.file)
            //...
            //hash計算
              const hash=await this.calculateHash2(chunks)
            }
           },
            //文件切片
             createFileChunk(size=CHUNK_SIZE){
              const chunks=[];
              let cur=0;
              const maxLen=Math.ceil(this.file.size/CHUNK_SIZE)
              while(cur<maxLen){
                 const start=cur*CHUNK_SIZE;
                 const end = ((start + CHUNK_SIZE) >= this.file.size) ? this.file.size : start + CHUNK_SIZE;
                 chunks.push({index:cur,file:this.file.slice(start,end)})
                 cur++
              }
              return chunks
            },
        
    }

hash計算

利用md5可以計算出文件唯一的hash值

這里可以使用 spark-md5 這個庫可以增量計算文件的hash值

calculateHash2(chunks){
   const spark=new sparkMD5.ArrayBuffer()
   let count =0
   const len=chunks.length
   let hash
   const self=this
   const startTime = new Date().getTime()
   return new Promise((resolve)=>{
        const loadNext=index=>{
            const reader=new FileReader()
            //逐片讀取文件切片
            reader.readAsArrayBuffer(chunks[index].file)
            reader.onload=function(e){
                const endTime=new Date().getTime()
                chunks[count]={...chunks[count],time:endTime-startTime}
                count++
                //讀取成功后利用spark做增量計算
                spark.append(e.target.result)
                if(count==len){
                    self.hashProgress=100
                    //返回整個文件的hash
                     hash=spark.end()
                     resolve(hash)
                }else{
                    //更新hash計算進度
                    self.hashProgress+=100/len
                    loadNext(index+1)
                }
            }
        }
        loadNext(0)
   })

},

怎么用Vue+NodeJS實現大文件上傳

可以看到整個過程還是比較費時間的,有可能會導致UI阻塞(卡),因此可以通過webwork等手段優化這個過程,這點我們放在最后討論

查詢切片狀態

在知道了文件的hash值以后,在上傳切片前我們還要去后端查詢下文件的上傳狀態,如果已經上傳過,那就沒有必要再上傳,如果只上傳了一部分,那就上傳還沒有上過過的切片(斷點續傳)

前端 fileUpload.vue

//...
methods:{
//...
async upload(){
//...切片,計算hash
this.hash=hash
//查詢是否上傳 將hash和后綴作為參數傳入
this.$http.post('/checkfile',{
  hash,
  ext:this.file.name.split('.').pop()
})
.then(res=>{
  //接口會返回兩個值 uploaded:Boolean 表示整個文件是否上傳過 和 uploadedList 哪些切片已經上傳
   const {uploaded,uploadedList}=res.data
   //如果已經上傳過,直接提示用戶(秒傳)
    if(uploaded){
        return  this.$message.success('秒傳成功')
    }
  //這里我們約定上傳的每個切片名字都是 hash+‘-'+index
    this.chunks=chunks.map((chunk,index)=>{
        const name=hash+'-'+index
        const isChunkUploaded=(uploadedList.includes(name))?true:false//當前切片是否有上傳
        return {
            hash,
            name,
            index,
            chunk:chunk.file,
            progress:isChunkUploaded?100:0//當前切片上傳進度,如果有上傳即為100 否則為0,這是用來之后計算總體上傳進度
        }
    })
    //上傳切片
    this.uploadChunks(uploadedList)
  })
 }
 
}

文件切片 this.chunks

怎么用Vue+NodeJS實現大文件上傳

服務端 server/index.js

const Koa=require('koa')
const Router=require('koa-router')
const koaBody = require('koa-body');
const path=require('path')
const fse=require('fs-extra')
const app=new Koa()
const router=new Router()
//文件存放在public下
const UPLOAD_DIR=path.resolve(__dirname,'public')
app.use(koaBody({
    multipart:true, // 支持文件上傳
}));


router.post('/checkfile',async (ctx)=>{
    const body=ctx.request.body;
    const {ext,hash}=body
    //合成后的文件路徑 文件名 hash.ext
    const filePath=path.resolve(UPLOAD_DIR,`${hash}.${ext}`)
    let uploaded=false
    let uploadedList=[]
    //判斷文件是否已上傳
    if(fse.existsSync(filePath)){
      uploaded=true
    }else{
    //所有已經上傳過的切片被存放在 一個文件夾,名字就是該文件的hash值
      uploadedList=await getUploadedList(path.resolve(UPLOAD_DIR,hash))
    }
    ctx.body={
      code:0,
      data:{
        uploaded,
        uploadedList
      }
    }
})

async function getUploadedList(dirPath){
//將文件夾中的所有非隱藏文件讀取并返回
   return fse.existsSync(dirPath)?(await fse.readdir(dirPath)).filter(name=>name[0]!=='.'):[]
}

切片上傳(斷點續傳)

再得知切片上傳狀態后,就能篩選出需要上傳的切片來上傳。 前端 fileUpload.vue

uploadChunks(uploadedList){
 //每一個要上傳的切片變成一個請求
  const requests=this.chunks.filter(chunk=>!uploadedList.includes(chunk.name))
  .map((chunk,index)=>{
     const form=new FormData()
     //所有上傳的切片會被存放在 一個文件夾,文件夾名字就是該文件的hash值 因此需要hash和name
     form.append('chunk',chunk.chunk)
     form.append('hash',chunk.hash)
     form.append('name',chunk.name)
     //因為切片不一定是連續的,所以index需要取chunk對象中的index
     return {form,index:chunk.index,error:0}
  })//所有切片一起并發上傳
  .map(({form,index})=>{
      return this.$http.post('/uploadfile',form,{
          onUploadProgress:progress=>{
              this.chunks[index].progress=Number(((progress.loaded/progress.total)*100).toFixed(2)) //當前切片上傳的進度
          }
      })
  })

  Promise.all(requests).then((res)=>{
   //所有請求都成功后發送請求給服務端合并文件
    this.mergeFile()
  })

},

服務端

router.post('/uploadfile',async (ctx)=>{
  const body=ctx.request.body
  const file=ctx.request.files.chunk
  const {hash,name}=body
 //切片存放的文件夾所在路徑
  const chunkPath=path.resolve(UPLOAD_DIR,hash)
  if(!fse.existsSync(chunkPath)){
      await fse.mkdir(chunkPath)
  }
 //將文件從臨時路徑里移動到文件夾下
  await fse.move(file.filepath,`${chunkPath}/${name}`)
  

  ctx.body={
    code:0,
    message:`切片上傳成功`
   } 

})

上傳后切片保存的位置

怎么用Vue+NodeJS實現大文件上傳

文件總體上傳進度

總體上傳進度取決于每個切片上傳的進度和文件總體大小,可以通過計算屬性來實現

fileUpload.vue

uploaedProgress(){
    if(!this.file || !this.chunks.length){
        return 0
    }
    //累加每個切片已上傳的部分
   const loaded =this.chunks.map(chunk=>{
       const size=chunk.chunk.size
       const chunk_loaded=chunk.progress/100*size
       return chunk_loaded
    }).reduce((acc,cur)=>acc+cur,0)

   return parseInt(((loaded*100)/this.file.size).toFixed(2))
},

合并文件

前端 fileUpload.vue

//要傳給服務端文件后綴,切片的大小和hash值
mergeFile(){
    this.$http.post('/mergeFile',{
        ext:this.file.name.split('.').pop(),
        size:CHUNK_SIZE,
        hash:this.hash
    }).then(res=>{
        if(res && res.data){
            console.log(res.data)
        }
    })
},

服務端

router.post('/mergeFile',async (ctx)=>{
  const body=ctx.request.body
  const {ext,size,hash}=body
  //文件最終路徑
  const filePath=path.resolve(UPLOAD_DIR,`${hash}.${ext}`)
  await mergeFile(filePath,size,hash)
  ctx.body={
     code:0,
     data:{
         url:`/public/${hash}.${ext}`
     }
  }
})

async function mergeFile(filePath,size,hash){
  //保存切片的文件夾地址
  const chunkDir=path.resolve(UPLOAD_DIR,hash)
  //讀取切片
  let chunks=await fse.readdir(chunkDir)
  //切片要按順序合并,因此需要做個排序
  chunks=chunks.sort((a,b)=>a.split('-')[1]-b.split('-')[1])
  //切片的絕對路徑
  chunks=chunks.map(cpath=>path.resolve(chunkDir,cpath))
  await mergeChunks(chunks,filePath,size)
}

//邊讀邊寫至文件最終路徑
function mergeChunks(files,dest,CHUNK_SIZE){
  const pipeStream=(filePath,writeStream)=>{
    return new Promise((resolve,reject)=>{
        const readStream=fse.createReadStream(filePath)
        readStream.on('end',()=>{
            //每一個切片讀取完畢后就將其刪除
            fse.unlinkSync(filePath)
            resolve()
        })
        readStream.pipe(writeStream)
    })

  }

  const pipes=files.map((file,index) => {
  return pipeStream(file,fse.createWriteStream(dest,{
        start:index*CHUNK_SIZE,
        end:(index+1)*CHUNK_SIZE
    }))
  });
  return Promise.all(pipes)

}

大文件切片上傳的功能已經實現,讓我們來看下效果(這里順便展示一下單個切片的上傳進度)

怎么用Vue+NodeJS實現大文件上傳

可以看到由于大量的切片請求并發上傳,雖然瀏覽器本身對同時并發的請求數有所限制(可以看到許多請求是pending狀態),但還是造成了卡頓,因此這個流程還是需要做一個優化

優化

請求并發數控制

fileUpload.vue

逐片上傳

這也是最直接的一種做法,可以看作是并發請求的另一個極端,上傳成功一個再上傳第二個,這里還要處理一下錯誤重試,如果連續失敗3次,整個上傳過程終止

uploadChunks(uploadedList){
  console.log(this.chunks)
  const requests=this.chunks.filter(chunk=>!uploadedList.includes(chunk.name))
  .map((chunk,index)=>{
     const form=new FormData()
     form.append('chunk',chunk.chunk)
     form.append('hash',chunk.hash)
     form.append('name',chunk.name)
     return {form,index:chunk.index,error:0}
  })
//   .map(({form,index})=>{
//       return this.$http.post('/uploadfile',form,{
//           onUploadProgress:progress=>{
//               this.chunks[index].progress=Number(((progress.loaded/progress.total)*100).toFixed(2))
//           }
//       })
//   })
// //   console.log(requests)
//   Promise.all(requests).then((res)=>{
//     console.log(res)
//     this.mergeFile()
//   })

  const sendRequest=()=>{
      return new Promise((resolve,reject)=>{
            const upLoadReq=(i)=>{
                const req=requests[i]
                const {form,index}=req
                this.$http.post('/uploadfile',form,{
                    onUploadProgress:progress=>{
                        this.chunks[index].progress=Number(((progress.loaded/progress.total)*100).toFixed(2))
                    }
                })
                .then(res=>{
                    //最后一片上傳成功,整個過程完成
                    if(i==requests.length-1){
                        resolve()
                        return
                    }
                    upLoadReq(i+1)
                })
                .catch(err=>{
                    this.chunks[index].progress=-1
                    if(req.error<3){
                        req.error++
                        //錯誤累加后重試
                        upLoadReq(i)
                    }else{
                        reject()
                    }
                })
           }
           upLoadReq(0)

      })


  }
  //整個過程成功后再合并文件
  sendRequest()
  .then(()=>{
     this.mergeFile()
  })

},

怎么用Vue+NodeJS實現大文件上傳

可以看到每次只有一個上傳請求

最終生成的文件

怎么用Vue+NodeJS實現大文件上傳

多個請求并發

逐個請求的確是可以解決卡頓的問題,但是效率有點低,我們還可以在這個基礎上做到有限個數的并發

一般這種問題的思路就是要形成一個任務隊列,開始的時候先從requests中取出指定并發數的請求對象(假設是3個)塞滿隊列并各自開始請求任務,每一個任務結束后將該任務關閉退出隊列然后再從request說中取出一個元素加入隊列并執行,直到requests清空,這里如果某一片請求失敗的話那還要再塞入request隊首,這樣下次執行時還能從這個請求開始達到了重試的目的

async uploadChunks(uploadedList){
  console.log(this.chunks)
  const requests=this.chunks.filter(chunk=>!uploadedList.includes(chunk.name))
  .map((chunk,index)=>{
     const form=new FormData()
     form.append('chunk',chunk.chunk)
     form.append('hash',chunk.hash)
     form.append('name',chunk.name)
     return {form,index:chunk.index,error:0}
  })


const sendRequest=(limit=1,task=[])=>{
    let count=0 //用于記錄請求成功次數當其等于len-1時所有切片都已上傳成功
    let isStop=false //標記錯誤情況,如果某一片錯誤數大于3整個任務標記失敗 并且其他并發的請求憑次標記也不在遞歸執行
    const len=requests.length
    return new Promise((resolve,reject)=>{
            const upLoadReq=()=>{
                if(isStop){
                    return
                }
                const req=requests.shift()
                if(!req){
                    return
                }
                const {form,index}=req
                this.$http.post('/uploadfile',form,{
                    onUploadProgress:progress=>{
                        this.chunks[index].progress=Number(((progress.loaded/progress.total)*100).toFixed(2))
                    }
                })
                .then(res=>{
                    //最后一片
                    if(count==len-1){
                    resolve()
                    }else{
                    count++
                    upLoadReq()
                    }
                })
                .catch(err=>{
                    this.chunks[index].progress=-1
                    if(req.error<3){
                        req.error++
                        requests.unshift(req)
                        upLoadReq()
                    }else{
                        isStop=true
                        reject()
                    }
                })
            }

            while(limit>0){
              //模擬形成了一個隊列,每次結束再遞歸執行下一個任務
              upLoadReq()
              limit--
            }
    })

}

   sendRequest(3).then(res=>{
      console.log(res)
      this.mergeFile()
   })

},

hash值計算優化

除了請求并發需要控制意外,hash值的計算也需要關注,雖然我們采用了增量計算的方法,但是可以看出依舊比較費時,也有可能會阻塞UI

webWork

這相當于多開了一個線程,讓hash計算在新的線程中計算,然后將結果通知會主線程

calculateHashWork(chunks){
   return new Promise((resolve)=>{
      //這個js得獨立于項目之外
      this.worker=new worker('/hash.js')
      //切片傳入現成
      this.worker.postMessage({chunks})
      this.worker.onmessage=e=>{
      //線程中返回的進度和hash值
       const {progress,hash}=e.data
       this.hashProgress=Number(progress.toFixed(2))
       if(hash){
        resolve(hash)
       
       }
       
     }
   })
},

hash.js

//獨立于項目之外,得單獨

// 引入spark-md5

self.importScripts('spark-md5.min.js')


self.onmessage = e=>{
  // 接受主線程傳遞的數據,開始計算
  const {chunks } = e.data
  const spark = new self.SparkMD5.ArrayBuffer()

  let progress = 0
  let count = 0

  const loadNext = index=>{
    const reader = new FileReader()
    reader.readAsArrayBuffer(chunks[index].file)
    reader.onload = e=>{
      count ++
      spark.append(e.target.result)

      if(count==chunks.length){
      //向主線程返回進度和hash
        self.postMessage({
          progress:100,
          hash:spark.end()
        })
      }else{
        progress += 100/chunks.length
        //向主線程返回進度
        self.postMessage({
          progress
        })
        loadNext(count)
      }
    }
  }
  loadNext(0)
}

時間切片

還有一種做法就是借鑒react fiber架構,可以通過時間切片的方式在瀏覽器空閑的時候計算hash值,這樣瀏覽器的渲染是聯系的,就不會出現明顯卡頓

calculateHashIdle(chunks){
    return new Promise(resolve=>{
        const spark=new sparkMD5.ArrayBuffer()
        let count=0
        const appendToSpark=async file=>{
            return new Promise(resolve=>{
                const reader=new FileReader()
                reader.readAsArrayBuffer(file)
                reader.onload=e=>{
                    spark.append(e.target.result)
                    resolve()
                }
            })
        }

        const workLoop=async deadline=>{
        //當切片沒有讀完并且瀏覽器有剩余時間
            while(count<chunks.length && deadline.timeRemaining()>1){
                await appendToSpark(chunks[count].file)
                count++
                if(count<chunks.length){
                    this.hashProgress=Number(((100*count)/chunks.length).toFixed(2))
                }else{
                    this.hashProgress=100
                    const hash=spark.end()
                    resolve(hash)
                }
            }
            window.requestIdleCallback(workLoop)
        }
        window.requestIdleCallback(workLoop)
    })
}

讀到這里,這篇“怎么用Vue+NodeJS實現大文件上傳”文章已經介紹完畢,想要掌握這篇文章的知識點還需要大家自己動手實踐使用過才能領會,如果想了解更多相關內容的文章,歡迎關注億速云行業資訊頻道。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

高碑店市| 平远县| 驻马店市| 安阳市| 岗巴县| 敦化市| 包头市| 塔河县| 巴青县| 昭苏县| 镶黄旗| 朔州市| 象山县| 庆安县| 六盘水市| 安达市| 逊克县| 获嘉县| 临沭县| 苍山县| 铁岭县| 威宁| 永善县| 潼南县| 双城市| 玛曲县| 邓州市| 鄂托克前旗| 郓城县| 嘉义市| 开封市| 手游| 铁力市| 巴南区| 平安县| 芜湖市| 宜川县| 镇原县| 突泉县| 高邑县| 澳门|