亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb

首頁 > 開發 > JS > 正文

基于Node.js的大文件分片上傳示例

2024-05-06 16:52:24
字體:
來源:轉載
供稿:網友

我們在做文件上傳的時候,如果文件過大,可能會導致請求超時的情況。所以,在遇到需要對大文件進行上傳的時候,就需要對文件進行分片上傳的操作。同時如果文件過大,在網絡不佳的情況下,如何做到斷點續傳?也是需要記錄當前上傳文件,然后在下一次進行上傳請求的時候去做判斷。

先上代碼:代碼倉庫地址

前端

1. index.html

<!DOCTYPE html><html lang="en"><head>  <meta charset="UTF-8">  <meta name="viewport" content="width=device-width, initial-scale=1.0">  <meta http-equiv="X-UA-Compatible" content="ie=edge">  <title>文件上傳</title>  <script src="https://cdn.bootcss.com/axios/0.18.0/axios.min.js"></script>  <script src="https://code.jquery.com/jquery-3.4.1.js"></script>  <script src="./spark-md5.min.js"></script>  <script>    $(document).ready(() => {      const chunkSize = 1 * 1024 * 1024; // 每個chunk的大小,設置為1兆      // 使用Blob.slice方法來對文件進行分割。      // 同時該方法在不同的瀏覽器使用方式不同。      const blobSlice =        File.prototype.slice || File.prototype.mozSlice || File.prototype.webkitSlice;      const hashFile = (file) => {        return new Promise((resolve, reject) => {                    const chunks = Math.ceil(file.size / chunkSize);          let currentChunk = 0;          const spark = new SparkMD5.ArrayBuffer();          const fileReader = new FileReader();          function loadNext() {            const start = currentChunk * chunkSize;            const end = start + chunkSize >= file.size ? file.size : start + chunkSize;            fileReader.readAsArrayBuffer(blobSlice.call(file, start, end));          }          fileReader.onload = e => {            spark.append(e.target.result); // Append array buffer            currentChunk += 1;            if (currentChunk < chunks) {              loadNext();            } else {              console.log('finished loading');              const result = spark.end();              // 如果單純的使用result 作為hash值的時候, 如果文件內容相同,而名稱不同的時候              // 想保留兩個文件無法保留。所以把文件名稱加上。              const sparkMd5 = new SparkMD5();              sparkMd5.append(result);              sparkMd5.append(file.name);              const hexHash = sparkMd5.end();              resolve(hexHash);            }          };          fileReader.onerror = () => {            console.warn('文件讀取失敗!');          };          loadNext();        }).catch(err => {          console.log(err);        });      }      const submitBtn = $('#submitBtn');      submitBtn.on('click', async () => {        const fileDom = $('#file')[0];        // 獲取到的files為一個File對象數組,如果允許多選的時候,文件為多個        const files = fileDom.files;        const file = files[0];        if (!file) {          alert('沒有獲取文件');          return;        }        const blockCount = Math.ceil(file.size / chunkSize); // 分片總數        const axiosPromiseArray = []; // axiosPromise數組        const hash = await hashFile(file); //文件 hash         // 獲取文件hash之后,如果需要做斷點續傳,可以根據hash值去后臺進行校驗。        // 看看是否已經上傳過該文件,并且是否已經傳送完成以及已經上傳的切片。        console.log(hash);                for (let i = 0; i < blockCount; i++) {          const start = i * chunkSize;          const end = Math.min(file.size, start + chunkSize);          // 構建表單          const form = new FormData();          form.append('file', blobSlice.call(file, start, end));          form.append('name', file.name);          form.append('total', blockCount);          form.append('index', i);          form.append('size', file.size);          form.append('hash', hash);          // ajax提交 分片,此時 content-type 為 multipart/form-data          const axiosOptions = {            onUploadProgress: e => {              // 處理上傳的進度              console.log(blockCount, i, e, file);            },          };          // 加入到 Promise 數組中          axiosPromiseArray.push(axios.post('/file/upload', form, axiosOptions));        }        // 所有分片上傳后,請求合并分片文件        await axios.all(axiosPromiseArray).then(() => {          // 合并chunks          const data = {            size: file.size,            name: file.name,            total: blockCount,            hash          };          axios            .post('/file/merge_chunks', data)            .then(res => {              console.log('上傳成功');              console.log(res.data, file);              alert('上傳成功');            })            .catch(err => {              console.log(err);            });        });      });    })        window.onload = () => {    }  </script></head><body>  <h1>大文件上傳測試</h1>  <section>    <h3>自定義上傳文件</h3>    <input id="file" type="file" name="avatar"/>    <div>      <input id="submitBtn" type="button" value="提交">    </div>  </section></body></html>

2. 依賴的文件
axios.js 
jquery 
spark-md5.js

后端

1. app.js

const Koa = require('koa');const app = new Koa();const Router = require('koa-router');const multer = require('koa-multer');const serve = require('koa-static');const path = require('path');const fs = require('fs-extra');const koaBody = require('koa-body');const { mkdirsSync } = require('./utils/dir');const uploadPath = path.join(__dirname, 'uploads');const uploadTempPath = path.join(uploadPath, 'temp');const upload = multer({ dest: uploadTempPath });const router = new Router();app.use(koaBody());/** * single(fieldname) * Accept a single file with the name fieldname. The single file will be stored in req.file. */router.post('/file/upload', upload.single('file'), async (ctx, next) => {  console.log('file upload...')  // 根據文件hash創建文件夾,把默認上傳的文件移動當前hash文件夾下。方便后續文件合并。  const {    name,    total,    index,    size,    hash  } = ctx.req.body;  const chunksPath = path.join(uploadPath, hash, '/');  if(!fs.existsSync(chunksPath)) mkdirsSync(chunksPath);  fs.renameSync(ctx.req.file.path, chunksPath + hash + '-' + index);  ctx.status = 200;  ctx.res.end('Success');})router.post('/file/merge_chunks', async (ctx, next) => {  const {    size, name, total, hash  } = ctx.request.body;  // 根據hash值,獲取分片文件。  // 創建存儲文件  // 合并  const chunksPath = path.join(uploadPath, hash, '/');  const filePath = path.join(uploadPath, name);  // 讀取所有的chunks 文件名存放在數組中  const chunks = fs.readdirSync(chunksPath);  // 創建存儲文件  fs.writeFileSync(filePath, '');   if(chunks.length !== total || chunks.length === 0) {    ctx.status = 200;    ctx.res.end('切片文件數量不符合');    return;  }  for (let i = 0; i < total; i++) {    // 追加寫入到文件中    fs.appendFileSync(filePath, fs.readFileSync(chunksPath + hash + '-' +i));    // 刪除本次使用的chunk    fs.unlinkSync(chunksPath + hash + '-' +i);  }  fs.rmdirSync(chunksPath);  // 文件合并成功,可以把文件信息進行入庫。  ctx.status = 200;  ctx.res.end('合并成功');})app.use(router.routes());app.use(router.allowedMethods());app.use(serve(__dirname + '/static'));app.listen(9000);

2. utils/dir.js

const path = require('path');const fs = require('fs-extra');const mkdirsSync = (dirname) => {  if(fs.existsSync(dirname)) {    return true;  } else {    if (mkdirsSync(path.dirname(dirname))) {      fs.mkdirSync(dirname);      return true;    }  }}module.exports = {  mkdirsSync};

操作步驟說明

服務端的搭建

我們以下的操作都是保證在已經安裝node以及npm的前提下進行。node的安裝以及使用可以參考官方網站。

1、新建項目文件夾file-upload

2、使用npm初始化一個項目:cd file-upload && npm init

3、安裝相關依賴

  npm i koa  npm i koa-router --save  // Koa路由  npm i koa-multer --save  // 文件上傳處理模塊  npm i koa-static --save  // Koa靜態資源處理模塊  npm i fs-extra --save   // 文件處理  npm i koa-body --save   // 請求參數解析

4、創建項目結構

  file-upload    - static      - index.html      - spark-md5.min.js    - uploads      - temp    - utils      - dir.js    - app.js

5、復制相應的代碼到指定位置即可

6、項目啟動:node app.js (可以使用 nodemon 來對服務進行管理)

7、訪問:http://localhost:9000/index.html

其中細節部分代碼里有相應的注釋說明,瀏覽代碼就一目了然。

后續延伸:斷點續傳、多文件多批次上傳

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持VeVb武林網。


注:相關教程知識閱讀請移步到JavaScript/Ajax教程頻道。
發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb
国产成人一区二区三区| 欧美另类极品videosbest最新版本| 日韩免费在线免费观看| 国产精品久久久久久久久久ktv| 亚洲天天在线日亚洲洲精| 亚洲一区二区三区sesese| 亚洲成色777777女色窝| 欧美日韩人人澡狠狠躁视频| 亚洲丁香久久久| 91精品国产乱码久久久久久久久| 日韩中文字幕国产精品| 欧美久久精品午夜青青大伊人| 国产成人免费av| 国产精品久久久久久av| 色偷偷91综合久久噜噜| 久久精品免费电影| 日韩亚洲成人av在线| 亚洲自拍偷拍第一页| 日韩av电影院| 亚洲另类欧美自拍| 亚洲第一二三四五区| 成人看片人aa| 91欧美激情另类亚洲| 国产精品自产拍高潮在线观看| 九九精品视频在线观看| 最近2019中文字幕在线高清| 久久成人人人人精品欧| 欧美日韩中文字幕在线| 久久五月情影视| 亚洲国产精品专区久久| 亚洲国产高清福利视频| 91av成人在线| 91亚洲人电影| 欧美性极品xxxx做受| 亚洲一区二区免费| 久久精品最新地址| 久久亚洲一区二区三区四区五区高| 国产精品一区二区三区久久| 大胆欧美人体视频| 中文字幕亚洲在线| 亚洲国产小视频| 一区二区三区四区视频| 日韩国产激情在线| 亚洲区在线播放| 国产精品av在线播放| 九九热r在线视频精品| 久久天天躁狠狠躁夜夜爽蜜月| 亚洲精品99999| 久久99热精品| 色yeye香蕉凹凸一区二区av| 91高潮精品免费porn| 久久精品小视频| 亚洲精品91美女久久久久久久| 国产精品久久久久久久一区探花| 亚洲视频在线免费看| 欧美黑人巨大xxx极品| 91经典在线视频| 欧美午夜片欧美片在线观看| 成人乱色短篇合集| 欧美激情xxxxx| 欧美成人免费va影院高清| 国产成人精品亚洲精品| 97精品视频在线观看| 国产精品99久久99久久久二8| 国产精品观看在线亚洲人成网| 亚洲欧美国产一本综合首页| 91最新在线免费观看| 亚洲欧美日韩一区二区三区在线| 国产成人97精品免费看片| 欧美性做爰毛片| 亚洲国产小视频| 亚洲最大福利视频网站| 亚洲图片欧美日产| 国产精品青草久久久久福利99| 日韩精品www| 国产丝袜高跟一区| 国产在线视频2019最新视频| 欧美日韩国产综合视频在线观看中文| 久久久久久久国产精品视频| 热久久99这里有精品| 日韩女优人人人人射在线视频| 久久不射热爱视频精品| 欧美亚洲视频一区二区| 亚洲国产99精品国自产| 在线视频欧美日韩精品| 日韩国产欧美区| 欧美疯狂做受xxxx高潮| 91视频8mav| 欧美激情精品久久久久久大尺度| 久久av红桃一区二区小说| 久久久国产影院| 欧美日韩久久久久| 日本sm极度另类视频| 在线精品国产成人综合| 欧美日本黄视频| 一个色综合导航| 国产精品成人播放| 国产69久久精品成人看| 黑人巨大精品欧美一区免费视频| 欧美日韩视频免费播放| 久久天堂av综合合色| 亚洲女成人图区| 国产美女精彩久久| 欧美性xxxxx极品| 岛国精品视频在线播放| 亚洲白拍色综合图区| 国产玖玖精品视频| 日本成人激情视频| 国产亚洲欧美日韩美女| 久久亚洲精品国产亚洲老地址| 欧美日韩国产色视频| 91av在线看| 亚洲欧美国内爽妇网| 亚洲色图欧美制服丝袜另类第一页| 亚洲加勒比久久88色综合| 91国内精品久久| 日本最新高清不卡中文字幕| 亚洲乱码一区av黑人高潮| 亚洲3p在线观看| 国产精品夜间视频香蕉| 欧美日韩性视频在线| 亚洲国产又黄又爽女人高潮的| 日本精品一区二区三区在线播放视频| 在线一区二区日韩| 欧美高清在线观看| 成人a在线视频| 在线中文字幕日韩| 在线观看免费高清视频97| 69视频在线免费观看| 在线电影欧美日韩一区二区私密| 日韩女优人人人人射在线视频| 欧美中文字幕在线观看| 日韩hd视频在线观看| 亚洲国产日韩欧美综合久久| 日韩av在线一区| 亚洲国产成人91精品| 精品人伦一区二区三区蜜桃网站| 精品一区二区三区四区在线| 亚洲激情在线观看| 欧美美最猛性xxxxxx| 欧美精品在线免费| 国产精品久久久久免费a∨大胸| 国产亚洲美女久久| 中文字幕av日韩| 中文字幕日韩在线观看| 伊人精品在线观看| 美女啪啪无遮挡免费久久网站| 亚洲第一福利在线观看| 亚洲摸下面视频| 亚洲va欧美va国产综合久久| 亚洲欧美综合v| 96国产粉嫩美女| 性色av一区二区三区红粉影视| 亚洲最大福利网站| 北条麻妃在线一区二区| 黑人巨大精品欧美一区二区| 91日韩在线视频| 欧美日本啪啪无遮挡网站| 色噜噜国产精品视频一区二区| 欧美成年人视频网站欧美| 国产亚洲人成网站在线观看| 国产精品美女久久久久久免费| 欧洲午夜精品久久久| 亚洲激情视频网站|