欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

JS實(shí)現(xiàn)audio音頻剪裁剪切復(fù)制播放與上傳(步驟詳解)

 更新時(shí)間:2020年07月28日 09:19:58   作者:張鑫旭  
這篇文章主要介紹了JS實(shí)現(xiàn)audio音頻剪裁剪切復(fù)制播放與上傳,本文分步驟通過實(shí)例代碼給大家介紹的非常詳細(xì),對大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下

 

背景是這樣的,用戶上傳音頻文件,可能只需要幾十秒就夠了,但是常規(guī)的音樂都要3~5分鐘,80%的流量都是不需要的,要是就這么傳上去,其實(shí)是流量的浪費(fèi),如果可以在前端就進(jìn)行剪裁,也就是只取前面一段時(shí)間的音頻,豈不是可以給公司省很多流量費(fèi)用,前端的業(yè)務(wù)價(jià)值就體現(xiàn)了。

關(guān)鍵如何實(shí)現(xiàn)呢?

下面,就以“截取用戶上傳音頻前3秒內(nèi)容”的需求示意下如何借助Web Audio API實(shí)現(xiàn)音頻的部分復(fù)制與播放功能。

一、不嗶嗶,直接正題

實(shí)現(xiàn)步驟如下。

1. File對象轉(zhuǎn)ArrayBuffer

在Web網(wǎng)頁中,用戶選擇的文件是個(gè)file對象,我們可以將這個(gè)文件對象轉(zhuǎn)換成Blob、ArrayBuffer或者Base64。

在音頻處理這里,都是使用ArrayBuffer這個(gè)數(shù)據(jù)類型。

代碼如下所示,假設(shè)file類型的文件選擇框的id是 'file' 。

file.onchange = function (event) {
 var file = event.target.files[0];
 // 開始識別
 var reader = new FileReader();
 reader.onload = function (event) {
 var arrBuffer = event.target.result;
 // arrBuffer就是包含音頻數(shù)據(jù)的ArrayBuffer對象
 });
 reader.readAsArrayBuffer(file);
};

使用的是 readAsArrayBuffer() 方法,無論是MP3格式、OGG格式還是WAV格式,都可以轉(zhuǎn)換成ArrayBuffer類型。

2. ArrayBuffer轉(zhuǎn)AudioBuffer

這里的ArrayBuffer相對于把音頻文件數(shù)組化了,大家可以理解為把音頻文件分解成一段一段的,塞進(jìn)了一個(gè)一個(gè)有地址的小屋子里,在計(jì)算機(jī)領(lǐng)域稱為“緩沖區(qū)”,就是單詞Buffer的意思。

所謂音頻的剪裁,其實(shí)就是希望可以復(fù)制音頻前面一段時(shí)間的內(nèi)容。

但是問題來了,ArrayBuffer里面的數(shù)據(jù)并沒有分類,統(tǒng)一分解了,想要準(zhǔn)確提取某一截音頻數(shù)據(jù),提取不出來。

所以,才需要轉(zhuǎn)換成AudioBuffer,純粹的音頻數(shù)據(jù),方便提取。

AudioBuffer是一個(gè)僅僅包含音頻數(shù)據(jù)的數(shù)據(jù)對象,是Web Audio API中的一個(gè)概念。

既然說到了Web Audio API,那我們就順便……順便……,想了想,還是不展開,因?yàn)樘嬰s了,這Web Audio API至少比Web Animation API復(fù)雜了10倍,API之多,體量之大,世間罕見,想要完全吃透了,沒有三年五載,啃不下來。

如果大家不是想要立志成為音視頻處理專家,僅僅是臨時(shí)解決一點(diǎn)小毛小病的問題,則不必深入,否則腦坑疼,使用MDN文檔中的一些案例東拼西湊,基本的效果也能弄出來。

扯遠(yuǎn)了,回到這里。

AudioBuffer大家可以理解為音樂數(shù)據(jù),那為什么叫AudioBuffer,不叫AudioData呢?

因?yàn)锽uffer是個(gè)專有名詞,直譯為緩沖區(qū),大家可以理解為高速公路,AudioBuffer處理數(shù)據(jù)更快,而且還有很多延伸的API,就像是高速公路上的服務(wù)區(qū),有吃有喝還有加油的地方。

AudioData一看名字就是鄉(xiāng)下土鱉,雖然接地氣,但是,處理好幾兆的數(shù)據(jù)的時(shí)候,就有些帶不動(dòng)了,就好像騎小電驢,在公速公路和鄉(xiāng)道縣道沒多大區(qū)別,但是如果是開跑車,嘖嘖,鄉(xiāng)下路就帶不動(dòng)了。

如何才能轉(zhuǎn)換成AudioBuffer呢?

使用AudioContext對象的 decodeAudioData() 方法,代碼如下:

var audioCtx = new AudioContext();

audioCtx.decodeAudioData(arrBuffer, function(audioBuffer) {
 // audioBuffer就是AudioBuffer
});

3. 復(fù)制AudioBuffer前3秒數(shù)據(jù)

AudioBuffer對象是一個(gè)音頻專用Buffer對象,包含很多音頻信息,包括:

duration
numberOfChannels
sampleRate

等。

包括一些音頻聲道數(shù)據(jù)處理方法,例如:

getChannelData()
copyFromChannel()
copyToChannel()

文檔見這里: https://developer.mozilla.org/en-US/docs/Web/API/AudioBuffer

所以,實(shí)現(xiàn)的原理很簡單,創(chuàng)建一個(gè)空的AudioBuffer,復(fù)制現(xiàn)有的通道數(shù)據(jù)前3秒的數(shù)據(jù),然后復(fù)制的內(nèi)容寫入到這個(gè)空的AudioBuffer,于是我們就得到了一個(gè)剪裁后的音頻Buffer數(shù)據(jù)了。

代碼如下:

// 聲道數(shù)量和采樣率
var channels = audioBuffer.numberOfChannels;
var rate = audioBuffer.sampleRate;

// 截取前3秒
var startOffset = 0;
var endOffset = rate * 3;
// 3秒對應(yīng)的幀數(shù)
var frameCount = endOffset - startOffset;

// 創(chuàng)建同樣采用率、同樣聲道數(shù)量,長度是前3秒的空的AudioBuffer
var newAudioBuffer = new AudioContext().createBuffer(channels, endOffset - startOffset, rate);
// 創(chuàng)建臨時(shí)的Array存放復(fù)制的buffer數(shù)據(jù)
var anotherArray = new Float32Array(frameCount);
// 聲道的數(shù)據(jù)的復(fù)制和寫入
var offset = 0;
for (var channel = 0; channel < channels; channel++) {
 audioBuffer.copyFromChannel(anotherArray, channel, startOffset);
 newAudioBuffer.copyToChannel(anotherArray, channel, offset);
}

// newAudioBuffer就是全新的復(fù)制的3秒長度的AudioBuffer對象

上面JavaScript代碼中的變量 newAudioBuffer 就是全新的復(fù)制的3秒長度的AudioBuffer對象。

4. 使用newAudioBuffer做點(diǎn)什么?

其實(shí)應(yīng)該是有了AudioBuffer對象后我們可以做點(diǎn)什么。

能做很多事情。

1) 如果希望直接播放

我們可以直接把AudioBuffer的數(shù)據(jù)作為音頻數(shù)據(jù)進(jìn)行播放

// 創(chuàng)建AudioBufferSourceNode對象
var source = audioCtx.createBufferSource();
// 設(shè)置AudioBufferSourceNode對象的buffer為復(fù)制的3秒AudioBuffer對象
source.buffer = newAudioBuffer;
// 這一句是必須的,表示結(jié)束,沒有這一句沒法播放,沒有聲音
// 這里直接結(jié)束,實(shí)際上可以對結(jié)束做一些特效處理
source.connect(audioCtx.destination);
// 資源開始播放
source.start();

2) 如果希望在<audio>元素中播放

這個(gè)還挺麻煩的。

<audio> 的src屬性獲取音頻資源,再進(jìn)行處理是簡單的,網(wǎng)上的案例也很多。

但是,想要處理后的AudioBuffer再變成src讓 <audio> 元素播放,嘿嘿,就沒那么容易了。

我 (張鑫旭) 找了一圈,沒有看到Web Audio API中有專門的“逆轉(zhuǎn)錄”方法。

唯一可行的路數(shù)就是根據(jù)AudioBuffer數(shù)據(jù),重新構(gòu)建原始的音頻數(shù)據(jù)。研究了一番,轉(zhuǎn)成WAV格式相對容易,想要轉(zhuǎn)換成MP3格式比較麻煩,這里有個(gè)項(xiàng)目: https://github.com/higuma/mp3-lame-encoder-js 不過自己沒驗(yàn)證過,不過看代碼量,還挺驚人的。

因此,我們的目標(biāo)還是轉(zhuǎn)到WAV音頻文件生成上吧,下面這段方法是從網(wǎng)上找的AudioBuffer轉(zhuǎn)WAV文件的方法,以Blob數(shù)據(jù)格式返回。

// Convert AudioBuffer to a Blob using WAVE representation
function bufferToWave(abuffer, len) {
 var numOfChan = abuffer.numberOfChannels,
 length = len * numOfChan * 2 + 44,
 buffer = new ArrayBuffer(length),
 view = new DataView(buffer),
 channels = [], i, sample,
 offset = 0,
 pos = 0;

 // write WAVE header
 // "RIFF"
 setUint32(0x46464952);
 // file length - 8   
 setUint32(length - 8);
 // "WAVE"   
 setUint32(0x45564157);
 // "fmt " chunk
 setUint32(0x20746d66); 
 // length = 16   
 setUint32(16); 
 // PCM (uncompressed)    
 setUint16(1); 
 setUint16(numOfChan);
 setUint32(abuffer.sampleRate);
 // avg. bytes/sec
 setUint32(abuffer.sampleRate * 2 * numOfChan);
 // block-align
 setUint16(numOfChan * 2);
 // 16-bit (hardcoded in this demo)
 setUint16(16);    
 // "data" - chunk
 setUint32(0x61746164); 
 // chunk length   
 setUint32(length - pos - 4);   

 // write interleaved data
 for(i = 0; i < abuffer.numberOfChannels; i++)
 channels.push(abuffer.getChannelData(i));

 while(pos < length) {
  // interleave channels
 for(i = 0; i < numOfChan; i++) {
  // clamp
  sample = Math.max(-1, Math.min(1, channels[i][offset])); 
  // scale to 16-bit signed int
  sample = (0.5 + sample < 0 ? sample * 32768 : sample * 32767)|0; 
  // write 16-bit sample
  view.setInt16(pos, sample, true);  
  pos += 2;
 }
 // next source sample
 offset++     
 }

 // create Blob
 return new Blob([buffer], {type: "audio/wav"});

 function setUint16(data) {
 view.setUint16(pos, data, true);
 pos += 2;
 }

 function setUint32(data) {
 view.setUint32(pos, data, true);
 pos += 4;
 }
}

WAV格式的兼容性還是很6的,如下圖所示:

凡事支持Web Audio API的瀏覽器都支持WAV格式,所以,技術(shù)上完全可行。

下面這段JS可以得到剪裁后的WAV音頻的Blob數(shù)據(jù)格式:

var blob = bufferToWave(newAudioBuffer, frameCount);

有了Blob數(shù)據(jù),接下來事情就簡單了。

我們可以直接把Blob數(shù)據(jù)轉(zhuǎn)換成URL,可以使用 URL.createObjectURL() 生成一個(gè)Blob鏈接。

假設(shè)頁面上有如下HTML代碼:

<audio id="audio" controls=""></audio>

則如下設(shè)置,就可以點(diǎn)擊上面的 <audio> 元素進(jìn)行播放了。

audio.src = URL.createObjectURL(blob);

如果要轉(zhuǎn)換成Base64地址,可以這么處理:

var reader2 = new FileReader();
reader2.onload = function(event){
 audio.src = event.target.result;
};
reader2.readAsDataURL(blob);

3) 如果希望上傳剪裁的音頻

有了Blob數(shù)據(jù),上傳還不是灑灑水的事情。

可以使用FormData進(jìn)行傳輸,例如:

var formData = new FormData();
formData.append('audio', blob);
// 請求走起
var xhr = new XMLHttpRequest();
xhr.open('POST', this.cgiGetImg, true);
// 請求成功
xhr.onload = function () {
};
// 發(fā)送數(shù)據(jù)
xhr.send(formData);

有demo可以進(jìn)行效果體驗(yàn)的,您可以狠狠地點(diǎn)擊這里: 用戶上傳的MP3音頻剪裁并播放demo

使用截圖示意如下:

本文地址: https://www.zhangxinxu.com/wordpress/?p=9505

到此這篇關(guān)于JS實(shí)現(xiàn)audio音頻剪裁剪切復(fù)制播放與上傳的文章就介紹到這了,更多相關(guān)js audio音頻剪裁內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

相關(guān)文章

最新評論