欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

如何在IOS上使用ReplayKit與RTC

 更新時(shí)間:2021年04月13日 09:22:27   作者:聲網(wǎng)Agora  
這篇文章主要介紹了如何在IOS上使用ReplayKit 與 RTC,對(duì)IOS音視頻感興趣的同學(xué),一定要看一下

在日益繁多的直播場(chǎng)景中,如果你也是某位游戲主播的粉絲的話(huà),有一種直播方式是你一定不陌生的,那就是我們今天要聊的屏幕分享。

直播場(chǎng)景下的屏幕分享,不僅要將當(dāng)前顯示器所展示的畫(huà)面分享給遠(yuǎn)端,也要將聲音傳輸出去,包括應(yīng)用的聲音,以及主播的聲音。鑒于這兩點(diǎn)需求,我們可以簡(jiǎn)單分析出,進(jìn)行一次屏幕分享的直播所需要的媒體流如下:

  1. 一條顯示器畫(huà)面的視頻流
  2. 一條應(yīng)用聲音的音頻流
  3. 一條主播聲音的音頻流

ReplayKit 是蘋(píng)果提供的用于 iOS 系統(tǒng)進(jìn)行屏幕錄制的框架。

首先我們來(lái)看看蘋(píng)果提供的用于屏幕錄制的 ReplayKit 的數(shù)據(jù)回調(diào)接口:

override func processSampleBuffer(_ sampleBuffer: CMSampleBuffer, with sampleBufferType: RPSampleBufferType) {
        DispatchQueue.main.async {
            switch sampleBufferType {
            case .video:
                AgoraUploader.sendVideoBuffer(sampleBuffer)
            case .audioApp:
                AgoraUploader.sendAudioAppBuffer(sampleBuffer)
            case .audioMic:
                AgoraUploader.sendAudioMicBuffer(sampleBuffer)
            @unknown default:
                break
            }
        }
    }

從枚舉 sampleBufferType 上,我們不難看出,剛好能符合我們上述對(duì)媒體流的需求。

視頻格式

guard let videoFrame = CMSampleBufferGetImageBuffer(sampleBuffer) else {
    return
}
        
let type = CVPixelBufferGetPixelFormatType(videoFrame)
type = kCVPixelFormatType_420YpCbCr8BiPlanarFullRange

通過(guò) CVPixelBufferGetPixelFormatType,我們可以獲取到每幀的視頻格式為 yuv420

幀率

通過(guò)打印接口的回調(diào)次數(shù),可以知道每秒能夠獲取的視頻幀為30次,也就是幀率為 30。

格式與幀率都能符合 Agora RTC 所能接收的范圍,所以通過(guò) Agora RTC 的 pushExternalVideoFrame 就可以將視頻分享到遠(yuǎn)端了。

agoraKit.pushExternalVideoFrame(frame)

插入一個(gè)小知識(shí)

顯示器所顯示的幀來(lái)自于一個(gè)幀緩存區(qū),一般常見(jiàn)的為雙緩存或三緩存。當(dāng)屏幕顯示完一幀后,發(fā)出一個(gè)垂直同步信號(hào)(V-Sync),告訴幀緩存區(qū)切換到下一幀的緩存上,然后顯示器開(kāi)始讀取新的一幀數(shù)據(jù)做顯示。

這個(gè)幀緩存區(qū)是系統(tǒng)級(jí)別的,一般的開(kāi)發(fā)者是無(wú)法讀取跟寫(xiě)入的。但是如果是蘋(píng)果自身提供的錄制框架 ReplayKit 能夠直接讀取到已經(jīng)渲染好且將用于顯示器的幀,且這一過(guò)程不會(huì)影響渲染流程而造成掉幀,那就能減少一次用于提供給 ReplayKit 回調(diào)數(shù)據(jù)的渲染過(guò)程。

音頻

ReplayKit 能提供的音頻有兩種,分為麥克風(fēng)錄制進(jìn)來(lái)的音頻流,與當(dāng)前響應(yīng)的應(yīng)用播放的音頻流。(下文將前者稱(chēng)為 AudioMic,后者為 AudioApp)

可以通過(guò)下面的兩行代碼,來(lái)獲取音頻格式

CMAudioFormatDescriptionRef format = CMSampleBufferGetFormatDescription(sampleBuffer);
const AudioStreamBasicDescription *description = CMAudioFormatDescriptionGetStreamBasicDescription(format);

AudioApp

AudioApp 會(huì)在不同的機(jī)型下有不一樣的聲道數(shù)。例如在 iPad 或 iPhone7 以下機(jī)型中,不具備雙聲道播放的設(shè)備,這時(shí)候 AudioApp 的數(shù)據(jù)就是單聲道,反之則是雙聲道。

采樣率在部分試過(guò)的機(jī)型里,都是 44100,但不排除在未測(cè)試過(guò)的機(jī)型會(huì)是其他的采樣率。

AudioMic

AudioMic 在測(cè)試過(guò)的機(jī)型里,采樣率為 32000,聲道數(shù)為單聲道。

音頻前處理

如果我們將 AudioApp 與 AudioMic 作為兩條音頻流去發(fā)送,那么流量肯定是大于一條音頻流的。我們?yōu)榱斯?jié)省一條音頻流的流量,就需要將這兩條音頻流做混音(融合)。

但是通過(guò)上述,我們不難看出,兩條音頻流的格式是不一樣的,而且不能保證隨著機(jī)型的不同,是不是會(huì)出現(xiàn)其他的格式。在測(cè)試的過(guò)程中還發(fā)現(xiàn) OS 版本的不同,每次回調(diào)給到的音頻數(shù)據(jù)長(zhǎng)度也會(huì)出現(xiàn)變化。那么我們?cè)趯?duì)兩條音頻流做混音前,就需要進(jìn)行格式統(tǒng)一,來(lái)應(yīng)對(duì) ReplayKit 給出的各種格式。所以我們采取了以下幾個(gè)重要的步驟:

if (channels == 1) {
    int16_t* intData = (int16_t*)dataPointer;
    int16_t newBuffer[totalSamples * 2];
            
    for (int i = 0; i < totalSamples; i++) {
        newBuffer[2 * i] = intData[i];
        newBuffer[2 * i + 1] = intData[i];
    }
    totalSamples *= 2;
    memcpy(dataPointer, newBuffer, sizeof(int16_t) * totalSamples);
    totalBytes *= 2;
    channels = 2;
}

無(wú)論是 AudioMic 還是 AudioApp,只要進(jìn)來(lái)的流為單聲道,我們都將它轉(zhuǎn)化為雙聲道;

if (sampleRate != resampleRate) {
    int inDataSamplesPer10ms = sampleRate / 100;
    int outDataSamplesPer10ms = (int)resampleRate / 100;

    int16_t* intData = (int16_t*)dataPointer;

    switch (type) {
        case AudioTypeApp:
            totalSamples = resampleApp(intData, dataPointerSize, totalSamples,
                                       inDataSamplesPer10ms, outDataSamplesPer10ms, channels, sampleRate, (int)resampleRate);
            break;
        case AudioTypeMic:
            totalSamples = resampleMic(intData, dataPointerSize, totalSamples,
                                       inDataSamplesPer10ms, outDataSamplesPer10ms, channels, sampleRate, (int)resampleRate);
            break;
    }

    totalBytes = totalSamples * sizeof(int16_t);
}

無(wú)論是 AudioMic 還是 AudioApp,只要進(jìn)來(lái)的流采樣率不為 48000,我們將它們重采樣為 48000;

memcpy(appAudio + appAudioIndex, dataPointer, totalBytes);
appAudioIndex += totalSamples;
memcpy(micAudio + micAudioIndex, dataPointer, totalBytes);
micAudioIndex += totalSamples;

通過(guò)第一步與第二步,我們保證了兩條音頻流都為同樣的音頻格式。但是由于 ReplayKit 是一次回調(diào)給到一種數(shù)據(jù)的,所以在混音前我們還得用兩個(gè)緩存區(qū)來(lái)存儲(chǔ)這兩條流數(shù)據(jù);

int64_t mixIndex = appAudioIndex > micAudioIndex ? micAudioIndex : appAudioIndex;
        
int16_t pushBuffer[appAudioIndex];
        
memcpy(pushBuffer, appAudio, appAudioIndex * sizeof(int16_t));
        
for (int i = 0; i < mixIndex; i ++) {
   pushBuffer[i] = (appAudio[i] + micAudio[i]) / 2;
}

ReplayKit 有選項(xiàng)是否開(kāi)啟麥克風(fēng)錄制,所以在關(guān)閉麥克風(fēng)錄制的時(shí)候,我們就只有一條 AudioApp 音頻流。所以我們以這條流為主,去讀取 AudioMic 緩存區(qū)的數(shù)據(jù)長(zhǎng)度,然后對(duì)比兩個(gè)緩存區(qū)的數(shù)據(jù)長(zhǎng)度,以最小的數(shù)據(jù)長(zhǎng)度為我們的混音長(zhǎng)度。將混音長(zhǎng)度的兩個(gè)緩存區(qū)里的數(shù)據(jù)做融合,得到混音后的數(shù)據(jù),寫(xiě)入一個(gè)新的混音緩存區(qū)(或者直接寫(xiě)入 AudioApp 緩存區(qū));

[AgoraAudioProcessing pushAudioFrame:(*unsigned* *char* *)pushBuffer
                                   withFrameSize:appAudioIndex * *sizeof*(int16_t)];

最后我們?cè)賹⑦@段混音后的數(shù)據(jù)拷貝進(jìn) Agora RTC 的 C++ 錄制回調(diào)接口里,這時(shí)候就可以把麥克風(fēng)錄制的聲音與應(yīng)用播放的聲音傳輸?shù)竭h(yuǎn)端了。

通過(guò)對(duì)音視頻流的處理,結(jié)合 Agora RTC SDK,我們就完成了一個(gè)屏幕分享直播場(chǎng)景的實(shí)現(xiàn)了。

以上就是如何在IOS上使用ReplayKit與RTC的詳細(xì)內(nèi)容,更多關(guān)于IOS上使用ReplayKit與RTC的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!

相關(guān)文章

  • ios原生二維碼掃描與生成的實(shí)現(xiàn)教程

    ios原生二維碼掃描與生成的實(shí)現(xiàn)教程

    這篇文章主要給大家介紹了關(guān)于ios原生二維碼掃描與生成的相關(guān)資料,小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧
    2018-09-09
  • 總結(jié)iOS開(kāi)發(fā)中的斷點(diǎn)續(xù)傳與實(shí)踐

    總結(jié)iOS開(kāi)發(fā)中的斷點(diǎn)續(xù)傳與實(shí)踐

    本文先從斷點(diǎn)續(xù)傳問(wèn)題開(kāi)始,介紹斷點(diǎn)續(xù)傳概述和原理。接著結(jié)合筆者調(diào)研中嘗試的 AFHTTPRequestOpeartion,簡(jiǎn)單分析源碼。最后分別基于 NSURLConnection,NSURLSessionDataTask 和 NSURLSessionDownloadTask 去實(shí)現(xiàn)應(yīng)用重啟情況下的斷點(diǎn)續(xù)傳。下面一起來(lái)看看。
    2016-07-07
  • iOS密碼在進(jìn)入后臺(tái)1小時(shí)后重新設(shè)置

    iOS密碼在進(jìn)入后臺(tái)1小時(shí)后重新設(shè)置

    這篇文章主要介紹了iOS密碼在進(jìn)入后臺(tái)1小時(shí)后重新設(shè)置的相關(guān)資料,需要的朋友可以參考下
    2017-08-08
  • iOS中大尺寸圖片的旋轉(zhuǎn)與縮放實(shí)例詳解

    iOS中大尺寸圖片的旋轉(zhuǎn)與縮放實(shí)例詳解

    圖片縮小旋轉(zhuǎn)是我們?cè)陂_(kāi)發(fā)中經(jīng)常會(huì)遇到的一個(gè)功能,下面這篇文章主要給大家介紹了關(guān)于iOS中大尺寸圖片的旋轉(zhuǎn)與縮放的相關(guān)資料,文中通過(guò)示例代碼介紹的非常詳細(xì),需要的朋友可以參考借鑒,下面來(lái)一起看看吧
    2018-09-09
  • iOS用兩行代碼完美解決數(shù)據(jù)持久化

    iOS用兩行代碼完美解決數(shù)據(jù)持久化

    所謂的持久化,就是將數(shù)據(jù)保存到硬盤(pán)中,使得在應(yīng)用程序或機(jī)器重啟后可以繼續(xù)訪(fǎng)問(wèn)之前保存的數(shù)據(jù)。在iOS開(kāi)發(fā)中,有很多數(shù)據(jù)持久化的方案,接下來(lái)我將嘗試著介紹一種巧妙的方法,用兩行代碼解決這個(gè)問(wèn)題,一起來(lái)學(xué)習(xí)下。
    2016-08-08
  • iOS購(gòu)物分類(lèi)模塊的實(shí)現(xiàn)方案

    iOS購(gòu)物分類(lèi)模塊的實(shí)現(xiàn)方案

    這篇文章主要為大家詳細(xì)介紹了iOS購(gòu)物分類(lèi)模塊的實(shí)現(xiàn)方案,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下
    2016-02-02
  • 關(guān)于iOS中的各種顏色設(shè)置總結(jié)大全(推薦)

    關(guān)于iOS中的各種顏色設(shè)置總結(jié)大全(推薦)

    這篇文章主要給大家介紹了關(guān)于iOS中顏色設(shè)置的相關(guān)資料,其中包括導(dǎo)航欄、狀態(tài)欄、Tabbar、Button、TextField、AttributedString和通用部分的顏色設(shè)置方法示例,對(duì)大家具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起看看吧。
    2017-09-09
  • iOS 指紋解鎖驗(yàn)證TouchID功能

    iOS 指紋解鎖驗(yàn)證TouchID功能

    這篇文章主要介紹了iOS 指紋解鎖驗(yàn)證TouchID功能,非常不錯(cuò),具有參考借鑒價(jià)值,需要的朋友可以參考下
    2017-03-03
  • IOS開(kāi)發(fā)自定義Button的外觀(guān)和交互行為示例詳解

    IOS開(kāi)發(fā)自定義Button的外觀(guān)和交互行為示例詳解

    這篇文章主要為大家介紹了IOS開(kāi)發(fā)自定義Button的外觀(guān)和交互行為示例詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪
    2023-02-02
  • 如何在iphon IOS設(shè)備上使用二維碼

    如何在iphon IOS設(shè)備上使用二維碼

    深度解析iPhone ios設(shè)備上使用二維碼是本文要介紹的內(nèi)容,二維碼是用某種特定的幾何圖形按一定規(guī)律在平面(二維方向上)分布的黑白相間的圖形記錄數(shù)據(jù)符號(hào)信息的。不多說(shuō),我們直接來(lái)腳本之家學(xué)習(xí)內(nèi)容詳解,感興趣的朋友一起來(lái)關(guān)注吧
    2015-08-08

最新評(píng)論