iOS實時錄音和播放功能
需求:最近公司需要做一個樓宇對講的功能:門口機(連接WIFI)撥號對室內(nèi)機(對應(yīng)的WIFI)的設(shè)備進行呼叫,室內(nèi)機收到呼叫之后將對收到的數(shù)據(jù)進行UDP廣播的轉(zhuǎn)發(fā),手機(連接對應(yīng)的WIFI)收到視頻流之后,實時的展示視頻數(shù)據(jù)(手機可以接聽,掛斷,手機接聽之后,室內(nèi)機不展示視頻,只是進行轉(zhuǎn)發(fā)。)
簡單點說就是手機客戶端需要做一個類似于直播平臺的軟件,可以實時的展示視頻,實時的播放接收到的聲音數(shù)據(jù),并且實時將手機麥克風(fēng)收到的聲音回傳給室內(nèi)機,室內(nèi)機負(fù)責(zé)轉(zhuǎn)發(fā)給門口機。
這篇文章介紹iOS怎么進行實時的錄音和播放收到的聲音數(shù)據(jù)
想要使用系統(tǒng)的框架實時播放聲音和錄音數(shù)據(jù),就得知道音頻隊列服務(wù),
在AudioToolbox框架中的音頻隊列服務(wù),它完全可以做到音頻播放和錄制,
一個音頻服務(wù)隊列有三個部分組成:
1.三個緩沖器Buffers:沒個緩沖器都是一個存儲音頻數(shù)據(jù)的臨時倉庫。
2.一個緩沖隊列Buffer Queue:一個包含音頻緩沖器的有序隊列。
3.一個回調(diào)CallBack:一個自定義的隊列回調(diào)函數(shù)。
具體怎么運轉(zhuǎn)的還是百度吧!
我的簡單理解:
對于播放:系統(tǒng)會自動從緩沖隊列中循環(huán)取出每個緩沖器中的數(shù)據(jù)進行播放,我們需要做的就是將接收到的數(shù)據(jù)循環(huán)的放到緩沖器中,剩下的就交給系統(tǒng)去實現(xiàn)了。
對于錄音: 系統(tǒng)會自動將錄的聲音放入隊列中的每個緩沖器中,我們需要做的就是從回調(diào)函數(shù)中將數(shù)據(jù)轉(zhuǎn)化我們自己的數(shù)據(jù)就OK了。
#pragma mark--實時播放
1. 導(dǎo)入系統(tǒng)框架AudioToolbox.framework AVFoundation.framework
2. 獲取麥克風(fēng)權(quán)限,在工程的Info.plist文件中加入Privacy - Microphone Usage Description 這個key 描述:App想要訪問您的麥克風(fēng)
3. 創(chuàng)建播放聲音的類 EYAudio
EYAudio.h
#import <Foundation/Foundation.h> @interface EYAudio : NSObject // 播放的數(shù)據(jù)流數(shù)據(jù) - (void)playWithData:(NSData *)data; // 聲音播放出現(xiàn)問題的時候可以重置一下 - (void)resetPlay; // 停止播放 - (void)stop; @end
EYAudio.m
#import "EYAudio.h"
#import <AVFoundation/AVFoundation.h>
#import <AudioToolbox/AudioToolbox.h>
#define MIN_SIZE_PER_FRAME 1920 //每個包的大小,室內(nèi)機要求為960,具體看下面的配置信息
#define QUEUE_BUFFER_SIZE 3 //緩沖器個數(shù)
#define SAMPLE_RATE 16000 //采樣頻率
@interface EYAudio(){
AudioQueueRef audioQueue; //音頻播放隊列
AudioStreamBasicDescription _audioDescription;
AudioQueueBufferRef audioQueueBuffers[QUEUE_BUFFER_SIZE]; //音頻緩存
BOOL audioQueueBufferUsed[QUEUE_BUFFER_SIZE]; //判斷音頻緩存是否在使用
NSLock *sysnLock;
NSMutableData *tempData;
OSStatus osState;
}
@end
@implementation EYAudio
#pragma mark - 提前設(shè)置AVAudioSessionCategoryMultiRoute 播放和錄音
+ (void)initialize
{
NSError *error = nil;
//只想要播放:AVAudioSessionCategoryPlayback
//只想要錄音:AVAudioSessionCategoryRecord
//想要"播放和錄音"同時進行 必須設(shè)置為:AVAudioSessionCategoryMultiRoute 而不是AVAudioSessionCategoryPlayAndRecord(設(shè)置這個不好使)
BOOL ret = [[AVAudioSession sharedInstance] setCategory:AVAudioSessionCategoryMultiRoute error:&error];
if (!ret) {
NSLog(@"設(shè)置聲音環(huán)境失敗");
return;
}
//啟用audio session
ret = [[AVAudioSession sharedInstance] setActive:YES error:&error];
if (!ret)
{
NSLog(@"啟動失敗");
return;
}
}
- (void)resetPlay
{
if (audioQueue != nil) {
AudioQueueReset(audioQueue);
}
}
- (void)stop
{
if (audioQueue != nil) {
AudioQueueStop(audioQueue,true);
}
audioQueue = nil;
sysnLock = nil;
}
- (instancetype)init
{
self = [super init];
if (self) {
sysnLock = [[NSLock alloc]init];
//設(shè)置音頻參數(shù) 具體的信息需要問后臺
_audioDescription.mSampleRate = SAMPLE_RATE;
_audioDescription.mFormatID = kAudioFormatLinearPCM;
_audioDescription.mFormatFlags = kLinearPCMFormatFlagIsSignedInteger | kAudioFormatFlagIsPacked;
//1單聲道
_audioDescription.mChannelsPerFrame = 1;
//每一個packet一偵數(shù)據(jù),每個數(shù)據(jù)包下的楨數(shù),即每個數(shù)據(jù)包里面有多少楨
_audioDescription.mFramesPerPacket = 1;
//每個采樣點16bit量化 語音每采樣點占用位數(shù)
_audioDescription.mBitsPerChannel = 16;
_audioDescription.mBytesPerFrame = (_audioDescription.mBitsPerChannel / 8) * _audioDescription.mChannelsPerFrame;
//每個數(shù)據(jù)包的bytes總數(shù),每楨的bytes數(shù)*每個數(shù)據(jù)包的楨數(shù)
_audioDescription.mBytesPerPacket = _audioDescription.mBytesPerFrame * _audioDescription.mFramesPerPacket;
// 使用player的內(nèi)部線程播放 新建輸出
AudioQueueNewOutput(&_audioDescription, AudioPlayerAQInputCallback, (__bridge void * _Nullable)(self), nil, 0, 0, &audioQueue);
// 設(shè)置音量
AudioQueueSetParameter(audioQueue, kAudioQueueParam_Volume, 1.0);
// 初始化需要的緩沖區(qū)
for (int i = 0; i < QUEUE_BUFFER_SIZE; i++) {
audioQueueBufferUsed[i] = false;
osState = AudioQueueAllocateBuffer(audioQueue, MIN_SIZE_PER_FRAME, &audioQueueBuffers[i]);
}
osState = AudioQueueStart(audioQueue, NULL);
if (osState != noErr) {
NSLog(@"AudioQueueStart Error");
}
}
return self;
}
// 播放數(shù)據(jù)
-(void)playWithData:(NSData *)data
{
[sysnLock lock];
tempData = [NSMutableData new];
[tempData appendData: data];
NSUInteger len = tempData.length;
Byte *bytes = (Byte*)malloc(len);
[tempData getBytes:bytes length: len];
int i = 0;
while (true) {
if (!audioQueueBufferUsed[i]) {
audioQueueBufferUsed[i] = true;
break;
}else {
i++;
if (i >= QUEUE_BUFFER_SIZE) {
i = 0;
}
}
}
audioQueueBuffers[i] -> mAudioDataByteSize = (unsigned int)len;
// 把bytes的頭地址開始的len字節(jié)給mAudioData,向第i個緩沖器
memcpy(audioQueueBuffers[i] -> mAudioData, bytes, len);
// 釋放對象
free(bytes);
//將第i個緩沖器放到隊列中,剩下的都交給系統(tǒng)了
AudioQueueEnqueueBuffer(audioQueue, audioQueueBuffers[i], 0, NULL);
[sysnLock unlock];
}
// ************************** 回調(diào) **********************************
// 回調(diào)回來把buffer狀態(tài)設(shè)為未使用
static void AudioPlayerAQInputCallback(void* inUserData,AudioQueueRef audioQueueRef, AudioQueueBufferRef audioQueueBufferRef) {
EYAudio* audio = (__bridge EYAudio*)inUserData;
[audio resetBufferState:audioQueueRef and:audioQueueBufferRef];
}
- (void)resetBufferState:(AudioQueueRef)audioQueueRef and:(AudioQueueBufferRef)audioQueueBufferRef {
// 防止空數(shù)據(jù)讓audioqueue后續(xù)都不播放,為了安全防護一下
if (tempData.length == 0) {
audioQueueBufferRef->mAudioDataByteSize = 1;
Byte* byte = audioQueueBufferRef->mAudioData;
byte = 0;
AudioQueueEnqueueBuffer(audioQueueRef, audioQueueBufferRef, 0, NULL);
}
for (int i = 0; i < QUEUE_BUFFER_SIZE; i++) {
// 將這個buffer設(shè)為未使用
if (audioQueueBufferRef == audioQueueBuffers[i]) {
audioQueueBufferUsed[i] = false;
}
}
}
@end
外界使用: 不斷調(diào)用下面的方法將NSData傳遞進來
- (void)playWithData:(NSData *)data;
#pragma mark--實時錄音
1. 導(dǎo)入系統(tǒng)框架AudioToolbox.framework AVFoundation.framework
2. 創(chuàng)建錄音的類 EYRecord
EYRecord.h
#import <Foundation/Foundation.h> @interface ESARecord : NSObject //開始錄音 - (void)startRecording; //停止錄音 - (void)stopRecording; @end
EYRecord.m
#import "ESARecord.h"
#import <AudioToolbox/AudioToolbox.h>
#define QUEUE_BUFFER_SIZE 3 // 輸出音頻隊列緩沖個數(shù)
#define kDefaultBufferDurationSeconds 0.03//調(diào)整這個值使得錄音的緩沖區(qū)大小為960,實際會小于或等于960,需要處理小于960的情況
#define kDefaultSampleRate 16000 //定義采樣率為16000
extern NSString * const ESAIntercomNotifationRecordString;
static BOOL isRecording = NO;
@interface ESARecord(){
AudioQueueRef _audioQueue; //輸出音頻播放隊列
AudioStreamBasicDescription _recordFormat;
AudioQueueBufferRef _audioBuffers[QUEUE_BUFFER_SIZE]; //輸出音頻緩存
}
@property (nonatomic, assign) BOOL isRecording;
@end
@implementation ESARecord
- (instancetype)init
{
self = [super init];
if (self) {
//重置下
memset(&_recordFormat, 0, sizeof(_recordFormat));
_recordFormat.mSampleRate = kDefaultSampleRate;
_recordFormat.mChannelsPerFrame = 1;
_recordFormat.mFormatID = kAudioFormatLinearPCM;
_recordFormat.mFormatFlags = kLinearPCMFormatFlagIsSignedInteger | kLinearPCMFormatFlagIsPacked;
_recordFormat.mBitsPerChannel = 16;
_recordFormat.mBytesPerPacket = _recordFormat.mBytesPerFrame = (_recordFormat.mBitsPerChannel / 8) * _recordFormat.mChannelsPerFrame;
_recordFormat.mFramesPerPacket = 1;
//初始化音頻輸入隊列
AudioQueueNewInput(&_recordFormat, inputBufferHandler, (__bridge void *)(self), NULL, NULL, 0, &_audioQueue);
//計算估算的緩存區(qū)大小
int frames = (int)ceil(kDefaultBufferDurationSeconds * _recordFormat.mSampleRate);
int bufferByteSize = frames * _recordFormat.mBytesPerFrame;
NSLog(@"緩存區(qū)大小%d",bufferByteSize);
//創(chuàng)建緩沖器
for (int i = 0; i < QUEUE_BUFFER_SIZE; i++){
AudioQueueAllocateBuffer(_audioQueue, bufferByteSize, &_audioBuffers[i]);
AudioQueueEnqueueBuffer(_audioQueue, _audioBuffers[i], 0, NULL);
}
}
return self;
}
-(void)startRecording
{
// 開始錄音
AudioQueueStart(_audioQueue, NULL);
isRecording = YES;
}
void inputBufferHandler(void *inUserData, AudioQueueRef inAQ, AudioQueueBufferRef inBuffer, const AudioTimeStamp *inStartTime,UInt32 inNumPackets, const AudioStreamPacketDescription *inPacketDesc)
{
if (inNumPackets > 0) {
ESARecord *recorder = (__bridge ESARecord*)inUserData;
[recorder processAudioBuffer:inBuffer withQueue:inAQ];
}
if (isRecording) {
AudioQueueEnqueueBuffer(inAQ, inBuffer, 0, NULL);
}
}
- (void)processAudioBuffer:(AudioQueueBufferRef )audioQueueBufferRef withQueue:(AudioQueueRef )audioQueueRef
{
NSMutableData * dataM = [NSMutableData dataWithBytes:audioQueueBufferRef->mAudioData length:audioQueueBufferRef->mAudioDataByteSize];
if (dataM.length < 960) { //處理長度小于960的情況,此處是補00
Byte byte[] = {0x00};
NSData * zeroData = [[NSData alloc] initWithBytes:byte length:1];
for (NSUInteger i = dataM.length; i < 960; i++) {
[dataM appendData:zeroData];
}
}
// NSLog(@"實時錄音的數(shù)據(jù)--%@", dataM);
//此處是發(fā)通知將dataM 傳遞出去
[[NSNotificationCenter defaultCenter] postNotificationName:@"EYRecordNotifacation" object:@{@"data" : dataM}];
}
-(void)stopRecording
{
if (isRecording)
{
isRecording = NO;
//停止錄音隊列和移除緩沖區(qū),以及關(guān)閉session,這里無需考慮成功與否
AudioQueueStop(_audioQueue, true);
//移除緩沖區(qū),true代表立即結(jié)束錄制,false代表將緩沖區(qū)處理完再結(jié)束
AudioQueueDispose(_audioQueue, true);
}
NSLog(@"停止錄音");
}
@end
如果不好使嘗試將 EYRecord.m ----> EYRecord.mm
以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
iOS開發(fā)中使用UIDynamic來捕捉動畫組件的重力行為
這篇文章主要介紹了iOS開發(fā)中使用UIDynamic來捕捉動畫組件的重力行為的方法,代碼基于傳統(tǒng)的Objective-C,需要的朋友可以參考下2015-12-12
iOS實現(xiàn)第三方微信登錄方式實例解析(最新最全)
這篇文章主要介紹了iOS實現(xiàn)第三方微信登錄方式實例解析(最新最全),非常不錯,具有參考借鑒價值,需要的朋友可以參考下2016-12-12
iOS如何固定UITableView中cell.imageView.image的圖片大小
這篇文章主要給大家介紹了關(guān)于iOS如何固定UITableView中cell.imageView.image圖片大小的相關(guān)資料,文中通過示例代碼介紹的非常詳細(xì),對各位iOS開發(fā)者們的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧。2017-11-11
IOS 下獲取 rootviewcontroller 的版本不同的問題解決辦法
這篇文章主要介紹了IOS 下獲取 rootviewcontroller 的版本不同的問題解決辦法的相關(guān)資料,希望通過本文能幫助到大家,讓大家遇到這種問題可以解決,需要的朋友可以參考下2017-10-10
iOS使用音頻處理框架The Amazing Audio Engine實現(xiàn)音頻錄制播放
這篇文章主要為大家詳細(xì)介紹了iOS使用音頻處理框架The Amazing Audio Engine實現(xiàn)音頻錄制播放,具有一定的參考價值,感興趣的小伙伴們可以參考一下2019-04-04

