iOS自帶原生二維碼掃描的實(shí)現(xiàn)
前言
首先說明的是:原生的二維碼掃描有一個(gè)坑,那就是掃描范圍的確定。只要記得掃描范圍是X與Y互換位置,W與H互換位置,就沒有什么問題了。
下面進(jìn)入正題:
1.因?yàn)槭褂迷S碼掃描,所以需要加入頭文件添加delegate
#import <AVFoundation/AVFoundation.h> <AVCaptureMetadataOutputObjectsDelegate>
2.接著是使用到的類
@property (strong,nonatomic)AVCaptureDevice * device; @property (strong,nonatomic)AVCaptureDeviceInput * input; @property (strong,nonatomic)AVCaptureMetadataOutput * output; @property (strong,nonatomic)AVCaptureSession * session; @property (weak, nonatomic) IBOutlet UIView *outputView;//xib中掃描的View @property (strong,nonatomic)AVCaptureVideoPreviewLayer * preview; @property (strong, nonatomic) NSTimer * timer;//為了做掃描動畫的定時(shí)器 @property (strong, nonatomic) UIImageView * lineImage;//掃描動畫的橫線
3.懶加載一個(gè)掃描動畫的圖片
-(UIImageView *)lineImage{
if (!_lineImage) {
CGFloat outputW = self.outputView.frame.size.width;
_lineImage = [[UIImageView alloc]initWithFrame:CGRectMake(0, 0,outputW, 2)];
_lineImage.image = [UIImage imageNamed:@"ray"];
}
return _lineImage;
}
4.使用前的設(shè)置,我將它設(shè)置在了viewDidLoad當(dāng)中
-viewDidLoad{
[super viewDidLoad];
// Device
_device = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo];
// Input
_input = [AVCaptureDeviceInput deviceInputWithDevice:self.device error:nil];
// Output
_output = [[AVCaptureMetadataOutput alloc]init];
[_output setMetadataObjectsDelegate:self queue:dispatch_get_main_queue()];
// Session
_session = [[AVCaptureSession alloc]init];
[_session setSessionPreset:AVCaptureSessionPresetHigh];
//連接輸入和輸出
if ([_session canAddInput:self.input])
{
[_session addInput:self.input];
}
if ([_session canAddOutput:self.output])
{
[_session addOutput:self.output];
}
//設(shè)置條碼類型
_output.metadataObjectTypes =@[AVMetadataObjectTypeQRCode];
//設(shè)置條碼位置
CGFloat X = (ScreenW/2-100)/ScreenW;
CGFloat Y = (ScreenH/2-100)/ScreenH;
CGFloat W = 200/ScreenW;
CGFloat H = 200/ScreenH;
//設(shè)置掃描范圍(注意,X與Y交互,W與H交換)
[_output setRectOfInterest:CGRectMake(Y, X, H, W)];
//添加掃描畫面
_preview =[AVCaptureVideoPreviewLayer layerWithSession:_session];
_preview.videoGravity =AVLayerVideoGravityResizeAspectFill;
_preview.frame = CGRectMake(0, 0, ScreenW, ScreenH);//self.view.layer.bounds;
[self.view.layer insertSublayer:_preview atIndex:0];
//開始掃描
[_session startRunning];
//添加掃描動畫定時(shí)器
[self.outputView addSubview:self.lineImage];
// Do any additional setup after loading the view from its nib.
_timer = [NSTimer scheduledTimerWithTimeInterval:2.5f
target:self
selector:@selector(lineAction)
userInfo:nil
repeats:YES];
}
5.二維碼掃描的代理事件
-(void)captureOutput:(AVCaptureOutput *)captureOutput didOutputMetadataObjects:(NSArray *)metadataObjects fromConnection:(AVCaptureConnection *)connection
{
NSString *stringValue;
if ([metadataObjects count] >0){
//停止掃描
[_session stopRunning];
AVMetadataMachineReadableCodeObject * metadataObject = [metadataObjects objectAtIndex:0];
stringValue = metadataObject.stringValue;//stringValue是掃描拿到的內(nèi)容,更具內(nèi)容進(jìn)行后續(xù)工作。
}
}
6.添加掃描動畫的事件
- (void)lineAction{
CGFloat outputW = self.outputView.frame.size.width;
CGFloat outputH = self.outputView.frame.size.height;
[UIView animateWithDuration:2.4f animations:^{
CGRect frame = CGRectMake(0, outputH, outputW, 2);
self.lineImage.frame = frame;
} completion:^(BOOL finished) {
CGRect frame = CGRectMake(0, 0, outputW, 2);
self.lineImage.frame = frame;
}];
}
搞定......最后放上一張效果圖

總結(jié)
以上就是這篇文章的全部內(nèi)容了,希望本文的內(nèi)容對大家的學(xué)習(xí)或者工作能帶來一定的幫助,如果有疑問大家可以留言交流。
相關(guān)文章
iOS App開發(fā)中Masonry布局框架的基本用法解析
這篇文章主要介紹了iOS App開發(fā)中Masonry布局框架的基本用法解析,Masonry支持iOS和OSX的Auto Layout,在GitHub上的人氣很高,需要的朋友可以參考下2016-03-03
IOS開發(fā)之JSON轉(zhuǎn)PLIST實(shí)例詳解
這篇文章主要介紹了IOS開發(fā)之JSON轉(zhuǎn)PLIST實(shí)例詳解的相關(guān)資料,需要的朋友可以參考下2016-11-11
iOS應(yīng)用UI開發(fā)中的字體和按鈕控件使用指南
這篇文章主要介紹了iOS應(yīng)用UI開發(fā)中的字體和按鈕控件使用指南,分別簡單講解了UILabel和UIButton的用法,需要的朋友可以參考下2016-01-01

