IOS开发之:原生API进行二维码的扫描识别

之前,我们平时如果用到二维码的识别,那么第一时间想到的是第三方库,我们平时的开发不能太依赖于第三方库,先看功能大小,在考虑是否有原生的API使用,因为原生的API在性能上肯定要优秀于第三方库。(二维码的第三方库比如:ZBarSDK

IOS开发之:原生API进行二维码的扫描识别

使用苹果原生API进行二维码的扫描识别

一、使用方法示例

官方提供的接口非常简单,代码如下:

  1. @interface ViewController ()<AVCaptureMetadataOutputObjectsDelegate>//用于处理采集信息的代理
  2. {
  3.     AVCaptureSession * session;//输入输出的中间桥梁
  4. }
  5. @end
  6. @implementation ViewController
  7. - (void)viewDidLoad {
  8.     [super viewDidLoad];
  9.     // Do any additional setup after loading the view, typically from a nib.
  10.     //获取摄像设备
  11.     AVCaptureDevice * device = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo];
  12.     //创建输入流
  13.     AVCaptureDeviceInput * input = [AVCaptureDeviceInput deviceInputWithDevice:device error:nil];
  14.     //创建输出流
  15.     AVCaptureMetadataOutput * output = [[AVCaptureMetadataOutput alloc] init];
  16.     //设置代理 在主线程里刷新
  17.     [output setMetadataObjectsDelegate:self queue:dispatch_get_main_queue()];
  18.     //初始化链接对象
  19.     session = [[AVCaptureSession alloc]init];
  20.     //高质量采集率
  21.     [session setSessionPreset:AVCaptureSessionPresetHigh];
  22.     [session addInput:input];
  23.     [session addOutput:output];
  24.     //设置扫码支持的编码格式(如下设置条形码和二维码兼容)
  25.     output.metadataObjectTypes=@[AVMetadataObjectTypeQRCode,AVMetadataObjectTypeEAN13Code, AVMetadataObjectTypeEAN8Code, AVMetadataObjectTypeCode128Code];
  26.     AVCaptureVideoPreviewLayer * layer = [AVCaptureVideoPreviewLayer layerWithSession:session];
  27.     layer.videoGravity=AVLayerVideoGravityResizeAspectFill;
  28.     layer.frame=self.view.layer.bounds;
  29.     [self.view.layer insertSublayer:layer atIndex:0];
  30.     //开始捕获
  31.     [session startRunning];
  32. }

之后在View上就能够看到摄像头捕获的内容,只要实现代理中的方法,就可以完成二维码条形码的扫描逻辑处理:

  1. -(void)captureOutput:(AVCaptureOutput *)captureOutput didOutputMetadataObjects:(NSArray *)metadataObjects fromConnection:(AVCaptureConnection *)connection{
  2.     if (metadataObjects.count>0) {
  3.         //[session stopRunning];
  4.         AVMetadataMachineReadableCodeObject * metadataObject = [metadataObjects objectAtIndex : 0 ];
  5.         //输出扫描字符串
  6.         NSLog(@"%@",metadataObject.stringValue);
  7.     }
  8. }

以上代码还可以继续优化

通过上面的API构建的逻辑,可以发现系统的解析效率是相当的高,IOS官方提供的API也确实非常强大,然而,我们可以做进一步的优化,将效率更加提高:

首先,AVCaptureMetadataOutput类中有一个这样的属性(在IOS7.0之后可用):

@property(nonatomic) CGRect rectOfInterest;

这个属性大致意思就是告诉系统它需要注意的区域,大部分APP的扫码UI中都会有一个框,提醒你将条形码放入那个区域,这个属性的作用就在这里,它可以设置一个范围,只处理在这个范围内捕获到的图像的信息。如此一来,可想而知,我们代码的效率又会得到很大的提高,在使用这个属性的时候。需要几点注意:

1、这个CGRect参数和普通的Rect范围不太一样,它的四个值的范围都是0-1,表示比例。

2、经过测试发现,这个参数里面的x对应的恰恰是距离左上角的垂直距离,y对应的是距离左上角的水平距离。

3、宽度和高度设置的情况也是类似。

3、举个例子如果我们想让扫描的处理区域是屏幕的下半部分,我们这样设置

output.rectOfInterest=CGRectMake(0.5,0,0.5, 1);

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: