博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
iOS 开发之模糊效果的五种实现
阅读量:5061 次
发布时间:2019-06-12

本文共 4960 字,大约阅读时间需要 16 分钟。

前言

在iOS开发中我们经常会用到模糊效果使我们的界面更加美观,而iOS本身也提供了几种达到模糊效果的API,如:Core Image,使用Accelerate.Framework中的vImage API,在iOS 7之前系统的类提供UIToolbar,在iOS 8之后苹果新增加的一个类UIVisualEffectView;另外也有一些牛人写的第三方框架,如:GPUImage。本篇就针对这五种方式讲解一下具体的实现。

正文

下面就按照这五种方式,将其实现模糊效果的具体实现一一讲解一下:

  • 在iOS 7之前系统的类提供UIToolbar来实现毛玻璃效果:
- (void)toolbarStyle{        CGRect toolbarRect = CGRectMake(0, 0,ScreenW/2,ScreenH); UIToolbar *toolbar = [[UIToolbar alloc] initWithFrame:toolbarRect]; /* * UIBarStyleDefault = 0, * UIBarStyleBlack = 1, * UIBarStyleBlackOpaque = 1, // Deprecated. Use UIBarStyleBlack * UIBarStyleBlackTranslucent = 2, // Deprecated. Use UIBarStyleBlack and set the translucent property to YES */ toolbar.barStyle = UIBarStyleBlack; [self.myImageView addSubview:toolbar]; }
  • 在iOS 8之后苹果新增加了一个类UIVisualEffectView,通过这个类来实现毛玻璃效果:
- (void)uivisualEffectViewStyle{    /* NS_ENUM_AVAILABLE_IOS(8_0)     * UIBlurEffectStyleExtraLight,//额外亮度,(高亮风格)     * UIBlurEffectStyleLight,//亮风格     * UIBlurEffectStyleDark,//暗风格     * UIBlurEffectStyleExtraDark __TVOS_AVAILABLE(10_0) __IOS_PROHIBITED __WATCHOS_PROHIBITED,     * UIBlurEffectStyleRegular NS_ENUM_AVAILABLE_IOS(10_0), // Adapts to user interface style     * UIBlurEffectStyleProminent NS_ENUM_AVAILABLE_IOS(10_0), // Adapts to user interface style          */    //实现模糊效果    UIBlurEffect *effect = [UIBlurEffect effectWithStyle:UIBlurEffectStyleDark]; //毛玻璃视图 UIVisualEffectView *effectView = [[UIVisualEffectView alloc] initWithEffect:effect];; effectView.frame = CGRectMake(0, 0, ScreenW/2, ScreenH); [self.myImageView addSubview:effectView]; }
  • iOS5.0之后就出现了Core Image的API,Core Image的API被放在CoreImage.framework库中, 在iOS和OS X平台上,Core Image都提供了大量的滤镜(Filter),在OS X上有120多种Filter,而在iOS上也有90多,Core Image设置模糊之后会在周围产生白边:
- (UIImage *)coreBlurImage:(UIImage *)image withBlurNumber:(CGFloat)blur{        CIContext *context = [CIContext contextWithOptions:nil]; CIImage *inputImage = [CIImage imageWithCGImage:image.CGImage]; //设置filter CIFilter *filter = [CIFilter filterWithName:@"CIGaussianBlur"]; [filter setValue:inputImage forKey:kCIInputImageKey]; [filter setValue:@(blur) forKey:@"inputRadius"]; //模糊图片 CIImage *result = [filter valueForKey:kCIOutputImageKey]; CGImageRef outImage = [context createCGImage:result fromRect:[result extent]]; UIImage *blurImage = [UIImage imageWithCGImage:outImage]; CGImageRelease(outImage); return blurImage; }
  • GPUImage的开源库实现毛玻璃效果:
- (UIImage *)GPUImageStyleWithImage:(UIImage *)image{        GPUImageGaussianBlurFilter *filter = [[GPUImageGaussianBlurFilter alloc] init];    filter.blurRadiusInPixels = 10.0;//值越大,模糊度越大    UIImage *blurImage = [filter imageByFilteringImage:image]; return blurImage; }
  • vImage属于Accelerate.Framework,需要导入 Accelerate下的 Accelerate头文件, Accelerate主要是用来做数字信号处理、图像处理相关的向量、矩阵运算的库。图像可以认为是由向量或者矩阵数据构成的,Accelerate里既然提供了高效的数学运算API,自然就能方便我们对图像做各种各样的处理 ,模糊算法使用的是vImageBoxConvolve_ARGB8888这个函数:
- (UIImage *)boxblurImage:(UIImage *)image withBlurNumber:(CGFloat)blur{    if (blur < 0.f || blur > 1.f) { blur = 0.5f; } int boxSize = (int)(blur * 40); boxSize = boxSize - (boxSize % 2) + 1; CGImageRef img = image.CGImage; vImage_Buffer inBuffer, outBuffer; vImage_Error error; void *pixelBuffer; //从CGImage中获取数据 CGDataProviderRef inProvider = CGImageGetDataProvider(img); CFDataRef inBitmapData = CGDataProviderCopyData(inProvider); //设置从CGImage获取对象的属性 inBuffer.width = CGImageGetWidth(img); inBuffer.height = CGImageGetHeight(img); inBuffer.rowBytes = CGImageGetBytesPerRow(img); inBuffer.data = (void*)CFDataGetBytePtr(inBitmapData); pixelBuffer = malloc(CGImageGetBytesPerRow(img) * CGImageGetHeight(img)); if(pixelBuffer == NULL) NSLog(@"No pixelbuffer"); outBuffer.data = pixelBuffer; outBuffer.width = CGImageGetWidth(img); outBuffer.height = CGImageGetHeight(img); outBuffer.rowBytes = CGImageGetBytesPerRow(img); error = vImageBoxConvolve_ARGB8888(&inBuffer, &outBuffer, NULL, 0, 0, boxSize, boxSize, NULL, kvImageEdgeExtend); if(error){ NSLog(@"error from convolution %ld", error); } CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB(); CGContextRef ctx = CGBitmapContextCreate( outBuffer.data, outBuffer.width, outBuffer.height, 8, outBuffer.rowBytes, colorSpace, kCGImageAlphaNoneSkipLast); CGImageRef imageRef = CGBitmapContextCreateImage(ctx); UIImage *returnImage = [UIImage imageWithCGImage:imageRef]; //clean up CGContextRelease(ctx) CGColorSpaceRelease(colorSpace); free(pixelBuffer); CFRelease(inBitmapData); CGColorSpaceRelease(colorSpace); CGImageRelease(imageRef); return returnImage; }

源码已上传至,欢迎下载,并提出宝贵意见。

结语

  • UIVisualEffectView技术是从iOS8之后引进的,原理是在图片上方生成一个蒙层,若最低适配iOS8的话可以考虑采取这个,运用UIBlurEffect是可逆的,我们可以去掉蒙层,显示图片;
[effectview removeFromSuperview];
  • iOS 7之前系统的类提供的UIToolbar,原理也是在图片上方生成一个蒙层。
  • 利用CoreImage 进行模糊处理,是非常消耗CPU性能的;
  • GPUImage的开源库实现毛玻璃效果也比较吃内存,相对Core Image好一点;
  • 图像模糊处理属于复杂的计算,大部分图片模糊选择的是vImage,性能最佳。

UIToolbar和UIBlurEffect都是在图片上方生成一个蒙层,都可以设置模糊的范围;而其他三种方式都是对原来的图片进行模糊处理返回渲染后的一整张图片,相对来说比较耗性能。图1-2 是实测五种方式的内存占用:

一月不读书,耳目失精爽。

转载于:https://www.cnblogs.com/Free-Thinker/p/11238389.html

你可能感兴趣的文章
Linux让应用只在特定桌面环境下自动启动
查看>>
在Codeplex发布ClickOnce应用程序
查看>>
ajax
查看>>
poj1981 Circle and Points 单位圆覆盖问题
查看>>
POP的Stroke动画
查看>>
线程同步机制初识 【转载】
查看>>
屏蔽各类弹窗广告(WPS、智能云输入法)
查看>>
作品第二课----改变DIV任意属性的值
查看>>
WCF(二) 使用配置文件实现WCF应用程序
查看>>
Oracle 游标使用全解
查看>>
什么是系统调用,对操作系统的服务请求与一般子程序调用有什么区别?
查看>>
css实现显示隐藏的5种方法
查看>>
anaconda3安装cv2模块(python3.6)
查看>>
python成长之路【第二篇】:列表和元组
查看>>
R-CNN论文详解(转载)
查看>>
关于矩阵的特征向量和特征值的含义
查看>>
MTK Android 标准编译命令
查看>>
Autofac 组件、服务、自动装配
查看>>
有一种力量叫坚持
查看>>
vs2010+qt4.8.6
查看>>