本文主要是介绍objective-c中如何从UIImage中获取像素信息,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
翻译自Obtaining pixel data from a UIImage
UIImage是我们在ios中非常熟悉的数据结构了,用它来存储图片非常方便。在OpenCV类库中,使用是另外的数据结构来存储图片,这时,我们就面临一个问题:如何才能把UIImage装换为其他类库也能识别的数据结构呢?
尽管不同的图片处理类库有不同的数据结构来处理图片,但是有一种结构是被所有的图片处理类库所识别的,那就是raw格式,也称之为原生格式。在raw格式中,每个像素通过一个unsigned byte的数组来表示,这个数组中存储了这个像素的RGBA值或者灰度值。如果你处理的是视频格式,你可能需要使用YUV,否则,你需要使用的就是RGBA值或者灰度值,这些信息会被存储在一个数组中。你可能会想,我如何才能从UIImage中方便的获取相应的像素信息呢?啊哈,你有福了。我实现了一个Category来解决这个问题,如下:
UIImage+Pixels.h
UIImage+Pixels.m
#import <UIKit/UIKit.h>@interface AlphaPixels : NSObject
{
unsigned char* pixelData;
int width;
}-(id) initWithImage: (UIImage*) image;
-(float) alphaAtX:(int) x y:(int) y;@end
#import "AlphaPixels.h"
@implementation AlphaPixels
-(id) initWithImage: (UIImage*) image
{width = image.size.width;int height = image.size.height; pixelData = malloc( width * height );if( !pixelData ){NSException *exception = [NSException exceptionWithName:@"AlphaPixelsException" reason:@"Unable to allocate memory for pixel data" userInfo:nil];@throw exception;}CGContextRef context = CGBitmapContextCreate ( pixelData,width, height, 8, width, NULL, kCGImageAlphaOnly ); if( !context ){NSException *exception = [NSException exceptionWithName:@"AlphaPixelsException" reason:@"Unable to create bitmap context" userInfo:nil]; @throw exception;}CGContextDrawImage( context, CGRectMake(0, 0, width, height), image.CGImage );CGContextRelease( context );return self;
}
-(void) dealloc
{free( pixelData );[super dealloc];
}
-(float) alphaAtX:(int) x y:(int) y
{return pixelData[y * width + x]/255;
}@end
你可以使用如下代码来获取每个像素的灰度值:
for(int i=0;i<self.size.height;i++)
{for(int y=0;y<self.size.width;y++){NSLog(@"0x%X",pixelData[(i*((int)self.size.width))+y]);}
}
由于0x00代表没有亮度,而0xFF代表最大的亮度,所以,对于黑色的图片,返回的是一系列的0x00,对于白色的照片,返回的是一系列的0xFF。
你可以使用如下代码获取每个像素的RGBA值:
for(int i=0;i<self.size.height;i++)
{for(int y=0;y<self.size.width;y++){unsigned char r = pixelData[(i*((int)self.size.width)*4)+(y*4)];unsigned char g = pixelData[(i*((int)self.size.width)*4)+(y*4)+1];unsigned char b = pixelData[(i*((int)self.size.width)*4)+(y*4)+2];unsigned char a = pixelData[(i*((int)self.size.width)*4)+(y*4)+3];NSLog(@"r = 0x%X g = 0x%X b = 0x%X a = 0x%X",r,g,b,a);}
}
对于红色的图片,你会得到如下结果:r = 0xFF g = 0×0 b = 0×0 a = 0xFF
对于蓝色的图片,你会得到如下结果:r = 0×0 g = 0×0 b = 0xFF a = 0xFF
对于每个像素,需要通过red, green, blue, alpha四个值来代表,即RGBA值。对于alpha值,你可能会感到疑惑,这个值是标志图片的不透明度的,0x00代表100%透明,0xFF代表100%不透明。我发现,在大多数图片处理中,你最好忽略alpha这个值。
下面我们来讨论下如何从UIImage中取出某个特定坐标的像素?
对于灰度值,由于每个像素只由一个值代表,故我们可以把一张图片的像素布局看成一个表格,每个像素有自己的一个索引,对于第一个像素它的索引是(0, 0),第二个像素索引是(1, 0)。用如下代码即可取到对应坐标的像素的灰度值:
int x = 10;
int y = 2;
unsigned char pixel = pixels[(y*((int)whiteImage.size.width))+x];
对于RGBA值,基本原理和上面的灰度值一样,但是需要注意的一点是,RGBA值需要四个字节来去表示一个像素。
int x = 10;
int y = 2;
unsigned char pixel = pixels[(y*((int)whiteImage.size.width)*4)+(x*4)];
如果你看到了这里,那就说明你已经能够从UIImage中获取像素信息了,Congratulations! 但是,最后有一点非常重要的事情你需要注意。你使用完这些方法给你的数据之后,你需要手动的去free这些数据,否则就会出现内存泄露。可能有些人会疑惑我为什么把返回值设定为(unsigned char*)而不是一个NSArray,答案很简单,直接操作(unsigned char*)要比操作NSArray快很多,而我的方法默认是为那些对操作速度要求很高的同学提供的。
这篇关于objective-c中如何从UIImage中获取像素信息的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!