Я хочу сделать изображение и инвертировать цвета в iOS.
Возможна ли программная инверсия цветов изображения?
Ответ 1
Чтобы расширить ответ на quixoto и потому, что у меня есть соответствующий исходный код из моего собственного проекта, если вам нужно было перейти к обработке пикселов на процессоре, то следующее, к которому я добавил экспозицию, должен сделать хитрость:
@implementation UIImage (NegativeImage)
- (UIImage *)negativeImage
{
// get width and height as integers, since we'll be using them as
// array subscripts, etc, and this'll save a whole lot of casting
CGSize size = self.size;
int width = size.width;
int height = size.height;
// Create a suitable RGB+alpha bitmap context in BGRA colour space
CGColorSpaceRef colourSpace = CGColorSpaceCreateDeviceRGB();
unsigned char *memoryPool = (unsigned char *)calloc(width*height*4, 1);
CGContextRef context = CGBitmapContextCreate(memoryPool, width, height, 8, width * 4, colourSpace, kCGBitmapByteOrder32Big | kCGImageAlphaPremultipliedLast);
CGColorSpaceRelease(colourSpace);
// draw the current image to the newly created context
CGContextDrawImage(context, CGRectMake(0, 0, width, height), [self CGImage]);
// run through every pixel, a scan line at a time...
for(int y = 0; y < height; y++)
{
// get a pointer to the start of this scan line
unsigned char *linePointer = &memoryPool[y * width * 4];
// step through the pixels one by one...
for(int x = 0; x < width; x++)
{
// get RGB values. We're dealing with premultiplied alpha
// here, so we need to divide by the alpha channel (if it
// isn't zero, of course) to get uninflected RGB. We
// multiply by 255 to keep precision while still using
// integers
int r, g, b;
if(linePointer[3])
{
r = linePointer[0] * 255 / linePointer[3];
g = linePointer[1] * 255 / linePointer[3];
b = linePointer[2] * 255 / linePointer[3];
}
else
r = g = b = 0;
// perform the colour inversion
r = 255 - r;
g = 255 - g;
b = 255 - b;
// multiply by alpha again, divide by 255 to undo the
// scaling before, store the new values and advance
// the pointer we're reading pixel data from
linePointer[0] = r * linePointer[3] / 255;
linePointer[1] = g * linePointer[3] / 255;
linePointer[2] = b * linePointer[3] / 255;
linePointer += 4;
}
}
// get a CG image from the context, wrap that into a
// UIImage
CGImageRef cgImage = CGBitmapContextCreateImage(context);
UIImage *returnImage = [UIImage imageWithCGImage:cgImage];
// clean up
CGImageRelease(cgImage);
CGContextRelease(context);
free(memoryPool);
// and return
return returnImage;
}
@end
Таким образом, добавляется метод категории для UIImage, который:
- создает прозрачный контекст растрового изображения CoreGraphics, который позволяет получить доступ к памяти
- привлекает к нему UIImage
- проходит через каждый пиксель, преобразуя его из предварительно умноженной альфы в uninflected RGB, инвертируя каждый канал отдельно, снова умножая на альфа и сохраняя назад
- получает изображение из контекста и переносит его в UIImage
- очищает после себя и возвращает UIImage
Ответ 2
С CoreImage:
#import <CoreImage/CoreImage.h>
@implementation UIImage (ColorInverse)
+ (UIImage *)inverseColor:(UIImage *)image {
CIImage *coreImage = [CIImage imageWithCGImage:image.CGImage];
CIFilter *filter = [CIFilter filterWithName:@"CIColorInvert"];
[filter setValue:coreImage forKey:kCIInputImageKey];
CIImage *result = [filter valueForKey:kCIOutputImageKey];
return [UIImage imageWithCIImage:result];
}
@end
Ответ 3
Конечно, возможно - один способ использует режим разностной разности (kCGBlendModeDifference
). См. этот вопрос (среди прочего) для контура кода для настройки обработки изображения. Используйте свое изображение как нижнее (базовое) изображение, а затем нарисуйте на нем чистый белый растровый рисунок.
Вы также можете выполнить операцию за пиксель вручную, получив CGImageRef
и введя его в контекст растрового изображения, а затем перейдя по пикселям в контексте растрового изображения.
Ответ 4
Ответ Tommy - это ответ, но я хотел бы указать, что это может быть очень интенсивная и трудоемкая задача для больших изображений. Существуют две структуры, которые могут помочь вам в управлении изображениями:
- CoreImage
- Accelerator
И действительно стоит упомянуть потрясающую инфраструктуру GPUImage от Брэда Ларсона, GPUImage запускает подпрограммы на графическом процессоре с использованием пользовательского шейдера фрагментов в среде OpenGlES 2.0 с замечательным улучшением скорости. С CoreImge, если имеется отрицательный фильтр, вы можете выбрать CPU или GPU, используя Accelerator, все подпрограммы запускаются на CPU, но с использованием векторной математической обработки изображений.
Ответ 5
Создал быстрое расширение, чтобы сделать именно это. Также из-за того, что UIImages на основе CIImage разбиваются (большинство библиотек предполагают, что CGImage установлен) Я добавил вариант для возврата UIImage, основанного на модифицированном CIImage:
extension UIImage {
func inverseImage(cgResult: Bool) -> UIImage? {
let coreImage = UIKit.CIImage(image: self)
guard let filter = CIFilter(name: "CIColorInvert") else { return nil }
filter.setValue(coreImage, forKey: kCIInputImageKey)
guard let result = filter.valueForKey(kCIOutputImageKey) as? UIKit.CIImage else { return nil }
if cgResult { // I've found that UIImage that are based on CIImages don't work with a lot of calls properly
return UIImage(CGImage: CIContext(options: nil).createCGImage(result, fromRect: result.extent))
}
return UIImage(CIImage: result)
}
}
Ответ 6
Обновление Swift 3: (из ответа @BadPirate)
extension UIImage {
func inverseImage(cgResult: Bool) -> UIImage? {
let coreImage = UIKit.CIImage(image: self)
guard let filter = CIFilter(name: "CIColorInvert") else { return nil }
filter.setValue(coreImage, forKey: kCIInputImageKey)
guard let result = filter.value(forKey: kCIOutputImageKey) as? UIKit.CIImage else { return nil }
if cgResult { // I've found that UIImage that are based on CIImages don't work with a lot of calls properly
return UIImage(cgImage: CIContext(options: nil).createCGImage(result, from: result.extent)!)
}
return UIImage(ciImage: result)
}
}