web-dev-qa-db-ja.com

プログラムで画像の色を反転させることは可能ですか?

IOSで画像を撮り、色を反転させたい。

22
Brodie

Quixotoの答えを拡張するために、そして私は自分のプロジェクトからの関連するソースコードを持っているので、CPU上のピクセル操作にドロップする必要がある場合は、説明を追加した次の方法でうまくいくはずです。

@implementation UIImage (NegativeImage)

- (UIImage *)negativeImage
{
    // get width and height as integers, since we'll be using them as
    // array subscripts, etc, and this'll save a whole lot of casting
    CGSize size = self.size;
    int width = size.width;
    int height = size.height;

    // Create a suitable RGB+alpha bitmap context in BGRA colour space
    CGColorSpaceRef colourSpace = CGColorSpaceCreateDeviceRGB();
    unsigned char *memoryPool = (unsigned char *)calloc(width*height*4, 1);
    CGContextRef context = CGBitmapContextCreate(memoryPool, width, height, 8, width * 4, colourSpace, kCGBitmapByteOrder32Big | kCGImageAlphaPremultipliedLast);
    CGColorSpaceRelease(colourSpace);

    // draw the current image to the newly created context
    CGContextDrawImage(context, CGRectMake(0, 0, width, height), [self CGImage]);

    // run through every pixel, a scan line at a time...
    for(int y = 0; y < height; y++)
    {
        // get a pointer to the start of this scan line
        unsigned char *linePointer = &memoryPool[y * width * 4];

        // step through the pixels one by one...
        for(int x = 0; x < width; x++)
        {
            // get RGB values. We're dealing with premultiplied alpha
            // here, so we need to divide by the alpha channel (if it
            // isn't zero, of course) to get uninflected RGB. We
            // multiply by 255 to keep precision while still using
            // integers
            int r, g, b; 
            if(linePointer[3])
            {
                r = linePointer[0] * 255 / linePointer[3];
                g = linePointer[1] * 255 / linePointer[3];
                b = linePointer[2] * 255 / linePointer[3];
            }
            else
                r = g = b = 0;

            // perform the colour inversion
            r = 255 - r;
            g = 255 - g;
            b = 255 - b;

            // multiply by alpha again, divide by 255 to undo the
            // scaling before, store the new values and advance
            // the pointer we're reading pixel data from
            linePointer[0] = r * linePointer[3] / 255;
            linePointer[1] = g * linePointer[3] / 255;
            linePointer[2] = b * linePointer[3] / 255;
            linePointer += 4;
        }
    }

    // get a CG image from the context, wrap that into a
    // UIImage
    CGImageRef cgImage = CGBitmapContextCreateImage(context);
    UIImage *returnImage = [UIImage imageWithCGImage:cgImage];

    // clean up
    CGImageRelease(cgImage);
    CGContextRelease(context);
    free(memoryPool);

    // and return
    return returnImage;
}

@end

これにより、UIImageに次のカテゴリメソッドが追加されます。

  1. のメモリにアクセスできる明確なCoreGraphicsビットマップコンテキストを作成します
  2. uIImageをそれに描画します
  3. すべてのピクセルを実行し、事前に乗算されたアルファから屈折されていないRGBに変換し、各チャネルを個別に反転し、アルファを再度乗算して保存します。
  4. コンテキストから画像を取得し、それをUIImageにラップします
  5. それ自体の後でクリーンアップし、UIImageを返します
42
Tommy

CoreImageの場合:

#import <CoreImage/CoreImage.h>

@implementation UIImage (ColorInverse)

+ (UIImage *)inverseColor:(UIImage *)image {
    CIImage *coreImage = [CIImage imageWithCGImage:image.CGImage];
    CIFilter *filter = [CIFilter filterWithName:@"CIColorInvert"];
    [filter setValue:coreImage forKey:kCIInputImageKey];
    CIImage *result = [filter valueForKey:kCIOutputImageKey];
    return [UIImage imageWithCIImage:result];
}

@end
23
user2704438

もちろん、それは可能です。1つの方法は、「差分」ブレンドモード(kCGBlendModeDifference)を使用することです。画像処理を設定するためのコードの概要については、 この質問 (とりわけ)を参照してください。画像を下(ベース)画像として使用し、その上に真っ白なビットマップを描画します。

CGImageRefを取得してビットマップコンテキストに描画し、ビットマップコンテキストのピクセルをループすることで、ピクセルごとの操作を手動で実行することもできます。

4
Ben Zotto

トミーの答えが答えですが、それは大きな画像にとって非常に集中的で時間のかかる作業になる可能性があることを指摘したいと思います。画像の操作に役立つ2つのフレームワークがあります。

  1. CoreImage
  2. アクセル

    そして、Brad Larsonの驚くべきGPUImageフレームワークに言及する価値があります。GPUImageは、OpenGlES 2.0環境でカスタムフラグメントシェーダーを使用してルーチンをGPUで実行し、速度を大幅に向上させます。 CoreImgeを使用すると、負のフィルターが使用可能な場合、CPUまたはGPUを選択できます。アクセラレーターを使用すると、すべてのルーチンがCPUで実行されますが、ベクトル数学画像処理が使用されます。
3
Andrea

これを行うためにSwift拡張機能を作成しました。CIImageベースのUIImageが故障するため(ほとんどのライブラリはCGImageが設定されていると想定しています)、変更されたCIImageに基づくUIImageを返すオプションを追加しました。

extension UIImage {
    func inverseImage(cgResult: Bool) -> UIImage? {
        let coreImage = UIKit.CIImage(image: self)
        guard let filter = CIFilter(name: "CIColorInvert") else { return nil }
        filter.setValue(coreImage, forKey: kCIInputImageKey)
        guard let result = filter.valueForKey(kCIOutputImageKey) as? UIKit.CIImage else { return nil }
        if cgResult { // I've found that UIImage's that are based on CIImages don't work with a lot of calls properly
            return UIImage(CGImage: CIContext(options: nil).createCGImage(result, fromRect: result.extent))
        }
        return UIImage(CIImage: result)
    }
}
3
BadPirate

Swift 3アップデート:(@ BadPirate Answerから)

extension UIImage {
func inverseImage(cgResult: Bool) -> UIImage? {
    let coreImage = UIKit.CIImage(image: self)
    guard let filter = CIFilter(name: "CIColorInvert") else { return nil }
    filter.setValue(coreImage, forKey: kCIInputImageKey)
    guard let result = filter.value(forKey: kCIOutputImageKey) as? UIKit.CIImage else { return nil }
    if cgResult { // I've found that UIImage's that are based on CIImages don't work with a lot of calls properly
        return UIImage(cgImage: CIContext(options: nil).createCGImage(result, from: result.extent)!)
    }
    return UIImage(ciImage: result)
  }
}
1
MLBDG

Swift 5バージョンの@MLBDG回答に更新

extension UIImage {
func inverseImage(cgResult: Bool) -> UIImage? {
    let coreImage = self.ciImage
    guard let filter = CIFilter(name: "CIColorInvert") else { return nil }
    filter.setValue(coreImage, forKey: kCIInputImageKey)
    guard let result = filter.value(forKey: kCIOutputImageKey) as? UIKit.CIImage else { return nil }
    if cgResult { // I've found that UIImage's that are based on CIImages don't work with a lot of calls properly
        return UIImage(cgImage: CIContext(options: nil).createCGImage(result, from: result.extent)!)
    }
    return UIImage(ciImage: result)
}

}

0
Ilya Stukalov