У меня есть UIImage, который является снимком, снятым с iPhone-камеры, теперь я хочу, чтобы UIImage был преобразован в cv:: Mat (OpenCV). Для этого я использую следующие строки кода:
-(cv::Mat)CVMat
{
CGColorSpaceRef colorSpace = CGImageGetColorSpace(self.CGImage);
CGFloat cols = self.size.width;
CGFloat rows = self.size.height;
cv::Mat cvMat(rows, cols, CV_8UC4); // 8 bits per component, 4 channels
CGContextRef contextRef = CGBitmapContextCreate(cvMat.data, // Pointer to backing data
cols, // Width of bitmap
rows, // Height of bitmap
8, // Bits per component
cvMat.step[0], // Bytes per row
colorSpace, // Colorspace
kCGImageAlphaNoneSkipLast |
kCGBitmapByteOrderDefault); // Bitmap info flags
CGContextDrawImage(contextRef, CGRectMake(0, 0, cols, rows), self.CGImage);
CGContextRelease(contextRef);
return cvMat;
}
Этот код отлично работает для режима UIImage в ландшафтном режиме, но когда я использую тот же код с изображениями, сделанными из режима Портрет, изображения поворачиваются на 90 градусов вправо.
Я новичок в iOS и Objective C, и поэтому я не могу понять, что не так.
Может кто-нибудь сказать мне, что не так с кодом, или я что-то упускаю.