Подтвердить что ты не робот

Поворот cv:: Mat с использованием cv:: warpAffine смещает изображение цели

Я пытаюсь поворачивать изображение 1296x968 90 градусов с помощью С++ API OpenCV и Я столкнулся с несколькими проблемами.

Ввод: input

повернутого: output

Как вы можете видеть, у повернутого изображения есть несколько проблем. Во-первых, он имеет тот же размер оригинала, хотя я специально создаю пункт назначения Mat с инвертированным размером оригинала. В результате изображение получателя обрезается.

Я подозреваю, что это происходит, потому что я вызываю warpAffine() и передаю размер исходного Mat вместо размера назначения Mat. Но я делаю это, потому что я выполнил этот ответ, но теперь я подозреваю, что ответ может быть неправильным. Итак, это мое первое сомнение/проблема.

Во-вторых, warpAffine() записывается в пункт назначения с определенным смещением (возможно, чтобы скопировать повернутые данные в середину изображения), и эта операция оставляет ужасную и большая черная рамка вокруг изображения.

Как исправить эти проблемы?

Я использую исходный код ниже:

#include <cv.h>
#include <highgui.h>
#include <iostream>

using namespace cv;
using namespace std;

void rotate(Mat& image, double angle)
{
    Point2f src_center(image.cols/2.0F, image.rows/2.0F);

    Mat rot_matrix = getRotationMatrix2D(src_center, angle, 1.0);

    Mat rotated_img(Size(image.size().height, image.size().width), image.type());

    warpAffine(image, rotated_img, rot_matrix, image.size());
    imwrite("rotated.jpg", rotated_img);
}

int main(int argc, char* argv[])
{
    Mat orig_image = imread(argv[1], 1);
    if (orig_image.empty())
    {
        cout << "!!! Couldn't load " << argv[1] << endl;
        return -1;
    }

    rotate(orig_image, 90);

    return 0;
}
4b9b3361

Ответ 1

У меня найдено решение, которое не включает warpAffine().

Но перед этим мне нужно указать (для будущих ссылок), что мое подозрение было правильным, вам нужно было передать размер адресата при вызове warpAffine():

warpAffine(image, rotated_img, rot_matrix, rotated_img.size());

Насколько я могу судить, черная рамка (вызванная записью со смещением), созданная этой функцией, кажется стандартным. Я заметил это с интерфейсом C, а также с С++-интерфейсом OpenCV, работающим на Mac и Linux, с использованием версий 2.3.1a и 2.3.0.

Решение, которое я в конечном итоге использовал, намного проще, чем все это. Вы можете использовать cv::transpose() и cv::flip() для поворота изображение на 90 градусов. Вот он:

Mat src = imread(argv[1], 1);

cv::Mat dst;
cv::transpose(src, dst);
cv::flip(dst, dst, 1);

imwrite("rotated90.jpg", dst);

Hyel9.jpg ---- I > 4X4so.jpg

Ответ 2

У многих людей были проблемы с вращающимися изображениями или фрагментами изображений из-за смещений и т.д. Итак, я отправляю решение, позволяющее поворачивать область (или целое) изображения и вставлять его в другое изображение или функция выполняет вычисление изображения, где все будет просто соответствовать.

// ROTATE p by R
/**
 * Rotate p according to rotation matrix (from getRotationMatrix2D()) R
 * @param R     Rotation matrix from getRotationMatrix2D()
 * @param p     Point2f to rotate
 * @return      Returns rotated coordinates in a Point2f
 */
Point2f rotPoint(const Mat &R, const Point2f &p)
{
    Point2f rp;
    rp.x = (float)(R.at<double>(0,0)*p.x + R.at<double>(0,1)*p.y + R.at<double>(0,2));
    rp.y = (float)(R.at<double>(1,0)*p.x + R.at<double>(1,1)*p.y + R.at<double>(1,2));
    return rp;
}

//COMPUTE THE SIZE NEEDED TO LOSSLESSLY STORE A ROTATED IMAGE
/**
 * Return the size needed to contain bounding box bb when rotated by R
 * @param R     Rotation matrix from getRotationMatrix2D()
 * @param bb    bounding box rectangle to be rotated by R
 * @return      Size of image(width,height) that will compleley contain bb when rotated by R
 */
Size rotatedImageBB(const Mat &R, const Rect &bb)
{
    //Rotate the rectangle coordinates
    vector<Point2f> rp;
    rp.push_back(rotPoint(R,Point2f(bb.x,bb.y)));
    rp.push_back(rotPoint(R,Point2f(bb.x + bb.width,bb.y)));
    rp.push_back(rotPoint(R,Point2f(bb.x + bb.width,bb.y+bb.height)));
    rp.push_back(rotPoint(R,Point2f(bb.x,bb.y+bb.height)));
    //Find float bounding box r
    float x = rp[0].x;
    float y = rp[0].y;
    float left = x, right = x, up = y, down = y;
    for(int i = 1; i<4; ++i)
    {
        x = rp[i].x;
        y = rp[i].y;
        if(left > x) left = x;
        if(right < x) right = x;
        if(up > y) up = y;
        if(down < y) down = y;
    }
    int w = (int)(right - left + 0.5);
    int h = (int)(down - up + 0.5);
    return Size(w,h);
}

/**
 * Rotate region "fromroi" in image "fromI" a total of "angle" degrees and put it in "toI" if toI exists.
 * If toI doesn't exist, create it such that it will hold the entire rotated region. Return toI, rotated imge
 *   This will put the rotated fromroi piece of fromI into the toI image
 *
 * @param fromI     Input image to be rotated
 * @param toI       Output image if provided, (else if &toI = 0, it will create a Mat fill it with the rotated image roi, and return it).
 * @param fromroi   roi region in fromI to be rotated.
 * @param angle     Angle in degrees to rotate
 * @return          Rotated image (you can ignore if you passed in toI
 */
Mat rotateImage(const Mat &fromI, Mat *toI, const Rect &fromroi, double angle)
{
    //CHECK STUFF
    // you should protect against bad parameters here ... omitted ...

    //MAKE OR GET THE "toI" MATRIX
    Point2f cx((float)fromroi.x + (float)fromroi.width/2.0,fromroi.y +
               (float)fromroi.height/2.0);
    Mat R = getRotationMatrix2D(cx,angle,1);
    Mat rotI;
    if(toI)
        rotI = *toI;
    else
    {
        Size rs = rotatedImageBB(R, fromroi);
        rotI.create(rs,fromI.type());
    }

    //ADJUST FOR SHIFTS
    double wdiff = (double)((cx.x - rotI.cols/2.0));
    double hdiff = (double)((cx.y - rotI.rows/2.0));
    R.at<double>(0,2) -= wdiff; //Adjust the rotation point to the middle of the dst image
    R.at<double>(1,2) -= hdiff;

    //ROTATE
    warpAffine(fromI, rotI, R, rotI.size(), INTER_CUBIC, BORDER_CONSTANT, Scalar::all(0)); 

    //& OUT
    return(rotI);
}

Ответ 3

Я понимаю, что вы нашли другие более быстрые решения (поворот на 90 градусов должен быть очень быстрым и не нужен всем механизмом warpAffine), но я хочу решить проблему черной границы для всех, кто сталкивается с этим.

Что еще может сделать warpAffine? Целевое изображение было указано более широким, чем оно было высоким, а аффинное преобразование определяло только вращение (вокруг центра изображения), а не масштабирование. Это именно то, что он сделал. Нет никакой информации, чтобы сообщить warpAffine, что должно быть нарисовано в этих черных границах, поэтому оно оставило их черными.

Прямой физический эксперимент: Поместите лист вниз на стол. Нарисуйте схему вокруг нее (это то, что вы сделали, когда указали, что хотите, чтобы результат был того же размера/размера, что и оригинал). Теперь поверните этот лист на 90 градусов вокруг его центра. Посмотрите на область, связанную контуром на столе. Если бы это был черный стол, он выглядел бы точно так же, как и ваш результат.

Ответ 4

Возможно, это может помочь кому-то. переменные - img: оригинальное изображение
угол: градус
масштаб
dst: изображение назначения

int width = img.size().width, 
    height = img.size().height;
Mat rot = getRotationMatrix2D(Point2f(0,0), angle, scale)/scale; //scale later
double sinv = rot.at<double>(0,1),
       cosv = rot.at<double>(0,0);
rot.at<double>(1,2) = width*sinv;  //adjust row offset
Size dstSize(width*cosv + height*sinv, width*sinv + height*cosv);
Mat dst;
warpAffine(img, dst, rot, dstSize);
resize(dst, dst, Size(), scale, scale);  //scale now

Ответ 5

Одна из проблем, которые я обнаружил, заключается в том, что размер целевого изображения для warpAffine установлен в image.size() вместо rotated_img.size(). Однако после warp он все еще переведен слишком далеко в x и y... Я пробовал тот же самый warp

[ 6.123031769111886e-17 1                     163.9999999999999;
 -1                     6.123031769111886e-17 1132;
  0                     0                     1]

из OpenCV getRotationMatrix2D в Matlab, и он отлично работал. Я начинаю запах возможной ошибки с помощью warpAffine...