Подтвердить что ты не робот

Как работает преобразование перспективы в PIL?

PIL Image.transform имеет перспективный режим, который требует 8- Image.transform набор данных, но я не могу понять, как преобразовать допустимый наклон в 30 градусов к этому кортежу.

Кто-нибудь может это объяснить?

4b9b3361

Ответ 1

Чтобы применить перспективное преобразование, вы должны сначала знать четыре точки в плоскости A, которые будут отображены на четыре точки в плоскости B. С помощью этих точек вы можете получить гомографическое преобразование. Делая это, вы получаете свои 8 коэффициентов, и преобразование может иметь место.

Сайт http://xenia.media.mit.edu/~cwren/interpolator/ (mirror: WebArchive), а также многие другие тексты, описывают, как эти коэффициенты могут быть определены. Чтобы упростить задачу, вот прямая реализация по указанной ссылке:

import numpy

def find_coeffs(pa, pb):
    matrix = []
    for p1, p2 in zip(pa, pb):
        matrix.append([p1[0], p1[1], 1, 0, 0, 0, -p2[0]*p1[0], -p2[0]*p1[1]])
        matrix.append([0, 0, 0, p1[0], p1[1], 1, -p2[1]*p1[0], -p2[1]*p1[1]])

    A = numpy.matrix(matrix, dtype=numpy.float)
    B = numpy.array(pb).reshape(8)

    res = numpy.dot(numpy.linalg.inv(A.T * A) * A.T, B)
    return numpy.array(res).reshape(8)

где pb - четыре вершины в текущей плоскости, а pa содержит четыре вершины в результирующей плоскости.

Итак, предположим, что мы преобразуем изображение, как в:

import sys
from PIL import Image

img = Image.open(sys.argv[1])
width, height = img.size
m = -0.5
xshift = abs(m) * width
new_width = width + int(round(xshift))
img = img.transform((new_width, height), Image.AFFINE,
        (1, m, -xshift if m > 0 else 0, 0, 1, 0), Image.BICUBIC)
img.save(sys.argv[2])

Вот пример ввода и вывода с кодом выше:

enter image description hereenter image description here

Мы можем продолжить работу с последним кодом и выполнить перспективное преобразование, чтобы отменить сдвиг:

coeffs = find_coeffs(
        [(0, 0), (256, 0), (256, 256), (0, 256)],
        [(0, 0), (256, 0), (new_width, height), (xshift, height)])

img.transform((width, height), Image.PERSPECTIVE, coeffs,
        Image.BICUBIC).save(sys.argv[3])

В результате чего:

enter image description here

Вы также можете повеселиться с пунктами назначения:

enter image description hereenter image description here

Ответ 2

Я собираюсь уловить этот вопрос всего лишь немного, потому что это единственное, что касается Google в отношении перспективных преобразований в Python. Вот несколько более общий код, основанный на выше, который создает матрицу перспективного преобразования и генерирует функцию, которая будет запускать это преобразование в произвольных точках:

import numpy as np

def create_perspective_transform_matrix(src, dst):
    """ Creates a perspective transformation matrix which transforms points
        in quadrilateral ``src`` to the corresponding points on quadrilateral
        ``dst``.

        Will raise a ``np.linalg.LinAlgError`` on invalid input.
        """
    # See:
    # * http://xenia.media.mit.edu/~cwren/interpolator/
    # * http://stackoverflow.com/a/14178717/71522
    in_matrix = []
    for (x, y), (X, Y) in zip(src, dst):
        in_matrix.extend([
            [x, y, 1, 0, 0, 0, -X * x, -X * y],
            [0, 0, 0, x, y, 1, -Y * x, -Y * y],
        ])

    A = np.matrix(in_matrix, dtype=np.float)
    B = np.array(dst).reshape(8)
    af = np.dot(np.linalg.inv(A.T * A) * A.T, B)
    return np.append(np.array(af).reshape(8), 1).reshape((3, 3))


def create_perspective_transform(src, dst, round=False, splat_args=False):
    """ Returns a function which will transform points in quadrilateral
        ``src`` to the corresponding points on quadrilateral ``dst``::

            >>> transform = create_perspective_transform(
            ...     [(0, 0), (10, 0), (10, 10), (0, 10)],
            ...     [(50, 50), (100, 50), (100, 100), (50, 100)],
            ... )
            >>> transform((5, 5))
            (74.99999999999639, 74.999999999999957)

        If ``round`` is ``True`` then points will be rounded to the nearest
        integer and integer values will be returned.

            >>> transform = create_perspective_transform(
            ...     [(0, 0), (10, 0), (10, 10), (0, 10)],
            ...     [(50, 50), (100, 50), (100, 100), (50, 100)],
            ...     round=True,
            ... )
            >>> transform((5, 5))
            (75, 75)

        If ``splat_args`` is ``True`` the function will accept two arguments
        instead of a tuple.

            >>> transform = create_perspective_transform(
            ...     [(0, 0), (10, 0), (10, 10), (0, 10)],
            ...     [(50, 50), (100, 50), (100, 100), (50, 100)],
            ...     splat_args=True,
            ... )
            >>> transform(5, 5)
            (74.99999999999639, 74.999999999999957)

        If the input values yield an invalid transformation matrix an identity
        function will be returned and the ``error`` attribute will be set to a
        description of the error::

            >>> tranform = create_perspective_transform(
            ...     np.zeros((4, 2)),
            ...     np.zeros((4, 2)),
            ... )
            >>> transform((5, 5))
            (5.0, 5.0)
            >>> transform.error
            'invalid input quads (...): Singular matrix
        """
    try:
        transform_matrix = create_perspective_transform_matrix(src, dst)
        error = None
    except np.linalg.LinAlgError as e:
        transform_matrix = np.identity(3, dtype=np.float)
        error = "invalid input quads (%s and %s): %s" %(src, dst, e)
        error = error.replace("\n", "")

    to_eval = "def perspective_transform(%s):\n" %(
        splat_args and "*pt" or "pt",
    )
    to_eval += "  res = np.dot(transform_matrix, ((pt[0], ), (pt[1], ), (1, )))\n"
    to_eval += "  res = res / res[2]\n"
    if round:
        to_eval += "  return (int(round(res[0][0])), int(round(res[1][0])))\n"
    else:
        to_eval += "  return (res[0][0], res[1][0])\n"
    locals = {
        "transform_matrix": transform_matrix,
    }
    locals.update(globals())
    exec to_eval in locals, locals
    res = locals["perspective_transform"]
    res.matrix = transform_matrix
    res.error = error
    return res

Ответ 3

Вот чисто Python-версия генерации коэффициентов преобразования (как я уже видел, это запрашивается несколькими). Я сделал и использовал его для создания пакета рисования изображений PyDraw pure-Python.

Если вы используете его для своего собственного проекта, обратите внимание, что для вычислений требуются несколько расширенных матричных операций, что означает, что для этой функции требуется другая, к счастью, чистая Python, матричная библиотека с именем matfunc изначально написанная Raymond Hettinger и которую вы можете скачать здесь или здесь.

import matfunc as mt

def perspective_coefficients(self, oldplane, newplane):
    """
    Calculates and returns the transform coefficients needed for a perspective 
    transform, ie tilting an image in 3D.
    Note: it is not very obvious how to set the oldplane and newplane arguments
    in order to tilt an image the way one wants. Need to make the arguments more
    user-friendly and handle the oldplane/newplane behind the scenes.
    Some hints on how to do that at http://www.cs.utexas.edu/~fussell/courses/cs384g/lectures/lecture20-Z_buffer_pipeline.pdf

    | **option** | **description**
    | --- | --- 
    | oldplane | a list of four old xy coordinate pairs
    | newplane | four points in the new plane corresponding to the old points

    """
    # first find the transform coefficients, thanks to http://stackoverflow.com/questions/14177744/how-does-perspective-transformation-work-in-pil
    pb,pa = oldplane,newplane
    grid = []
    for p1,p2 in zip(pa, pb):
        grid.append([p1[0], p1[1], 1, 0, 0, 0, -p2[0]*p1[0], -p2[0]*p1[1]])
        grid.append([0, 0, 0, p1[0], p1[1], 1, -p2[1]*p1[0], -p2[1]*p1[1]])

    # then do some matrix magic
    A = mt.Matrix(grid)
    B = mt.Vec([xory for xy in pb for xory in xy])
    AT = A.tr()
    ATA = AT.mmul(A)
    gridinv = ATA.inverse()
    invAT = gridinv.mmul(AT)
    res = invAT.mmul(B)
    a,b,c,d,e,f,g,h = res.flatten()

    # finito
    return a,b,c,d,e,f,g,h

Ответ 4

8 коэффициентов преобразования (a, b, c, d, e, f, g, h) соответствуют следующему преобразованию:

x '= (ax + by + c)/(gx + hy + 1)
y '= (dx + ey + f)/(gx + hy + 1)

Эти 8 коэффициентов можно найти, вообще говоря, из решения 8 (линейных) уравнений, которые определяют, как 4 точки на плоском преобразовании (4 точки в 2D → 8 уравнениях), см. ответ mmgp для кода, который решает это, хотя вы можете найти более точным, чтобы изменить линию

res = numpy.dot(numpy.linalg.inv(A.T * A) * A.T, B)

to

res = numpy.linalg.solve(A, B)

i.e, нет реальной причины фактически инвертировать матрицу A там или умножить ее на ее транспонирование и немного потерять точность, чтобы решить уравнения.

Что касается вашего вопроса, то для простого наклона тэта-градусов вокруг (x0, y0) требуемые коэффициенты:

def find_rotation_coeffs(theta, x0, y0):
    ct = cos(theta)
    st = sin(theta)
    return np.array([ct, -st, x0*(1-ct) + y0*st, st, ct, y0*(1-ct)-x0*st,0,0])

И вообще любое Аффинное преобразование должно иметь (g, h) равное нулю. Надеюсь, что это поможет!