PIL Image.transform
имеет перспективный режим, который требует 8- Image.transform
набор данных, но я не могу понять, как преобразовать допустимый наклон в 30 градусов к этому кортежу.
Кто-нибудь может это объяснить?
PIL Image.transform
имеет перспективный режим, который требует 8- Image.transform
набор данных, но я не могу понять, как преобразовать допустимый наклон в 30 градусов к этому кортежу.
Кто-нибудь может это объяснить?
Чтобы применить перспективное преобразование, вы должны сначала знать четыре точки в плоскости A, которые будут отображены на четыре точки в плоскости B. С помощью этих точек вы можете получить гомографическое преобразование. Делая это, вы получаете свои 8 коэффициентов, и преобразование может иметь место.
Сайт http://xenia.media.mit.edu/~cwren/interpolator/ (mirror: WebArchive), а также многие другие тексты, описывают, как эти коэффициенты могут быть определены. Чтобы упростить задачу, вот прямая реализация по указанной ссылке:
import numpy
def find_coeffs(pa, pb):
matrix = []
for p1, p2 in zip(pa, pb):
matrix.append([p1[0], p1[1], 1, 0, 0, 0, -p2[0]*p1[0], -p2[0]*p1[1]])
matrix.append([0, 0, 0, p1[0], p1[1], 1, -p2[1]*p1[0], -p2[1]*p1[1]])
A = numpy.matrix(matrix, dtype=numpy.float)
B = numpy.array(pb).reshape(8)
res = numpy.dot(numpy.linalg.inv(A.T * A) * A.T, B)
return numpy.array(res).reshape(8)
где pb
- четыре вершины в текущей плоскости, а pa
содержит четыре вершины в результирующей плоскости.
Итак, предположим, что мы преобразуем изображение, как в:
import sys
from PIL import Image
img = Image.open(sys.argv[1])
width, height = img.size
m = -0.5
xshift = abs(m) * width
new_width = width + int(round(xshift))
img = img.transform((new_width, height), Image.AFFINE,
(1, m, -xshift if m > 0 else 0, 0, 1, 0), Image.BICUBIC)
img.save(sys.argv[2])
Вот пример ввода и вывода с кодом выше:
Мы можем продолжить работу с последним кодом и выполнить перспективное преобразование, чтобы отменить сдвиг:
coeffs = find_coeffs(
[(0, 0), (256, 0), (256, 256), (0, 256)],
[(0, 0), (256, 0), (new_width, height), (xshift, height)])
img.transform((width, height), Image.PERSPECTIVE, coeffs,
Image.BICUBIC).save(sys.argv[3])
В результате чего:
Вы также можете повеселиться с пунктами назначения:
Я собираюсь уловить этот вопрос всего лишь немного, потому что это единственное, что касается Google в отношении перспективных преобразований в Python. Вот несколько более общий код, основанный на выше, который создает матрицу перспективного преобразования и генерирует функцию, которая будет запускать это преобразование в произвольных точках:
import numpy as np
def create_perspective_transform_matrix(src, dst):
""" Creates a perspective transformation matrix which transforms points
in quadrilateral ``src`` to the corresponding points on quadrilateral
``dst``.
Will raise a ``np.linalg.LinAlgError`` on invalid input.
"""
# See:
# * http://xenia.media.mit.edu/~cwren/interpolator/
# * http://stackoverflow.com/a/14178717/71522
in_matrix = []
for (x, y), (X, Y) in zip(src, dst):
in_matrix.extend([
[x, y, 1, 0, 0, 0, -X * x, -X * y],
[0, 0, 0, x, y, 1, -Y * x, -Y * y],
])
A = np.matrix(in_matrix, dtype=np.float)
B = np.array(dst).reshape(8)
af = np.dot(np.linalg.inv(A.T * A) * A.T, B)
return np.append(np.array(af).reshape(8), 1).reshape((3, 3))
def create_perspective_transform(src, dst, round=False, splat_args=False):
""" Returns a function which will transform points in quadrilateral
``src`` to the corresponding points on quadrilateral ``dst``::
>>> transform = create_perspective_transform(
... [(0, 0), (10, 0), (10, 10), (0, 10)],
... [(50, 50), (100, 50), (100, 100), (50, 100)],
... )
>>> transform((5, 5))
(74.99999999999639, 74.999999999999957)
If ``round`` is ``True`` then points will be rounded to the nearest
integer and integer values will be returned.
>>> transform = create_perspective_transform(
... [(0, 0), (10, 0), (10, 10), (0, 10)],
... [(50, 50), (100, 50), (100, 100), (50, 100)],
... round=True,
... )
>>> transform((5, 5))
(75, 75)
If ``splat_args`` is ``True`` the function will accept two arguments
instead of a tuple.
>>> transform = create_perspective_transform(
... [(0, 0), (10, 0), (10, 10), (0, 10)],
... [(50, 50), (100, 50), (100, 100), (50, 100)],
... splat_args=True,
... )
>>> transform(5, 5)
(74.99999999999639, 74.999999999999957)
If the input values yield an invalid transformation matrix an identity
function will be returned and the ``error`` attribute will be set to a
description of the error::
>>> tranform = create_perspective_transform(
... np.zeros((4, 2)),
... np.zeros((4, 2)),
... )
>>> transform((5, 5))
(5.0, 5.0)
>>> transform.error
'invalid input quads (...): Singular matrix
"""
try:
transform_matrix = create_perspective_transform_matrix(src, dst)
error = None
except np.linalg.LinAlgError as e:
transform_matrix = np.identity(3, dtype=np.float)
error = "invalid input quads (%s and %s): %s" %(src, dst, e)
error = error.replace("\n", "")
to_eval = "def perspective_transform(%s):\n" %(
splat_args and "*pt" or "pt",
)
to_eval += " res = np.dot(transform_matrix, ((pt[0], ), (pt[1], ), (1, )))\n"
to_eval += " res = res / res[2]\n"
if round:
to_eval += " return (int(round(res[0][0])), int(round(res[1][0])))\n"
else:
to_eval += " return (res[0][0], res[1][0])\n"
locals = {
"transform_matrix": transform_matrix,
}
locals.update(globals())
exec to_eval in locals, locals
res = locals["perspective_transform"]
res.matrix = transform_matrix
res.error = error
return res
Вот чисто Python-версия генерации коэффициентов преобразования (как я уже видел, это запрашивается несколькими). Я сделал и использовал его для создания пакета рисования изображений PyDraw pure-Python.
Если вы используете его для своего собственного проекта, обратите внимание, что для вычислений требуются несколько расширенных матричных операций, что означает, что для этой функции требуется другая, к счастью, чистая Python, матричная библиотека с именем matfunc
изначально написанная Raymond Hettinger и которую вы можете скачать здесь или здесь.
import matfunc as mt
def perspective_coefficients(self, oldplane, newplane):
"""
Calculates and returns the transform coefficients needed for a perspective
transform, ie tilting an image in 3D.
Note: it is not very obvious how to set the oldplane and newplane arguments
in order to tilt an image the way one wants. Need to make the arguments more
user-friendly and handle the oldplane/newplane behind the scenes.
Some hints on how to do that at http://www.cs.utexas.edu/~fussell/courses/cs384g/lectures/lecture20-Z_buffer_pipeline.pdf
| **option** | **description**
| --- | ---
| oldplane | a list of four old xy coordinate pairs
| newplane | four points in the new plane corresponding to the old points
"""
# first find the transform coefficients, thanks to http://stackoverflow.com/questions/14177744/how-does-perspective-transformation-work-in-pil
pb,pa = oldplane,newplane
grid = []
for p1,p2 in zip(pa, pb):
grid.append([p1[0], p1[1], 1, 0, 0, 0, -p2[0]*p1[0], -p2[0]*p1[1]])
grid.append([0, 0, 0, p1[0], p1[1], 1, -p2[1]*p1[0], -p2[1]*p1[1]])
# then do some matrix magic
A = mt.Matrix(grid)
B = mt.Vec([xory for xy in pb for xory in xy])
AT = A.tr()
ATA = AT.mmul(A)
gridinv = ATA.inverse()
invAT = gridinv.mmul(AT)
res = invAT.mmul(B)
a,b,c,d,e,f,g,h = res.flatten()
# finito
return a,b,c,d,e,f,g,h
8 коэффициентов преобразования (a, b, c, d, e, f, g, h) соответствуют следующему преобразованию:
x '= (ax + by + c)/(gx + hy + 1)
y '= (dx + ey + f)/(gx + hy + 1)
Эти 8 коэффициентов можно найти, вообще говоря, из решения 8 (линейных) уравнений, которые определяют, как 4 точки на плоском преобразовании (4 точки в 2D → 8 уравнениях), см. ответ mmgp для кода, который решает это, хотя вы можете найти более точным, чтобы изменить линию
res = numpy.dot(numpy.linalg.inv(A.T * A) * A.T, B)
to
res = numpy.linalg.solve(A, B)
i.e, нет реальной причины фактически инвертировать матрицу A там или умножить ее на ее транспонирование и немного потерять точность, чтобы решить уравнения.
Что касается вашего вопроса, то для простого наклона тэта-градусов вокруг (x0, y0) требуемые коэффициенты:
def find_rotation_coeffs(theta, x0, y0):
ct = cos(theta)
st = sin(theta)
return np.array([ct, -st, x0*(1-ct) + y0*st, st, ct, y0*(1-ct)-x0*st,0,0])
И вообще любое Аффинное преобразование должно иметь (g, h) равное нулю. Надеюсь, что это поможет!