Я пытаюсь реализовать автоматическую коррекцию перспективы в моей программе iOS, и когда я использую тестовое изображение, которое я нашел в учебнике, все работает так, как ожидалось. Но когда я делаю снимок, я получаю странный результат.
Я использую код, найденный в этом tutorial
Когда я даю ему изображение, которое выглядит так:
Я получаю это как результат:
Вот что мне может помочь dst
.
Я использую это для вызова метода, который содержит код.
quadSegmentation(Img, bw, dst, quad);
Может ли кто-нибудь сказать мне, когда я получаю так много зеленых линий по сравнению с учебником? И как я могу исправить это и правильно обрезать изображение, чтобы содержать только карту?