В настоящее время мое приложение использует AVFoundation для получения необработанных данных камеры с задней камеры iPhone и отображения их на AVCaptureVideoPreviewLayer в режиме реального времени.
Моя цель - условно применить простые фильтры изображений к уровню предварительного просмотра. Изображения не сохраняются, поэтому мне не нужно записывать вывод. Например, я хотел бы переключить параметр, который преобразует видео, входящее в слой предварительного просмотра, в черно-белое.
Я нашел вопрос здесь, который, похоже, выполняет нечто подобное, захватывая отдельные видеофрагменты в буфере, применяя нужные преобразования, а затем отображает каждый кадр как UIImage, По нескольким причинам это кажется излишним для моего проекта, и я бы хотел избежать любых проблем с производительностью, которые могут возникнуть.
Это единственный способ достичь моей цели?
Как я уже упоминал, я не собираюсь захватывать ни одно из видео AVCaptureSession, просто просматриваю его.