В настоящее время я разрабатываю приложение iOS, которое применяет CoreImage к каналу камеры для съемки фотографий и видео, и я столкнулся с некоторой проблемой.
До сих пор я использовал AVCaptureVideoDataOutput для получения пробных буферов и управления ими с помощью CoreImage, а затем отображал простой предварительный просмотр, а также использовал его для захвата фотографий и их сохранения.
Когда я попытался выполнить видеозапись, написав SampleBuffers на видео, когда я получил их из AVCaptureVideoDataOutput, он имел очень медленную частоту кадров (вероятно, из-за другого изображения, связанного с обработкой, которая продолжалось).
Итак, мне было интересно: возможно ли иметь AVCaptureVideoDataOutput и AVCaptureMoveFileOutput одновременно на одном и том же AVCaptureSession?
Я быстро перешел к нему и обнаружил, что когда я добавил дополнительный вывод, мой AVCaptureVideoDataOutput прекратил получать информацию.
Если я могу заставить его работать, я надеюсь, что это означает, что я могу просто использовать второй выход для записи видео с высокой частотой кадров и выполнять пост-обработку на видео после того, как пользователь остановил запись.
Любая помощь будет принята с благодарностью.