Я пытаюсь написать приложение для iPhone, которое будет выполнять обработку изображений в реальном времени в режиме реального времени. Я использовал пример, представленный в документах AVFoundation, в качестве отправной точки: установка сеанса захвата, создание UIImage из данных буфера образца, а затем рисование изображения в точке через -setNeedsDisplay
, которое я вызываю в основном потоке.
Это работает, но он довольно медленный (50 мс на кадр, измеренный между -drawRect:
вызовами, для 192 x 144 пресетов), и я видел приложения в App Store, которые работают быстрее, чем это.
Примерно половина моего времени проведена в -setNeedsDisplay
.
Как ускорить обработку этого изображения?