Я новичок в разработке Android и работаю над проектом исследований доступности для слепых (проект Jelly Bean API уровня 17). Я экспериментировал с некоторыми жестами, а жест Two-Finger-Drag был очень сложным для реализации. Следующее изображение фиксирует то, что мне действительно нужно.
Я хочу, чтобы слепой пользователь перетаскивал два пальца по горизонтали (в любом месте экрана), и он получал аудиовыход текста, который он ввел в EditText. Также в соответствии с расстоянием, которое два пальца перемещают при перетаскивании, мы выводим каждое слово отдельно. (Пример ниже)
Пример: если пользователь набирает "Сегодня хороший день" и тащит палец (значение x) (скажем) 10 единиц влево, мы выводим "хороший день" , но если он перетаскивает его, говорит, что 20 единиц влево мы выводим "хороший день" , на 30 единиц налево "хороший день" и т.д.
Я наткнулся на который, кажется, обнаружил прикосновение двумя пальцами:
TouchEvent(MotionEvent event)
Также этот учебник по обнаруживает множественные касания кажется многообещающим, но мне нужно, чтобы он работал для touch и drag, который я не уверен, может быть реализован следующим образом.
Любые новые предложения по реализации этого или указатели на учебные пособия, которые могут помочь, будут замечательными!
Спасибо заранее, Штольня