Я просто планирую реализовать некоторые функции, такие как "Look up in Dictionary", когда мышь нависает над текстом/словами на экране на платформе Mac OS X.
Как я могу отображать текст/слова рядом с мышью на экране, даже если они не находятся в моем собственном приложении.
Что я могу сделать:
- Использование WorkSpace для определения того, какие приложения запущены.
- Используйте API доступности, чтобы узнать верхний UIElement на экране.
- Используйте API доступности, чтобы узнать выбранную строку UIElement, если приложение использует что-то вроде NSTextView (я получаю его, проверяя атрибут "выделенный текст" UIElement).
То, что я не могу сделать, это:
- Некоторые приложения, такие как Safari, с использованием инфраструктуры WebKit, единственными вещами, которые я могу получить от API Accessibility, являются атрибут value, который является текущим содержимым HTML, и некоторые атрибуты, называемые "AXTextMarker". Эти атрибуты не могут быть найдены в Google или любом документе.
- Некоторые приложения даже не поддерживают API Accessibility, то, что я могу получить, - это просто снимок экрана.
Есть ли способ вызвать системный API для распознавания текста в изображении? В Snow Leopard есть функция распознавания рукописного ввода для ввода на китайском или японском языке, так что это должна быть функция OCR? Я не могу найти для него открытый API.