Я пытаюсь отладить приложение Spark в кластере, используя мастер и несколько рабочих узлов. Мне удалось настроить мастер node и рабочие узлы с помощью автономного менеджера кластеров Spark. Я загрузил искровую папку двоичными файлами и использовал следующие команды для настройки рабочих и основных узлов. Эти команды выполняются из справочника искры.
для запуска мастера
./sbin/start-master.sh
для запуска рабочего node
./bin/spark-class org.apache.spark.deploy.worker.Worker master-URL
для отправки приложения
./sbin/spark-submit --class Application --master URL ~/app.jar
Теперь я хотел бы понять поток управления через исходный код Spark на рабочих узлах, когда я отправляю свое приложение (я просто хочу использовать один из приведенных примеров, которые используют reduce()). Я предполагаю, что должен установить Spark на Eclipse. Ссылка Eclipse на веб-сайте Apache Spark кажется сломанной. Я был бы признателен за некоторые рекомендации по настройке Spark и Eclipse, чтобы обеспечить возможность перехода на исходный код Spark на рабочих узлах.
Спасибо!