Я запускаю Spark-кластер в автономном режиме.
Я представил приложение Spark в режиме кластера с помощью опций:
--deploy-mode cluster –supervise
Чтобы работа была отказоустойчивой.
Теперь мне нужно, чтобы кластер работал, но остановил запуск приложения.
Вещи, которые я пробовал:
- Остановка кластера и его перезапуск. Но приложение возобновляется выполнение, когда я это делаю.
- Используется Kill -9 из демона с именем DriverWrapper, но после этого снова возобновляется работа.
- Я также удалил временные файлы и каталоги и перезапустил кластер, но снова возобновит работу.
Итак, запущенное приложение действительно отказоустойчиво:)
Вопрос: Основываясь на приведенном выше сценарии, кто-то может предложить, как я могу остановить выполнение задания, или что еще я могу попытаться остановить запуск приложения, но сохранить работу кластера.
Что-то просто начислило мне, если я вызову sparkContext.stop(), который должен это сделать, но это требует некоторой работы в коде, который в порядке, но вы можете предложить любой другой способ без изменения кода.