Подтвердить что ты не робот

Журнал запуска Spark работает на YARN

Я запускаю распределенное приложение Spark в режиме клиента YARN, в кластере Cloudera. Через некоторое время я вижу некоторые ошибки в Cloudera Manager. Некоторые исполнители отключены, и это происходит систематически. Я хотел бы отладить проблему, но внутреннее исключение не сообщается YARN.

Exception from container-launch with container ID: container_1417503665765_0193_01_000003 and exit code: 1
ExitCodeException exitCode=1: 
    at org.apache.hadoop.util.Shell.runCommand(Shell.java:538)
    at org.apache.hadoop.util.Shell.run(Shell.java:455)
    at org.apache.hadoop.util.Shell$ShellCommandExecutor.execute(Shell.java:702)
    at org.apache.hadoop.yarn.server.nodemanager.DefaultContainerExecutor.launchContainer(DefaultContainerExecutor.java:196)
    at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:299)
    at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:81)
    at java.util.concurrent.FutureTask.run(FutureTask.java:262)
    at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)
    at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)
    at java.lang.Thread.run(Thread.java:745)

Как я могу увидеть stacktrace исключения? Кажется, что YARN сообщает только о том, что приложение выходит аномально. Есть ли способ увидеть журнал запуска искриста в конфигурации YARN?

4b9b3361

Ответ 1

Проверить свойство NodeManager yarn.nodemanager.log-dir. Это местоположение журнала, когда работает контейнер исполнителя Spark.

Обратите внимание, что когда приложение заканчивается, NodeManager может удалить файлы (Лог-агрегирование). Проверьте этот документ для подробностей. http://hortonworks.com/blog/simplifying-user-logs-management-and-access-in-yarn/