У меня есть Spark-кластер с 10 узлами, и я получаю это исключение после использования Spark Context в первый раз:
14/11/20 11:15:13 ERROR UserGroupInformation: PriviledgedActionException as:iuberdata (auth:SIMPLE) cause:java.util.concurrent.TimeoutException: Futures timed out after [120 seconds]
Exception in thread "main" java.lang.reflect.UndeclaredThrowableException: Unknown exception in doAs
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1421)
at org.apache.spark.deploy.SparkHadoopUtil.runAsSparkUser(SparkHadoopUtil.scala:52)
at org.apache.spark.executor.CoarseGrainedExecutorBackend$.run(CoarseGrainedExecutorBackend.scala:113)
at org.apache.spark.executor.CoarseGrainedExecutorBackend$.main(CoarseGrainedExecutorBackend.scala:156)
at org.apache.spark.executor.CoarseGrainedExecutorBackend.main(CoarseGrainedExecutorBackend.scala)
Caused by: java.security.PrivilegedActionException: java.util.concurrent.TimeoutException: Futures timed out after [120 seconds]
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:415)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1408)
... 4 more
Этот парень имел аналогичную проблему, но я уже пробовал его решение и не работал.
То же исключение также происходит здесь, но проблема здесь не в том, что я использую искру версии 1.1.0 в как ведущий, так и ведомый и на клиенте.
Я пытался увеличить тайм-аут до 120 секунд, но он все еще не решает проблему.
Я документирую скрипты среды, и я использую context.addJar для включения моего кода в путь к классам. Эта проблема прерывается, и я не знаю, как отслеживать, почему это происходит. Кто-нибудь столкнулся с этой проблемой при настройке искрового кластера, как его решить?