Подтвердить что ты не робот

Что установить `SPARK_HOME`?

Установлен apache-maven-3.3.3, scala 2.11.6, затем выполняется:

$ git clone git://github.com/apache/spark.git -b branch-1.4
$ cd spark
$ build/mvn -DskipTests clean package

Наконец:

$ git clone https://github.com/apache/incubator-zeppelin
$ cd incubator-zeppelin/
$ mvn install -DskipTests

Затем запустил сервер:

$ bin/zeppelin-daemon.sh start

Запуск простого ноутбука, начинающегося с %pyspark, я получил ошибку о py4j, которая не найдена. Просто сделал pip install py4j (ref).

Теперь я получаю эту ошибку:

pyspark is not responding Traceback (most recent call last):
  File "/tmp/zeppelin_pyspark.py", line 22, in <module>
    from pyspark.conf import SparkConf
ImportError: No module named pyspark.conf

Я пробовал настроить SPARK_HOME на: /spark/python:/spark/python/lib. Без изменений.

4b9b3361

Ответ 1

Требуются две переменные среды:

SPARK_HOME=/spark
PYTHONPATH=$SPARK_HOME/python:$SPARK_HOME/python/lib/py4j-VERSION-src.zip:$PYTHONPATH