Я новичок в Spark, и я пытаюсь установить PySpark, обратившись к нижерасположенному сайту.
http://ramhiser.com/2015/02/01/configuring-ipython-notebook-support-for-pyspark/
Я попытался установить как готовый пакет, так и построить пакет Spark через SBT.
Когда я пытаюсь запустить код python в ноутбуке IPython, я получаю следующую ошибку.
NameError Traceback (most recent call last)
<ipython-input-1-f7aa330f6984> in <module>()
1 # Check that Spark is working
----> 2 largeRange = sc.parallelize(xrange(100000))
3 reduceTest = largeRange.reduce(lambda a, b: a + b)
4 filterReduceTest = largeRange.filter(lambda x: x % 7 == 0).sum()
5
NameError: name 'sc' is not defined
В окне команд я вижу ошибку ниже.
<strong>Failed to find Spark assembly JAR.</strong>
<strong>You need to build Spark before running this program.</strong>
Обратите внимание, что я получил приглашение scala, когда я выполнил команду spark-shell
Update:
С помощью друга я могу исправить проблему, связанную с JAR для сборки Spark, исправив содержимое файла .ipython/profile_pyspark/startup/00-pyspark-setup.py
У меня есть только проблема переменной Spark Context. Изменение заголовка для надлежащего отражения моей текущей проблемы.