Версия SparkContext Scala имеет свойство
sc.hadoopConfiguration
Я успешно использовал это, чтобы установить свойства hadoop (в scala..)
например.
sc.hadoopConfiguration.set("my.mapreduce.setting","someVal")
Однако в версии Python SparkContext отсутствует этот аксессор. Есть ли способ установить значения конфигурации hadoop в конфигурацию Hadoop, используемую контекстом pyspark?