42

SparkContext の Scala バージョンには、次のプロパティがあります。

sc.hadoopConfiguration

それを使用してHadoopプロパティを設定しました(Scalaで)

例えば

sc.hadoopConfiguration.set("my.mapreduce.setting","someVal")

ただし、SparkContext の Python バージョンにはそのアクセサーがありません。PySpark コンテキストで使用される Hadoop 構成に Hadoop 構成値を設定する方法はありますか?

4

3 に答える 3

79
sc._jsc.hadoopConfiguration().set('my.mapreduce.setting', 'someVal')

動作するはずです

于 2015-09-18T21:30:30.353 に答える
3

PySpark のソース コード ( context.py ) を調べましたが、直接同等のものはありません。代わりに、いくつかの特定のメソッドが (キー、値) ペアのマップでの送信をサポートしています。

fileLines = sc.newAPIHadoopFile('dev/*', 
'org.apache.hadoop.mapreduce.lib.input.TextInputFormat',
'org.apache.hadoop.io.LongWritable',
'org.apache.hadoop.io.Text',
conf={'mapreduce.input.fileinputformat.input.dir.recursive':'true'}
).count()
于 2015-03-04T00:46:50.133 に答える