美文网首页
pyspark 以HA方式访问hdfs

pyspark 以HA方式访问hdfs

作者: alaya_c09d | 来源:发表于2019-06-17 19:23 被阅读0次
    sc, sqlContext = s.startContext(appName)
   
    sc._jsc.hadoopConfiguration().set("dfs.nameservices", "umecluster2")
    sc._jsc.hadoopConfiguration().set('dfs.ha.namenodes.umecluster2', 'nn1,nn2')
    sc._jsc.hadoopConfiguration().set('dfs.namenode.rpc-address.umecluster2.nn2', 'hdfs://10.5.145.xxx:8020')
    sc._jsc.hadoopConfiguration().set('dfs.namenode.rpc-address.umecluster2.nn1', 'hdfs://10.5.145.xxx:8020')
    sc._jsc.hadoopConfiguration().set("dfs.client.failover.proxy.provider.umecluster2", "org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider")

相关文章

网友评论

      本文标题:pyspark 以HA方式访问hdfs

      本文链接:https://www.haomeiwen.com/subject/rsbzfctx.html