我正在一个项目中,使用Spark流将数据从CSV文件批量加载到HBase。我正在使用的代码如下(改编自here):

def bulk_load(rdd):
    conf = {#removed for brevity}

    keyConv = "org.apache.spark.examples.pythonconverters.StringToImmutableBytesWritableConverter"
    valueConv = "org.apache.spark.examples.pythonconverters.StringListToPutConverter"

    load_rdd = rdd.flatMap(lambda line: line.split("\n"))\
                  .flatMap(csv_to_key_value)
    load_rdd.saveAsNewAPIHadoopDataset(conf=conf,keyConverter=keyConv,valueConverter=valueConv)


直到两个flatMap的所有工作都按预期进行。但是,当尝试执行saveAsNewAPIHadoopDataset时,出现以下运行时错误:

java.lang.ClassNotFoundException: org.apache.spark.examples.pythonconverters.StringToImmutableBytesWritableConverter

我已经设置PYTHONPATH指向包含该类的jar(以及我的其他转换器类),但是这似乎并没有改善这种情况。任何建议将不胜感激。提前致谢。

最佳答案

进行了一些挖掘,但这是解决方案:

我不需要将jars添加到PYTHONPATH中,而是将其添加到Spark配置中。我将以下属性添加到配置中(Ambari下的自定义spark-defaults)
spark.driver.extraClassPathspark.executor.extraClassPath

我为每个容器添加了以下罐子:

/usr/hdp/2.3.2.0-2950/spark/lib/spark-examples-1.4.1.2.3.2.0-2950-hadoop2.7.1.2.3.2.0-2950.jar
/usr/hdp/2.3.2.0-2950/hbase/lib/hbase-common-1.1.2.2.3.2.0-2950.jar
/usr/hdp/2.3.2.0-2950/hbase/lib/hbase-client-1.1.2.2.3.2.0-2950.jar
/usr/hdp/2.3.2.0-2950/hbase/lib/hbase-protocol-1.1.2.2.3.2.0-2950.jar
/usr/hdp/2.3.2.0-2950/hbase/lib/guava-12.0.1.jar
/usr/hdp/2.3.2.0-2950/hbase/lib/hbase-server-1.1.2.2.3.2.0-2950.jar


添加这些罐子可以让Spark查看所有必要的文件。

关于python - 使用Python进行Spark流式传输-找不到类异常,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/34898054/

10-16 23:52