我想使用 Spark 流获取kafka数据并写入Es。我使用5.4 Java API。我的环境是spark_2.1.1(独立),kafka是0.10.0.1,es是5.4.1。我可以正确获取kafka数据。但是,当我尝试将数据写入Es时,它显示了一些错误:



但是我发现我有这种方法,就像这样:Maven:io.netty:netty-all:4.1.11.Final and Maven:io.netty:netty-common:4.1.11.Final,它们都有正确的方法。

出于安全原因,我的这样的代码xxx:

 val esc = new PreBuiltXPackTransportClient(settings)
      .addTransportAddress(new InetSocketTransportAddress(InetAddress.getByName("xxx"), xxx))
      .addTransportAddress(new InetSocketTransportAddress(InetAddress.getByName("xxx"), xxx))

最佳答案

您有两个具有ObjectUtil类的jar。 JVM在运行时决定类,通常选择第一个类。我相信其他人将来自netty-all jar。您可以检查一次依赖树吗?

09-20 11:24