我正在将Spark 1.3.0(Scala 2.10.X)MLlib LDA算法与Spark Java API结合使用。当我尝试在运行时从LDA模型读取文档主题分布时,出现以下问题。

“主要” java.lang.ClassCastException:[Lscala.Tuple2;无法转换为scala.Tuple2

我在下面给出了相关代码:

DistributedLDAModel ldaModel = new LDA().setK(3).run(corpus);
RDD<Tuple2<Object, Vector>> topicDist = ldaModel.topicDistributions();


如何在JavaRDD的“ topicDist”中阅读或显示内容(文档及其主题分发)?

最佳答案

我找到了解决方案,并在下面给出了它:

JavaRDD<Tuple2<Object, Vector>> topicDist = ldaModel.topicDistributions().toJavaRDD();

List<Tuple2<Object, Vector>> list = topicDist.collect();

10-07 22:06