本文介绍了为运行Spark 2.0的pyspark指定自定义探查器的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我想知道如何在PySpark for Spark版本2+中指定自定义探查器类.在1.6以下,我知道我可以这样做:

I would like to know how to specify a custom profiler class in PySpark for Spark version 2+. Under 1.6, I know I can do so like this:

sc = SparkContext('local', 'test', profiler_cls='MyProfiler')

但是当我在2.0中创建 SparkSession 时,我没有显式访问权限 SparkContext .有人可以建议如何在Spark 2.0+中执行此操作吗?

but when I create the SparkSession in 2.0 I don't explicitly have access tothe SparkContext. Can someone please advise how to do this for Spark 2.0+ ?

推荐答案

SparkSession 可以使用现有的 SparkContext 进行初始化,例如:

SparkSession can be initialized with an existing SparkContext, for example:

from pyspark import SparkContext
from pyspark.sql import SparkSession
from pyspark.profiler import BasicProfiler

spark = SparkSession(SparkContext('local', 'test', profiler_cls=BasicProfiler))

这篇关于为运行Spark 2.0的pyspark指定自定义探查器的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持!

11-01 08:17