2018年2月2日星期五

pyspark java.lang.OutOfMemoryError: GC overhead limit exceeded

参考https://stackoverflow.com/questions/32336915/pyspark-java-lang-outofmemoryerror-java-heap-space

在 $SPARK_HOME/conf/spark-defaults.conf 中调大 spark.driver.memory 的值,如果没有配的话,默认是 1g

没有评论:

发表评论