您当前的位置: 首页 > 

宝哥大数据

暂无认证

  • 1浏览

    0关注

    1029博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文

如何防止内存溢出

宝哥大数据 发布时间:2019-03-02 09:59:02 ,浏览量:1

5.5、spark 如何防止内存溢出

driver端的内存溢出

  • 可以增大driver的内存参数:spark.driver.memory (default 1g) 这个参数用来设置Driver的内存。在Spark程序中,SparkContext,DAGScheduler都是运行在Driver端的。对应rdd的Stage切分也是在Driver端运行,如果用户自己写的程序有过多的步骤,切分出过多的Stage,这部分信息消耗的是Driver的内存,这个时候就需要调大Driver的内存。

map过程产生大量对象导致内存溢出

  • 这种溢出的原因是在单个map中产生了大量的对象导致的,例如:rdd.map(x=>for(i for(i
关注
打赏
1587549273
查看更多评论
立即登录/注册

微信扫码登录

0.0401s