您当前的位置: 首页 >  ar

段智华

暂无认证

  • 0浏览

    0关注

    1232博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文

第2期Spark纯实战公益大讲坛:通过案例实战掌握Spark编程模型内幕

段智华 发布时间:2015-08-22 12:12:49 ,浏览量:0

第2期Spark纯实战公益大讲坛:通过案例实战掌握Spark编程模型内幕

 

运行spark代码:

sc.textFile("hdfs://...").faltMap(_.split("")).map(_,1).reduceByKey(_+_).map(x=>(x._2),x._1)). sortByKey(false).map(x=>(x._2),x._1)).saveASTextFile(hdfs://...")

 

应用于广告点击排名

1、sc :spark shell运行的上下文

2、textFile("hdfs://...") 从hadoop hdfs中读取文件

3、faltMap(_.split("")) 将字符串以空格拆分

4、map(_,1) 统计单词计数

5、reduceByKey(_+_). 汇总累计

6.  map(x=>(x._2),x._1)).  交换对偶对,次数在前,按单词出现次数排序

7、sortByKey(false). 按x._2排序 false是降序

8、map(x=>(x._2),x._1)). 再次交换对偶次序,单词在前

9、saveASTextFile(hdfs://...") 保存在hadoop hdfs文件中

 

为何有job0 运行?因为里面用到了RangePartitioner

 

 

DT大数据微信公众账号:DT_Spark

DT大数据梦工厂scala的所有视频、PPT和代码在百度云盘的链接地址:http://pan.baidu.com/share/home?uk=4013289088&view=share#category/type=0&qq-pf-to=pcqq.group

 

关注
打赏
1659361485
查看更多评论
立即登录/注册

微信扫码登录

0.3902s