博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Spark快速入门
阅读量:5969 次
发布时间:2019-06-19

本文共 1488 字,大约阅读时间需要 4 分钟。

1 package big.data.analyse.sparksql 2  3 import org.apache.spark.sql.{Row, SparkSession} 4 import org.apache.spark.sql.types.{IntegerType, StringType, StructField, StructType} 5  6 /** 7   * Created by zhen on 2018/11/8. 8   */ 9 object SparkInFuncation {10   def main(args: Array[String]) {11     val spark = SparkSession.builder().appName("spark内置函数")12       .master("local[2]").getOrCreate()13     val userData = Array(14       "2015,1,www.baidu.com",15       "2016,4,www.google.com",16       "2017,3,www.apache.com",17       "2015,6,www.spark.com",18       "2016,2,www.hadoop.com",19       "2017,8,www.solr.com",20       "2017,4,www.hive.com"21     )22     val sc = spark.sparkContext23     val sqlContext = spark.sqlContext24     val userDataRDD = sc.parallelize(userData) // 转化为RDD25     val userDataType = userDataRDD.map(line => {26       val Array(age, id, url) = line.split(",")27       Row(28         age, id.toInt, url29       )30     })31     val structTypes = StructType(Array(32       StructField("age", StringType, true),33       StructField("id", IntegerType, true),34       StructField("url", StringType, true)35     ))36     // RDD转化为DataFrame37     val userDataFrame = sqlContext.createDataFrame(userDataType,structTypes)38 39     import org.apache.spark.sql.functions._40     userDataFrame41       .groupBy("age") // 分组42       .agg(("id","sum")) // 求和43       .orderBy(desc("age")) // 排序44       .show()45   }46 }

答案:

 

转载于:https://www.cnblogs.com/yszd/p/9930901.html

你可能感兴趣的文章
HTML5标签的语义认知和理解(1)
查看>>
MySQL日志功能详解(2)
查看>>
HP LaserJet 305X 和 339X 系列一体机如何设置手动或自动接收传真?
查看>>
linux之权限之隐藏权限
查看>>
XDCTF成长记录
查看>>
Linux系统中的文本处理工具
查看>>
IDE---Python IDE之Eric5在window下的安装
查看>>
Mybatis调用Oracle中的存储过程和function
查看>>
基本安装lnmp环境
查看>>
yum源资料汇总
查看>>
7、MTC与MTV,http请求介绍
查看>>
logstash消费阿里云kafka消息
查看>>
第四节课作业
查看>>
EasyUI Calendar 日历
查看>>
unix 环境高级编程
查看>>
为数据库建立索引
查看>>
第二周作业-软件工作量的估计
查看>>
MAXIMO 快速查找实现
查看>>
Oracle——条件控制语句
查看>>
[Linux][Redis][05]Benchmark
查看>>