spark解析aa.txt

 

 

 

1、aa.txt

 

 

 

 

 

 

 

 

 

 

 

2、pom.xml
  <dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-core_2.11</artifactId>
    <version>2.1.1</version>
    <exclusions>
      <exclusion>
      <groupId>io.netty</groupId>
      <artifactId>netty-all</artifactId>
      </exclusion>
    </exclusions>
  </dependency>
  <dependency>
    <groupId>io.netty</groupId>
    <artifactId>netty-all</artifactId>
    <version>4.1.17.Final</version>
  </dependency>
  <dependency>
    <groupId>org.apache.hadoop</groupId>
    <artifactId>hadoop-client</artifactId>
    <version>2.6.2</version>
  </dependency>

 

 

 

 

 

 

 

3、添加scala SDK

 

 

 

 

 

 

 

 

 

 

4、WordCount.scala

 

 

 

 

import org.apache.spark.{SparkConf, SparkContext}

object WordCount {
  def main(args: Array[String]): Unit = {

  // 1. 创建 SparkConf对象, 并设置 App名字, 并设置为 local 模式
  val conf: SparkConf = new SparkConf().setAppName(“WordCount”).setMaster(“local[*]”)

  // 2. 创建SparkContext对象
  val sc = new SparkContext(conf)

  // 3. 使用sc创建RDD并执行相应的transformation和action
  val lineRDD = sc.textFile(args(0))
  val wordCount: Array[(String, Int)] =lineRDD.flatMap(_.split(” “))
  .map((_, 1))
  .reduceByKey(_ + _)
  .collect()
  wordCount.foreach(println)

  // 4. 关闭连接
  sc.stop()
  }
}

 

 

 

 

5、调试配置

 

 

 

 

 

 

 

 

6、输出结果

 

 

 

 

 

 

 

参考 https://cloud.tencent.com/developer/article/1733758

原文地址:http://www.cnblogs.com/smallfa/p/16814399.html

1. 本站所有资源来源于用户上传和网络,如有侵权请邮件联系站长! 2. 分享目的仅供大家学习和交流,请务用于商业用途! 3. 如果你也有好源码或者教程,可以到用户中心发布,分享有积分奖励和额外收入! 4. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务请大家谅解! 5. 如有链接无法下载、失效或广告,请联系管理员处理! 6. 本站资源售价只是赞助,收取费用仅维持本站的日常运营所需! 7. 如遇到加密压缩包,默认解压密码为"gltf",如遇到无法解压的请联系管理员! 8. 因为资源和程序源码均为可复制品,所以不支持任何理由的退款兑现,请斟酌后支付下载 声明:如果标题没有注明"已测试"或者"测试可用"等字样的资源源码均未经过站长测试.特别注意没有标注的源码不保证任何可用性