配置windows下Spark MLlib的编程环境,实现在windows下用scala开发程序,用小数据集测试验证程序的正确性。少做修改,或者不做修改,然后打包成jar文件,用spark-submit提交到spark集群进行测试。假设已 安装好jdk、scala、IntelliJ IDEA和scala插件。

1. 安装hadoop、spark和hadoop2.6_Win_x64-master

下载 hadoop-2.6.0.tar.gz和spark-1.6.0-bin-hadoop2.6,从github下载hadoop2.6_Win_x64-master.zip(https://github.com/sdravida/hadoop2.6_Win_x64)。创建目录e:\spark,1)将三个文件解压缩到e:\spark目录下,2)将E:\spark\hadoop2.6_Win_x64-master\bin的文件拷贝到E:\spark\hadoop260\bin下面,3)将spark-assembly-1.6.0-hadoop2.6.0.jar文件拷贝到C:\Program Files (x86)\JetBrains\IntelliJ IDEA 2016.2.5\lib目录下。

2. 配置spark编译环境

分享之前我还是要推荐下我自己创建的大数据学习资料分享群 232840209,不管你是小白还是大牛,小编

我都挺欢迎,今天的源码已经上传到群文件,不定期分享干货,包括我自己整理的一份最新的适合2017年

学习的前端资料和零基础入门教程,欢迎初学和进阶中的小伙伴。

启动idea创建scala工程

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

2. 添加spark-assembly-1.6.0-hadoop2.6.0.jar依赖包

点击File主菜单的Project Structure子菜单,弹出配置界面后选择Libraries,再点"+"号弹出Select Library Files界面,完成选择后,点OK就可以了。

打开网易新闻 查看精彩图片

在SparkDiscover目录下创建data目录,并在这个目录下建一个wordcount.txt文件,用作测试。在src目录下创建两级子目录main/scala作为源代码存放目录,然后创建一个名称为basic的package目录和WordCount源文件。

打开网易新闻 查看精彩图片

[plain] view plain copy

  1. 1. package basic

  2. 2.

  3. 3. /**

  4. 4. * Created by Oliver on 2017/5/13.

  5. 5. */

  6. 6. import org.apache.spark.{SparkConf, SparkContext}

  7. 7.

  8. 8. // "local"

  9. 9. // "E:/MyProject/SparkDiscover/data/wordcount.txt"

  10. 10.

  11. 11. object WordCount {

  12. 12. def main(args: Array[String]){

  13. 13. val conf = new SparkConf().setMaster(args(0)).setAppName("WordCount")

  14. 14. val sc = new SparkContext(conf)

  15. 15. val data = sc.textFile(args(1))

  16. 16. data.flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).collect().foreach(println)

  17. 17.

  18. 18. }

  19. 19. }

程序中用了两个参数,参数1:提交到本地还是集群,参数2:文件名(本地或者是hdfs),在本地windows 下的运行配置。程序很简单,创建定义、创建上下文、读数据文件、调用flatMap进行处理(空格分割、map计数、reduce将计数相加,最后逐行打印输出)。

打开网易新闻 查看精彩图片

运行结果

打开网易新闻 查看精彩图片

打包输出,选择菜单File/Project Structure弹出界面后选择Artificts,点击"+" 如下图进行选择,再依次点apply和ok。

打开网易新闻 查看精彩图片

点完以后发现,它把所有的包多添加进去了,时间上不需要这么多。把不需要的包删除,结果如下图所示。

打开网易新闻 查看精彩图片

build jar包

打开网易新闻 查看精彩图片

3. 在spark集群下运行

从out/artifacts/SparkDiscover_jar目录下拷贝SparkDiscover.jar文件到spark集群上,运行一下脚本进行测试。

[plain] view plain copy

  1. 1. spark-submit --master spark://d-hdp-01:7077 \

  2. 2. --class basic.WordCount \

  3. 3. --executor-memory 1g \

  4. 4. /home/hadoop/_testing/SparkDiscover.jar \

  5. 5. spark://d-hdp-01:7077 \

  6. 6. hdfs://d-hdp-01:9000/user/hadoop.txt > result.log

打印输出被重定向到result.log文件中。运行结果如下。

打开网易新闻 查看精彩图片

从界面上可以看到提交的任务,提交两次,界面上也显示了两次。

打开网易新闻 查看精彩图片

+V: A18600982447