windows下虚拟机配置spark集群最强攻略!

栏目: 服务器 · 发布时间: 7年前

内容简介:windows下虚拟机配置spark集群最强攻略!

1、虚拟机安装

首先需要在windows上安装vmware和ubuntu虚拟机,这里就不多说了

vmware下载地址:直接百度搜索,使用百度提供的链接下载,这里附上一个破解码

5A02H-AU243-TZJ49-GTC7K-3C61N

ubuntu下载地址: http://cdimage.ubuntu.com/daily-live/current/

一路安装下去,我一共装了4台虚拟机,三台用于构建集群,一台用于爬虫,如图所示:

windows下虚拟机配置spark集群最强攻略!

2、虚拟机网络配置

这里,我们以slave2为例来说明一下虚拟机的网络配置:

首先,将虚拟机的网络设置设置为自定义,选择VMnet8:

windows下虚拟机配置spark集群最强攻略!

随后,我们点击VMWARE上的编辑-虚拟网络编辑-右下角的更改设置,应该有三个连接方式,这里我们把其他两个移除,只剩下VMnet8:

windows下虚拟机配置spark集群最强攻略!

随后,点击NAT设置,我们可以发现网关是192.168.75.2

windows下虚拟机配置spark集群最强攻略!

接下来,我们要设置虚拟机的ip:点击右上角的edit connectinos,设置Ipv4,如下图所示:

windows下虚拟机配置spark集群最强攻略!

随后修改两个文件:

修改interfaces文件

命令:sudo vim /etc/network/interfaces ( 如果没有vim命令,使用sudo apt-get install vim进行安装):

windows下虚拟机配置spark集群最强攻略!

修改resolv.conf文件

命令:sudo vim /etc/resolv.conf:

windows下虚拟机配置spark集群最强攻略!

接下来重启我们的网络就可以啦:

命令:sudo /etc/init.d/networking restart(如果启动失败,重启虚拟机即可)

windows下虚拟机配置spark集群最强攻略!

查看我们的ip,使用ifconfig命令,如果没有安装(使用sudo apt install net-tools 进行安装):

windows下虚拟机配置spark集群最强攻略!

3、使用xshell连接本地虚拟机(非必须)

下载xshell,百度搜索xshell,使用百度提供的下载地址即可。

要想使用xshell的ssh方式访问虚拟机,首先要在虚拟机上安装ssh服务

使用命令:sudo apt-get install openssh-server

随后启动ssh服务:sudo /etc/init.d ssh start

再次点击VMWARE上的编辑-虚拟网络编辑-右下角的更改设置,设置端口转发:

windows下虚拟机配置spark集群最强攻略!

随后打开xshell,新建连接:

windows下虚拟机配置spark集群最强攻略!

设置用户名和密码:

windows下虚拟机配置spark集群最强攻略!

随后点击连接即可,发现连接成功!

windows下虚拟机配置spark集群最强攻略!

4、修改虚拟机主机名以及hosts文件

这里以修改主节点主机名称为例,其他节点类似。

使用命令 : sudo vim /etc/hostname 查看当前主机名,并修改为master:

windows下虚拟机配置spark集群最强攻略!

重启之后生效:

windows下虚拟机配置spark集群最强攻略!

两个从节点的主机依次修改为slave1,slave2

接下来,将主节点和两个从节点的ip和主机名添加到hosts文件中,使用命令

sudo vim /etc/hosts

修改的结果为:

windows下虚拟机配置spark集群最强攻略!

两个从节点的hosts文件修改为同样的结果,此时发现各虚拟机之间可以ping通。

windows下虚拟机配置spark集群最强攻略!

5、配置SSH免验证登录

接下来,需要让主节点可以免验证的登录到从节点,从而在进行任务调度时可以畅通无阻。

首先要在各个节点上生成公钥和私钥文件,这里以slave1节点进行讲解,其他节点操作方式完全相同。

我们首先要开启ssh服务,使用命令:sudo /etc/init.d/ssh start

windows下虚拟机配置spark集群最强攻略!

随后使用如下命令生成公钥和私钥文件:

ssh-keygen -t rsa -P ""

windows下虚拟机配置spark集群最强攻略!

在所有节点上生成秘钥文件之后,我们需要将从节点的公钥传输给主节点,使用命令:

cd ~/.ssh

scp id_rsa.pub sxw@master:~/.ssh/id_rsa.pub.slave1

windows下虚拟机配置spark集群最强攻略!

随后,在主节点下,将所有的公钥信息拷贝到authorized_keys文件下:

使用命令:

cd ~/.ssh

cat id_rsa.pub >> authorized_keys

cat id_rsa.pub.slave1 >> authorized_keys

cat id_rsa.pub.slave2 >> authorized_keys

windows下虚拟机配置spark集群最强攻略!

接下来将authorized_keys文件复制到slave1和slave2节点目录下:

scp authorized_keys sxw@slave1:~/.ssh/authorized_keys

scp authorized_keys sxw@slave2:~/.ssh/authorized_keys

windows下虚拟机配置spark集群最强攻略!

接下来我们验证是否可以免密码登录:使用命令

ssh slave1

windows下虚拟机配置spark集群最强攻略!

登陆成功,我们可以使用exit命令退出登录

6、安装 java 环境

这里我们可以直接使用 linux 的命令下载jdk,当然也可以在本地下载之后传输到虚拟机中,这里我采用的是后者,因为我感觉在主机上下载会比较快一些。到java官网中下载最新的jdk文件即可。

使用由于刚才我们配置了端口转发,因此我们可以使用winscp进行文件传输:

windows下虚拟机配置spark集群最强攻略!

传输文件到/home/sxw/Documents路径下,直接将文件进行拖拽即可:

windows下虚拟机配置spark集群最强攻略!

随后,在该路径下,使用如下命令进行解压:

tar -zxvf  文件名

windows下虚拟机配置spark集群最强攻略!

重命名jdk文件夹为jdk

windows下虚拟机配置spark集群最强攻略!

随后修改配置文件:

sudo vim /etc/profile

添加如下三行:

export JAVA_HOME=/home/sxw/Documents/jdk

export CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$CLASSPATH

export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH

windows下虚拟机配置spark集群最强攻略!

使用source命令使修改生效,同时查看是否安装成功

windows下虚拟机配置spark集群最强攻略!

7、安装scala环境

可以使用命令下载scala,不过我们仍然选择在本地下载scala:

下载地址: http://www.scala-lang.org/download/2.11.7.html

通过winscp传入各虚拟机里,并使用如下命令进行解压:

tar -zxvf 文件名

windows下虚拟机配置spark集群最强攻略!

重命名文件:

windows下虚拟机配置spark集群最强攻略!

修改配置文件,增加以下两行,并用source命令使修改生效:

windows下虚拟机配置spark集群最强攻略!

检查是否安装成功:

windows下虚拟机配置spark集群最强攻略!

可以看到scala已经安装成功了!

8、安装hadoop配置环境

我们首先在主节点上配置好hadoop的文件,随后使用scp命令传输到从节点上即可。

同样,我们在hadoop官网下载hadoop文件,通过winscp传入主节点,使用tar命令进行解压,并修改文件夹名为hadoop,这些这里暂且略过。

修改环境变量(所有节点都需要修改)并使用source命令使其生效:

windows下虚拟机配置spark集群最强攻略!

接下来修改hadoop的配置文件:

(1)$HADOOP_HOME/etc/hadoop/hadoop-env.sh

修改JAVA_HOME 如下:

export JAVA_HOME=/home/sxw/Documents/jdk

(2)$HADOOP_HOME/etc/hadoop/slaves

修改salves里添加两个从节点的名称

slave1

slave2

(3)$HADOOP_HOME/etc/hadoop/core-site.xml

windows下虚拟机配置spark集群最强攻略!

(4)$HADOOP_HOME/etc/hadoop/hdfs-site.xml

windows下虚拟机配置spark集群最强攻略!

(5)$HADOOP_HOME/etc/hadoop/mapred-site.xml

首先使用如下命令生成mapred-site.xml文件:

cp mapred-site.xml.template mapred-site.xml

随后进行修改:

windows下虚拟机配置spark集群最强攻略!

(6)$HADOOP_HOME/etc/hadoop/yarn-site.xml

windows下虚拟机配置spark集群最强攻略!

至此,hadoop的配置文件就修改完了,我们用scp命令将修改好的hadoop文件传入到子节点即可

9、安装spark环境

我们首先在主节点上配置好spark的文件,随后使用scp命令传输到从节点上即可。

同样在spark官网下载最新的spark文件,并使用winscp传入虚拟机,使用tar命令进行解压,并重命名文件夹为spark。

添加spark到环境变量并使其生效:

windows下虚拟机配置spark集群最强攻略!

接下来修改spark的配置文件:

(1)$SPARK_HOME/conf/spark-env.sh

首先使用如下命令生成spark-env.sh文件:

cpspark-env.sh.template spark-env.sh

随后进行修改:

windows下虚拟机配置spark集群最强攻略!

(2)$SPARK_HOME/conf/slaves

首先使用如下命令生成slaves文件:

cpslaves.template slaves

随后进行修改:

windows下虚拟机配置spark集群最强攻略!

至此,spark的配置文件就修改完了,我们用scp命令将修改好的spark文件传入到子节点即可,不要忘记修改子节点的环境变量

10、集群启动和关闭

首先我们编写一个启动脚本:

windows下虚拟机配置spark集群最强攻略!

可以看到,hadoop的启动需要两个命令,分别启动dfs和yarn,传统的start-all.sh已经被弃用。而spark的启动只需要一个命令。

启动的结果如下图所示:

windows下虚拟机配置spark集群最强攻略!

随后我们再编写一个关闭集群的脚本:

windows下虚拟机配置spark集群最强攻略!

11、Hadoop测试

我们在/home/sxw/Documents下建立一个wordcount.txt文件

文件内容如下图:

windows下虚拟机配置spark集群最强攻略!

到hadoop的bin路径下执行如下三条命令:

hadoop fs -mkdir-p /Hadoop/Input

hadoop fs-put wordcount.txt /Hadoop/Input

hadoop jar /home/sxw/Documents/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar wordcount /Hadoop/Input /Hadoop/Output

可以看到我们的hadoop再进行运算了:

windows下虚拟机配置spark集群最强攻略!

windows下虚拟机配置spark集群最强攻略!

使用如下命令查看运算结果,发现我们的期望的结果正确输出:

hadoop fs -cat/Hadoop/Output/*

windows下虚拟机配置spark集群最强攻略!

hadoop配置成功!

12、spark测试

我们直接利用spark-shell 进行测试,编写几条简单额scala语句:

到spark的bin路径下执行./spark-shell命令进入scala的交互模式,并输入如下几条scala语句:

valfile=sc.textFile("hdfs://master:9000/Hadoop/Input/wordcount.txt")

val rdd=file.flatMap(line => line.split("")).map(word => (word,1)).reduceByKey(_+_)

rdd.collect()

rdd.foreach(println)

windows下虚拟机配置spark集群最强攻略!

windows下虚拟机配置spark集群最强攻略!

可以看到,我们的spark集群成功搭建!

windows下虚拟机配置spark集群最强攻略! windows下虚拟机配置spark集群最强攻略! windows下虚拟机配置spark集群最强攻略! windows下虚拟机配置spark集群最强攻略!

本文由ruc_wenwen 创作,采用 知识共享署名-相同方式共享 3.0 中国大陆许可协议 进行许可。

转载、引用前需联系作者,并署名作者且注明文章出处。

本站文章版权归原作者及原出处所有 。内容为作者个人观点, 并不代表本站赞同其观点和对其真实性负责。本站是一个个人学习交流的平台,并不用于任何商业目的,如果有任何问题,请及时联系我们,我们将根据著作权人的要求,立即更正或者删除有关内容。本站拥有对此声明的最终解释权。


以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

重构

重构

Martin Fowler / 熊节 / 中国电力出版社 / 2003-8-1 / 68.00元

Martin Fowler和《重构:改善既有代码的设计》(中文版)另几位作者清楚揭示了重构过程,他们为面向对象软件开发所做的贡献,难以衡量。《重构:改善既有代码的设计》(中文版)解释重构的原理(principles)和最佳实践方式(best practices),并指出何时何地你应该开始挖掘你的代码以求改善。《重构:改善既有代码的设计》(中文版)的核心是一份完整的重构名录(catalog of r......一起来看看 《重构》 这本书的介绍吧!

URL 编码/解码
URL 编码/解码

URL 编码/解码

正则表达式在线测试
正则表达式在线测试

正则表达式在线测试

HSV CMYK 转换工具
HSV CMYK 转换工具

HSV CMYK互换工具