内容简介:Spark 可以独立安装使用,也可以和Hadoop 一起安装使用。在安装 Spark 之前,首先确保你的电脑上已经安装了访问为了能在终端中直接打开 Spark 的
Spark编程环境
Spark 可以独立安装使用,也可以和Hadoop 一起安装使用。在安装 Spark 之前,首先确保你的电脑上已经安装了 Java 8 或者更高的版本。
Spark 安装
访问 Spark 下载页面 ,并选择最新版本的 Spark 直接下载,当前的最新版本是 2.4.2 。下载好之后需要解压缩到安装文件夹中,看自己的喜好,我们是安装到了 /opt 目录下。
tar -xzf spark-2.4.2-bin-hadoop2.7.tgz mv spark-2.4.2-bin-hadoop2.7/opt/spark-2.4.2
为了能在终端中直接打开 Spark 的 shell 环境,需要配置相应的环境变量。这里我由于使用的是
zsh,所以需要配置环境到
~/.zshrc 中。
没有安装 zsh 的可以配置到 ~/.bashrc 中
# 编辑 zshrc 文件 sudo gedit ~/.zshrc # 增加以下内容:export SPARK_HOME=/opt/spark-2.4.2export PATH=$SPARK_HOME/bin:$PATH export <a href="https://www.linuxidc.com/topicnews.aspx?tid=17" target="_blank" title="Python">Python</a>PATH=$SPARK_HOME/python:$SPARK_HOME/python/lib/py4j-0.10.4-src.zip:$PYTHONPATH
配置完成后,在 shell 中输入
spark-shell 或者
pyspark 就可以进入到 Spark 的交互式编程环境中,前者是进入
Scala 交互式环境,后者是进入
Python 交互式环境。
配置 Python 编程环境
在这里介绍两种编程环境, Jupyter 和
Visual Studio Code。前者方便进行交互式编程,后者方便最终的集成式开发。
PySpark in Jupyter
首先介绍如何在 Jupyter 中使用 Spark,注意这里 Jupyter notebook 和 Jupyter lab 是通用的方式,此处以 Jupyter lab 中的配置为例:
在 Jupyter lab 中使用 PySpark 存在两种方法:
pyspark 将自动打开一个 Jupyter lab; findSpark 包来加载 PySpark。
第一个选项更快,但特定于Jupyter笔记本,第二个选项是一个更广泛的方法,使PySpark在你任意喜欢的IDE中都可用,强烈推荐第二种方法。
方法一:配置 PySpark 启动器
更新 PySpark 启动器的环境变量,继续在 ~/.zshrc 文件中增加以下内容:
export PYSPARK_DRIVER_PYTHON=jupyter export PYSPARK_DRIVER_PYTHON_OPTS='lab'
如果要使用 jupyter notebook,则将第二个参数的值改为 notebook
刷新环境变量或者重启机器,并执行 pyspark 命令,将直接打开一个启动了 Spark 的 Jupyter lab。
pyspark
方法二:使用 findSpark 包
在 Jupyter lab 中使用 PySpark 还有另一种更通用的方法:使用 findspark 包在代码中提供 Spark 上下文环境。
findspark 包不是特定于 Jupyter lab 的,您也可以其它的 IDE 中使用该方法,因此这种方法更通用,也更推荐该方法。
首先安装 findspark:
pip install findspark
之后打开一个 Jupyter lab,我们在进行 Spark 编程时,需要先导入 findspark 包,示例如下:
# 导入 findspark 并初始化import findspark findspark.init()from pyspark importSparkConf,SparkContextimport random # 配置 Spark conf =SparkConf().setMaster("local[*]").setAppName("Pi")# 利用上下文启动 Spark sc =SparkContext(conf=conf) num_samples =100000000definside(p): x, y = random.random(), random.random()return x*x + y*y <1 count = sc.parallelize(range(0, num_samples)).filter(inside).count() pi =4* count / num_samples print(pi) sc.stop()
运行示例:
PySpark in VScode
Visual Studio Code 作为一个优秀的编辑器,对于
Python 开发十分便利。这里首先推荐个人常用的一些插件:
- Python:必装的插件,提供了Python语言支持;
- Code Runner:支持运行文件中的某些片段;
此外,在 VScode 上使用 Spark 就不需要使用
findspark 包了,可以直接进行编程:
from pyspark importSparkContext,SparkConf conf =SparkConf().setMaster("local[*]").setAppName("test") sc =SparkContext(conf=conf) logFile ="file:///opt/spark-2.4.2/README.md" logData = sc.textFile(logFile,2).cache() numAs = logData.filter(lambda line:'a'in line).count() numBs = logData.filter(lambda line:'b'in line).count()print("Lines with a: {0}, Lines with b:{1}".format(numAs, numBs))
Linux公社的RSS地址 : https://www.linuxidc.com/rssFeed.aspx
本文永久更新链接地址: https://www.linuxidc.com/Linux/2019-06/159050.htm
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:- Uber发布开源AI工具包Ludwig,开发者无需编程即可完成模型搭建
- 如何用Paddle Fluid API搭建一个简单的神经网络?这里有一份编程指南
- 从0到1搭建推荐策略产品的思考(二):如何搭建?
- Docker搭建disconf环境,三部曲之三:细说搭建过程
- 在Windows下搭建React Native Android开发环境&搭建项目
- 2019最新k8s集群搭建教程 (centos k8s 搭建)
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
JAVASCRIPT权威指南(第四版)
David Flanagan / 张铭泽、等 / 机械工业出版社 / 2003-1-1 / 99.00
《JavaScript权威指南》全面介绍了JavaScript语言的核心,以及Web浏览器中实现的遗留和标准的DOM。它运用了一些复杂的例子,说明如何处理验证表单数据、使用cookie、创建可移植的DHTML动画等常见任务。本书还包括详细的参考手册,涵盖了JavaScript的核心API、遗留的客户端API和W3C标准DOM API,记述了这些API中的每一个JavaScript对象、方法、性质、......一起来看看 《JAVASCRIPT权威指南(第四版)》 这本书的介绍吧!