如何安装 Apache CentOS 8 上的 Spark

在本教程中,我们将向您展示如何安装 Apache Spark on CentOS 8。对于那些不知道的人, Apache Spark 是一个快速且通用的集群计算系统。 它提供 Java、Scala 和 Python 中的高级 API,以及支持整体执行图表的优化引擎。 它还支持一组丰富的高级工具,包括用于 SQL 和结构化信息处理的 Spark SQL、用于机器学习的 MLlib、用于图形处理的 GraphX 和 Spark Streaming。

本文假设您至少具备 Linux 的基本知识,知道如何使用 shell,最重要的是,您将网站托管在自己的 VPS 上。 安装非常简单,假设您在 root 帐户下运行,如果不是,您可能需要添加 ‘sudo‘ 到命令以获取 root 权限。 我将逐步向您展示 Apache 在 CentOS 8 上运行 Spark。

安装 Apache CentOS 8 上的 Spark

步骤 1. 首先,让我们首先确保您的系统是最新的并安装所有必需的依赖项。

sudo dnf install epel-release sudo dnf update

步骤 2. 安装 Java。

本文中的Java安装已在上一篇文章中介绍过。 我们将参考Java安装文章。 然后我们通过下面的命令行检查 Java 版本:

java -version

步骤 3. 安装 Scala。

Apache Spark是在Scala编程语言上实现的,所以我们必须安装Scala才能运行 Apache Spark,所以我们只需要确保存在 Java 和 Python:

wget https://www.scala-lang.org/files/archive/scala-2.13.4.tgz tar xvf scala-2.13.4.tgz sudo mv scala-2.13.4 /usr/lib sudo ln -s /usr/lib/scala-2.13.4 /usr/lib/scala  PATH=$PATH:/usr/lib/scala/bin

安装后,检查 scala 版本:

scala -version

步骤 4. 安装 Apache 在 CentOS 8 上运行 Spark。

现在我们下载最新版本 Apache Spark来自其官方来源:

wget https://downloads.apache.org/spark/spark-3.0.1/spark-3.0.1-bin-hadoop2.7.tgz tar -xzf spark-3.0.1-bin-hadoop2.7.tgz  SPARK_HOME=$HOME/spark-3.0.1-bin-hadoop2.7  PATH=$PATH:$SPARK_HOME/bin

在启动 spark 之前设置一些环境变量:

echo ' PATH=$PATH:/usr/lib/scala/bin' >> .bash_profile echo ' SPARK_HOME=$HOME/spark-3.0.1-bin-hadoop2.7' >> .bash_profile echo ' PATH=$PATH:$SPARK_HOME/bin' >> .bash_profile

可以手动启动独立的 Spark 集群,即在每个节点上执行启动脚本,或者简单地使用可用的 启动脚本. 为了测试,我们可以在同一台机器上运行主从守护进程:

./sbin/start-master.sh

步骤 5. 配置防火墙 Apache 火花。

运行以下命令打开防火墙上的端口:

sudo firewall-cmd --permanent --zone=public --add-port=7077/tcp sudo firewall-cmd --reload

步骤 6. 访问 Apache 火花网络界面。

Apache 默认情况下,Spark 将在 HTTP 端口 7077 上可用。 打开您喜欢的浏览器并导航到 https://your-domain.com:7077 或者 https://server-ip-address:7077 并完成所需的步骤以完成安装。

恭喜! 您已成功安装 Apache 火花。 感谢您使用本教程进行安装 Apache 在您的 CentOS 8 系统上运行 Spark 开源框架。 如需其他帮助或有用信息,我们建议您查看 官方 Apache 星火网站.