资讯

精准传达 • 有效沟通

从品牌网站建设到网络营销策划,从策略到执行的一站式服务

SPARKstandlone安装配置

集群一共有3台机器,集群使用hadoop用户运行,3台机器如下:

创新互联建站提供成都网站设计、做网站、成都外贸网站建设公司、网页设计,品牌网站设计一元广告等致力于企业网站建设与公司网站制作,十年的网站开发和建站经验,助力企业信息化建设,成功案例突破千余家,是您实现网站建设的好选择.

1DEV-HADOOP-01192.168.9.110
2DEV-HADOOP-02192.168.9.111
3DEV-HADOOP-03192.168.9.112

  1. 配置集群间hadoop用户的无密码登录

  2. 配置每台机器的/etc/hosts

  3. 安装JDK1.8.0_60

  4. 安装scala

    1. 下载scala-2.11.7.tar

    2. 把scala-2.11.7.tar解压到/data/server目录

    3. 设置环境变量 /etc/profile

      1. export SCALA_HOME=/usr/scala/scala-2.11.7

      2. 使配置生效 source /etc/profile

  5. 安装spark

    1. 下载spark-1.5.0.tar

    2. 把spark-1.5.0.tar解压到/data/server目录

    3. 配置环境变量 /etc/profile

      1. export SPARK_HOME=/data/server/spark-1.5.0-bin-hadoop2.6

      2. export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

      3. 使配置生效 source /etc/profile

    4. 修改spark配置文件

      1. spark-env.sh配置文件

        1. export SCALA_HOME=/data/server/scala-2.11.7

        2. export JAVA_HOME=/usr/java/jdk1.8.0_60/

        3. export SPARK_MASTER_IP=DEV-HADOOP-01

        4. export SPARK_WORKER_MEMORY=2048m

      2. slaves配置文件

        1. DEV-HADOOP-02

        2. DEV-HADOOP-03

  6. 启动spark集群

    1. sbin/start-all.sh

  7. 集群启动验证

    1. 执行jps命令,master节点可以看到Master进程,slave可以看到Worker进程

  8. 查看Spark UI

    1. http://192.168.9.110:8080/

  9. 关闭集群

    1. sbin/stop-all.sh 


标题名称:SPARKstandlone安装配置
URL地址:http://cdkjz.cn/article/jedcsj.html
多年建站经验

多一份参考,总有益处

联系快上网,免费获得专属《策划方案》及报价

咨询相关问题或预约面谈,可以通过以下方式与我们联系

大客户专线   成都:13518219792   座机:028-86922220