• 티스토리 홈
  • 프로필사진
    홀쑥
  • 방명록
  • 공지사항
  • 태그
  • 블로그 관리
  • 글 작성
홀쑥
  • 프로필사진
    홀쑥
    • 분류 전체보기 (57)
      • Language & Framework (14)
        • Java (1)
        • Python (13)
      • DataBase (4)
        • NoSQL (1)
        • RDBMS (3)
      • Big Data & Ecosystem (9)
        • Hadoop (5)
        • Hive (2)
        • Sqoop (1)
        • Zeppelin (1)
      • Data Engineering (1)
        • Airflow (1)
      • Cloud & DevOps (1)
        • AWS (0)
        • GCP (1)
      • Monitoring & Logging (2)
        • ElasticSearch (2)
      • Infrastructure (12)
        • OS (12)
        • Docker (0)
        • Kubernetes (0)
      • Algorithm & CS (7)
        • 백준 알고리즘 (6)
      • Troubleshooting (5)
        • 오류 모음 (5)
  • 방문자 수
    • 전체:
    • 오늘:
    • 어제:
  • 최근 댓글
      등록된 댓글이 없습니다.
    • 최근 공지
        등록된 공지가 없습니다.
      # Home
      # 공지사항
      #
      # 태그
      # 검색결과
      # 방명록
      • [Spark] 설치 및 시작
        2020년 06월 25일
        • 홀쑥
        • 작성자
        • 2020.06.25.:51

        dn01의 루트계정에서

        # cd /tmp

        # wget http://apache.mirror.cdnetworks.com/spark/spark-2.4.5/spark-2.4.5-bin-hadoop2.7.tgz  

        # tar xzvf spark-2.4.5-bin-hadoop2.7.tgz

        까먹고 hadoop계정으로 설치해서 root로 로그인함

        # mkdir -p /opt/spark/2.4.5

        # mv spark-2.4.5-bin-hadoop2.7/* /opt/spark/2.4.5/

        # ln -s /opt/spark/2.4.5 /opt/spark/current

        # chown -R hadoop:hadoop /opt/spark/

        # su - hadoop

        # vi ~/.bash_profile

        ###### spark  ######################
                export SPARK_HOME=/opt/spark/current
                export PATH=$PATH:$SPARK_HOME/bin
                export PATH=$PATH:$SPARK_HOME/sbin
        #### spark ######################

        끝에 입력 후 저장

        # source ~/.bash_profile

        # cd $SPARK_HOME/conf

         

        # cp slaves.template slaves

        # vi slaves

        localhost 지우고

        nn01

        dn02 입력 후 저장

        # cp spark-defaults.conf.template spark-defaults.conf

        # vi spark-defaults.conf

        spark.yarn.jars /opt/spark/current/jars/*

        저장하고 확인

        # cp log4j.properties.template log4j.properties

        # vi log4j.properties

        INFO -> ERROR로 바꿔 줌 -> Spark 로그에 정신없는 INFO가 안나타남

        log4j.rootCategory=ERROR, console

        # cp spart-env.sh.template spark-env.sh

        # vi spark-env.sh

        끝에 추가

        SPARK_MASTER_HOST=dn01
        export JAVA_HOME=/opt/jdk/current
        export HADOOP_HOME=/opt/hadoop/current
        export SPARK_HOME=/opt/spark/current
        export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
        export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
        export SPARK_DRIVER_MEMORY=2g
        export SPARK_EXECUTOR_INSTANCES=2
        export SPARK_EXECUTOR_CORES=1
        export SPARK_EXECUTOR_MEMORY=2g
        export SPARK_MASTER_IP=192.168.56.102
        #export SPARK_WORKER_DIR=/spark_data/spwork
        #export SPARK_PID_DIR=/spark_data/sptmp
        export SPARK_DIST_CLASSPATH=$(/opt/hadoop/current/bin/hadoop classpath):/opt/spark/current/jars/*
        #export PYTHONPATH=/opt/python/current/python3
        #export PYSPARK_PYTHON=/opt/python/current/python3

        # spark-shell

           scala> sc.setLogLevel("WARN")
           scala> val f = sc.textFile("file:///etc/hosts")
           scala> f.count
           scala> f.first
           scala> f.collect
           scala> :quit

         

        dn01에서 dn02와 nn01에 복사

        # sudo scp -r /opt/spark  dn02:/opt/spark

        # sudo scp -r /opt/spark  nn01:/opt/spark

        --- sudo 명령어 안될 때

        root 계정에서 visudo -f /etc/sudoers
         ecs :100 라인  root  ALL=(ALL) ALL 을 yy로 복사하고 바로 p 눌려서 붙이고

        root를 hadoop으로 변경
        root   ALL=(ALL) ALL
        hadoop ALL=(ALL) ALL
        여기에 패스워드까지 묻지 않고 연결하고 싶으면
        hadoop ALL=(ALL) NOPASSWD: ALL  ( 계정 등록 )
        %hadoop ALL=(ALL) NOPASSWD: ALL ( 그룹 등록 )

        ---

        링크 연결이 끊김 

         

        dn02와 nn01에서 root계정 로그인 후

        # rm -rf /opt/spark/current

        # ln -s /opt/spark/2.4.5 /opt/spark/current

        # ll /opt/spark/

        # chown -R hadoop:hadoop /opt/spark/

        다음글
        다음 글이 없습니다.
        이전글
        이전 글이 없습니다.
        댓글
      조회된 결과가 없습니다.
      스킨 업데이트 안내
      현재 이용하고 계신 스킨의 버전보다 더 높은 최신 버전이 감지 되었습니다. 최신버전 스킨 파일을 다운로드 받을 수 있는 페이지로 이동하시겠습니까?
      ("아니오" 를 선택할 시 30일 동안 최신 버전이 감지되어도 모달 창이 표시되지 않습니다.)
      목차
      표시할 목차가 없습니다.
        • 안녕하세요
        • 감사해요
        • 잘있어요

        티스토리툴바