메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


0. 모니터링(MR, YARN, HBASE)

  가. http://master:8088/cluster

  나. http://master:50070/dfshealth.html#tab-datanode

  다. http://master:60010/master-status

1. hadoop 1.X

  가. hadoop 관련 데몬 모두 start

     start-all.sh

  나. hadoop 관련 데몬 모두 stop

     stop-all.sh

  다. 안전모드 벗어나기

     hadoop dfsadmin -safemode leave

  라.map/reduce admin모니터링

    http://localhost:50030/jobtracker.jsp

  마. namenode 모니터링

    http://localhost:50070/dfshealth.jsp

  바. 기타

    start-dfs.sh - Hadoop DFS daemon들(namenode and datanodes)을 기동함.(start-mapred.sh을 실행가지 전에 실행할 것)
    stop-dfs.sh - Hadoop DFS daemon 들을 중지함.
    start-mapred.sh - Hadoop Map/Reduce daemonem들(jobtracker 와 tasktracker들)을 기동함.
    stop-mapred.sh - Hadoop Map/Reduce daemon들을 중지함.
    start-all.sh - 모든 Hadoop daemon들(namenode, datanode들, jobtracker, tasktracker들) 기동함
                         (앞으로는 start-dfs.sh 과 start-mapred.sh을 연속 실행할것)
    stop-all.sh - 모든 Hadoop daemon들을 중지시킴

                         (앞으로는 stop-mapred.sh 과 stop-dfs.sh을 연속 실행할것)

  사. namenode만 stop/start

    hadoop-daemon.sh stop/start namenode

1-1. hadoop 2.X

  가. nodemanager

      yarn-daemon.sh start nodemanager

  나. datanode

       hadoop-daemon.sh start datanode

  다. resourcemanager

       yarn-daemon.sh start resourcemanager

  라. namenode

       hadoop-daemon.sh start namenode

  마. zkfc

    hadoop-daemon.sh start zkfc

2. oozie

  가. oozie start

    oozie-start.sh

   나. oozie stop

    oozie-stop.sh

   다.  모니터링

    http://localhost:11000/oozie

  라. xml유효성 체크

    oozie validate workflow.xml

3. hive

  가. 시작/종료

       nohup hive --service metastore>$HIVE_LOG_DIR/hive.out 2>$HIVE_LOG_DIR/hive.log & 를 먼저 실행함

  나. hive  shell 실행(hbase연동 작업할 경우)

    hive --auxpath /home/hadoop/hive/lib/hbase-0.94.6.1.jar,/home/hadoop/hive/lib/zookeeper-3.4.3.jar,/home/hadoop/hive/lib/hive-hbase-handler-0.11.0.jar,/home/hadoop/hive/lib/guava-11.0.2.jar,/home/hadoop/hive/lib/hive-contrib-0.11.0.jar -hiveconf hbase.master=localhost:60000

 다. metastore 서버기동

    hive --service metastore &
 라. hiveserver2 서버기동

     hive --service hiveserver2

4. ubuntu

  가......

5. mysql

  가.  sql파일을 이용하여 일괄 실행

      mysql -uUserId -pPassword DataBaseName  --default-character-set=utf-8 < ExportFileName.sql

  나. mysql dump명령

     mysqldump -u gooper -p gooper > gooper_db_20140321.sql

  다. mysql shell들어가기

    mysql -u root -p

6. hbase

  가. start

    start-hbase.sh

  나. stop

    stop-hbase.sh

  다. hmaster 기동/중지/restart

    hbase-daemon.sh start/stop master

  라. regionmaster 기동/중지/restart

    hbase-daemon.sh start/stop/restart regionserver

  마. 모니터링

    -RegionServer

    http://localhost:60030/

   - HMaster

    http://localhost:60010/


  바. thrift server기동

    hadoop@bigdata-host:~/hadoop/working$ hbase thrift start

7. zookeeper

  가. 시작

    zkServer.sh start

  나. 중지

    zkServer.sh stop

  다. zk shell

    zkCli.sh -server localhost:2181

 

-----------------hadoop 2.X---------------------------
Daemon포트

  • NameNode : 50070
  • ResourceManager : 8088
  • MapReduece JobHitory : 19888 
번호 제목 글쓴이 날짜 조회 수
130 [Impala] alter table구문수행시 "WARNINGS: Impala does not have READ_WRITE access to path 'hdfs://nameservice1/DATA/Temp/DB/source/table01_ccd'" 발생시 조치 gooper 2024.04.26 0
129 [CDP7.1.7, Hive Replication]Hive Replication진행중 "The following columns have types incompatible with the existing columns in their respective positions " 오류 gooper 2023.12.27 7
128 [CDP7.1.7]Oozie job에서 ERROR: Kudu error(s) reported, first error: Timed out: Failed to write batch of 774 ops to tablet 8003f9a064bf4be5890a178439b2ba91가 발생하면서 쿼리가 실패하는 경우 gooper 2024.01.05 7
127 [CDP7.1.7]impala-shell수행시 간헐적으로 "-k requires a valid kerberos ticket but no valid kerberos ticket found." 오류 gooper 2023.11.16 11
126 임시 테이블에서 데이터를 읽어서 partitioned table에 입력하는 impala SQL문 예시 gooper 2023.11.10 16
125 [impala]insert into db명.table명 select a, b from db명.table명 쿼리 수행시 "Memory limit exceeded: Failed to allocate memory for Parquet page index"오류 조치 방법 gooper 2023.05.31 21
124 not leader of this config: current role FOLLOWER 오류 발생시 확인방법 총관리자 2022.01.17 23
123 kudu table와 impala(hive) table정보가 틀어져서 테이블을 읽지 못하는 경우(Error Loading Metadata) 조치방법 gooper 2023.11.10 25
122 [CDP7.1.7]Impala Query의 Memory Spilled 양은 ScratchFileUsedBytes값을 누적해서 구할 수 있다. gooper 2022.07.29 29
121 [Cloudera 6.3.4, Kudu]]Service Monitor에서 사용하는 metric중에 일부를 blacklist로 설정하여 모니터링 정보 수집 제외하는 방법 gooper 2022.07.08 31
120 Failed to write to server: (no server available): 총관리자 2022.01.17 32
119 AnalysisException: Incomplatible return type 'DECIMAL(38,0)' and 'DECIMAL(38,5)' of exprs가 발생시 조치 총관리자 2021.07.26 33
118 spark에서 hive table을 읽어 출력하는 예제 소스 총관리자 2017.03.09 35
117 [TLS/SSL]Kudu Tablet Server설정 총관리자 2022.05.13 35
116 spark에서 hive table을 읽어 출력하는 예제 소스 총관리자 2017.03.09 37
115 [KUDU] kudu tablet server여러가지 원인에 의해서 corrupted상태가 된 경우 복구방법 gooper 2023.03.28 37
114 [CDP7.1.7]impala-shell을 이용하여 kudu table에 insert/update수행시 발생하는 오류(Transport endpoint is not connected (error 107)) 발생시 확인할 내용 gooper 2023.11.30 41
113 spark 온라인 책자링크 (제목 : mastering-apache-spark) 총관리자 2016.05.25 48
112 [Impala jdbc]CDP7.1.7환경에서 java프로그램을 이용하여 kerberized impala cluster에 접근하여 SQL을 수행하는 방법 gooper 2023.08.22 54
111 [hive] hive.tbls테이블의 owner컬럼값은 hadoop.security.auth_to_local에 의해서 filtering된다. 총관리자 2022.04.14 55

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로