메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


0. 아래와 같이 설정한다는 가정하에 작업을 진행한다.(ZK는 hbase가 관리하지 않도록 설정)

   master에 HMaster

   node1에 backup HMaster1, RegionServer

   node2에 backup HMaster2, RegionServer

   node3에 RegionServer

   node4에 RegionServer


1. hbase 0.98.12를 다운로드및 설치위치에 업로드

   http://www.eu.apache.org/dist/hbase/


2. 압축을 푼다.

   tar xvfz hbase-0.98.12-hadoop2-bin.tar.gz


3. soft link를 생성한다.

   ln -s hbase-0.98.12-hadoop2 hbase


3-1. 환경변수 설정(vi /etc/profile) 

   export HBASE_HOME=/usr/local/hbase 과

   export PATH=$PATH:$HBASE_HOME을 등록해준다.


4. hbase-env.sh 설정

  : JAVA_HOME과 HBASE_CLASSPATH의 commnet를 제거하고 

   아래와 같이 jdk가 설치된 경로와 hadoop이 설정파일의 위치를 지정해준다(hadoop변경사항을 hbase가 알기 위한 설정)

   zookeeper는 hbase가 관리하지 않게 설정한다.


  vi conf/hbase-env.sh

  export JAVA_HOME=/opt/jdk1.8.0_66

  export HBASE_CLASSPATH=$HADOOP_CONF_DIR

  export HBASE_MANAGES_ZK=false

  export HBASE_SSH_OPTS="-p 22"


* export JAVA_HOME=$JAVA_HOME로 설정하면 안되네??


5.conf/hbase-site.xml내용 수정

- zookeeper의 위치와 hbase의 data가 저장될 위치를 지정한다.


<configuration>

<!-- HDFS가 HA가 아닌경우 -->

<!--

  <property>

    <name>hbase.rootdir</name>

    <value>hdfs://master:9000/hbase</value>

  </property>

-->


<!-- HDFS가 HA로 구성된경우 -->

  <property>

    <name>hbase.rootdir</name>

    <value>hdfs://mycluster/hbase</value>

  </property>

<!-- mycluster는 hdfs-site.xml의 dfs.nameservices에 지정한 값을 사용한다 -->


  <property>

    <name>hbase.cluster.distributed</name>

    <value>true</value>

  </property>

  <property>

    <name>hbase.zookeeper.quorum</name>

    <value>master:2181,node1:2181,node2:2181</value>

  </property>

</configuration>


5-1. 로그 경로 변경

vi /usr/local/hbase/conf/hbase-env.sh

# Where log files are stored.  $HBASE_HOME/logs by default.

# export HBASE_LOG_DIR=${HBASE_HOME}/logs의 주석을 풀고 아래와 같이 변경함

 export HBASE_LOG_DIR=/logs/hbase/logs


6. regionserver가 될 node를 지정한

vi conf/regionservers

node1

node2

node3

node4


7. HMaster의 백업용으로 사용할 backup서버를 지정한다.(파일이 없으면 생성해준다)

vi conf/backup-masters

node1

node2


8. 각서버에 hbase전체를 복사후 링크를 생성한다.

가. 복사

  scp -r -P 22 hbase-0.98.12-hadoop2 root@node1:$HOME

  scp -r -P 22 hbase-0.98.12-hadoop2 root@node2:$HOME

  scp -r -P 22 hbase-0.98.12-hadoop2 root@node3:$HOME

  scp -r -P 22 hbase-0.98.12-hadoop2 root@node4:$HOME

나. 링크생성

  ln -s hbase-0.98.12-hadoop2 hbase


9. hadoop환경설정 정보를 hbase가 사용할 수 있게 설정(hbase가 설치된 모든 서버에서 실행)

* hadoop의 변경사항을 hbase가 알 수 있게 하는 방법은 2가지가 더 있다.

 가. hbase설치 위치의 conf폴더 밑에 hdfs-site.xml, core-site.xml, yarn-site.xml등 3개의 파일에 대한 symbolic links를

  생성한다.(hbase가 설치된곳의 conf폴더 밑에서 "ln -s $HADOOP_HOME/etc/hadoop/hdfs-site.xml hdfs-site.xml"등을 실행함)

  (

   root@master:~/hbase/conf# ln -s $HADOOP_HOME/etc/hadoop/hdfs-site.xml hdfs-site.xml 

   root@master:~/hbase/conf# ln -s $HADOOP_HOME/etc/hadoop/core-site.xml core-site.xml

   root@master:~/hbase/conf# ln -s $HADOOP_HOME/etc/hadoop/yarn-site.xml yarn-site.xml

)

 나. 몇개 안되는 설정값(예, dfs.replication.factor)은 hbase-site.xml에 설정값을 직접넣는다.


10. master서버에서 start시켜줌(master에서 기동시키면 나머지 데몬은 hbase가 자동으로 올려준댜)

root@master:bin# start-hbase.sh

starting master, logging to /usr/local/hbase/logs/hbase-root-master-master.out

node3: starting regionserver, logging to /usr/local/hbase/bin/../logs/hbase-root-regionserver-node3.out

node4: starting regionserver, logging to /usr/local/hbase/bin/../logs/hbase-root-regionserver-node4.out

node1: starting regionserver, logging to /usr/local/hbase/bin/../logs/hbase-root-regionserver-node1.out

node2: starting regionserver, logging to /usr/local/hbase/bin/../logs/hbase-root-regionserver-node2.out

node1: starting master, logging to /usr/local/hbase/bin/../logs/hbase-root-master-node1.out

node2: starting master, logging to /usr/local/hbase/bin/../logs/hbase-root-master-node2.out


* stop-hbase.sh은 HMaster데몬이 떠있는 곳에서 실행해야함

(stopping hbase: /tmp/hbase-hadoop-master.pid: No such file or directory 오류발생)


* regionserver를 수동으로 기동하는 방법

./bin/hbase-daemon.sh start regionserver


11. 모니터링

* hbase 0.98.x이하인 경우

HMaster Info Web UI : http://192.168.10.100:60010

Region Server : http://192.168.10.100:60030


* hbase 0.98.x이상의 버젼에서는 포트가 아래와 같이 변경됨

HMaster Info Web UI : http://192.168.10.100:16010

Region Server : http://192.168.10.100:16030


* start-hbase.sh에서 regionserver가 기동하지 못하고 "org.apache.hadoop.hbase.ClockOutOfSyncException: org.apache.hadoop.hbase.ClockOutOfSyncException"오류가 발생하면 master와 regionserver에서 "rdate -s time.bora.net" 혹은 "ntpdate time.bora.net"를 실행하여 시간을 맞추고 start-hbase.sh을 실행해준다.


12. hbase test
가. 실행
   bin/hbase shell

나. test 테이블생성
hbase(main):002:0> create 'test', 'cf'
0 row(s) in 1.5750 seconds
=> Hbase::Table - test

다. list
다. put 'test', 'rowkey1','cf:a', 'test_value'
라. scan 'test'
마. describe 'test'

* hbase shell을 이용한 간단한 테스트는 https://www.gooper.com/ss/index.php?mid=bigdata&category=2788&page=2&document_srl=2912 를 참조할것

번호 제목 글쓴이 날짜 조회 수
179 A Cluster의 HDFS 디렉토리및 파일을 사용자및 권한 유지 하여 다운 받아서 B Cluster에 넣기 총관리자 2020.05.06 77
178 hadoop에서 yarn jar ..를 이용하여 appliction을 실행하여 정상적(?)으로 수행되었으나 yarn UI의 어플리케이션 목록에 나타나지 않는 문제 총관리자 2017.05.02 77
177 테이블의 row수를 빠르게 카운트 하는 방법 총관리자 2017.01.26 77
176 How-to: Tune Your Apache Spark Jobs (Part 2) file 총관리자 2016.10.31 77
175 S2RDF 테스트(벤치마크 테스트를 기준으로 python, scala소스가 만들어져서 기능은 파악되지 못함) [2] file 총관리자 2016.05.27 76
174 small file 한개 파일로 만들기(text file 혹은 parquet file의 테이블) gooper 2022.07.04 75
173 특정 커밋 시점(commit id를 기준으로)으로 돌리기(reset) 총관리자 2016.11.21 75
172 gradle을 이용하여 jar파일 생성시 provided속성을 지정할 수 있게 설정하는 방법 총관리자 2016.08.09 75
171 [CentOS 7.4]Hadoop NFS gateway기동시 Cannot connect to port 2049 오류 발생시 확인/조치 총관리자 2022.03.02 74
170 DBCP Datasource(org.apache.commons.dbcp.BasicDataSource) 설정 및 속성 설명 총관리자 2016.09.26 74
169 [SBT] project.sbt에 libraryDependencies에 필요한 jar를 지정했으나 sbt compile할때 클래스를 못찾는 오류가 발생했을때 조치사항 총관리자 2016.08.03 74
168 drools에서 drl관련 로그를 기록하기 위한 클래스 파일 총관리자 2016.07.21 74
167 Hadoop 2.7.x에서 사용할 수 있는 파일/디렉토리 관련 util성 클래스 파일 총관리자 2017.09.28 73
166 [sbt] sbt 0.13.11 를 windows에 설치하고 scala프로그램을 compile해서 jar파일 만들기 총관리자 2016.07.11 73
165 SPIN(SPARQL Inference Notation)이란.. file 총관리자 2016.02.25 73
164 Cloudera의 CMS각 컴포넌트의 역할 총관리자 2020.02.10 71
163 jdk 9이상 사용하려면 repository를 아래와 같이 지정해야한다. 총관리자 2019.06.02 71
162 CentOS6에 python3.5.1 소스코드로 빌드하여 설치하기 총관리자 2016.05.27 71
161 [CDP7.1.7]BDR작업후 오류로 Diagnostic Data를 수집하는 동안 "No content to map due to end-of-input at [Source: (String)""; line: 1, column: 0]" 오류 발생시 조치 gooper 2024.02.20 70
160 hbase startrow와 endrow를 지정하여 검색하기 샘플 총관리자 2016.12.07 70

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로