메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


1. tarball파일 다운로드

cd /usr/local

wget http://www.eu.apache.org/dist/hive/hive-0.13.1/apache-hive-0.13.1-bin.tar.gz 


2. 압축풀기

tar xvfz apache-hive-0.13.1-bin.tar.gz 


3. 링크생성

ln -s apache-hive-0.13.1-bin/ hive


4. 변수설정(/etc/profile)

export HIVE_HOME=/hadoop/hive

export PATH=$PATH:$HIVE_HOME/bin


5. HDFS에 hive용 folder생성및 mod수정

hadoop fs -mkdir /user/hive

hadoop fs -mkdir /user/hive/warehouse

hadoop fs -chmod g+w /user/hive/warehouse


6. conf파일 설정(conf폴더밑에 템플릿만 있으므로 아래와 같이 만들어줄것)

cp hive-env.sh.template hive-env.sh

cp hive-default.xml.template hive-site.xml

cp hive-exec-log4j.properties.template hive-exec-log4j.properties

cp hive-log4j.properties.template hive-log4j.properties



7. hadoop_env.sh에서 HADOOP_CLASSPATH 환경변수에 hive의 lib파일($HIVE_HOME/lib/* )을 등록

vi $HADOOP_HOME/conf/hadoop_env.sh

export HADOOP_CLASSPATH=/usr/local/hadoop/share/hadoop/mapreduce:/usr/local/hadoop/share/hadoop/mapreduce/lib:$HIVE_HOME/lib/*


* stop-yarn.sh 후 start-yarn.sh해서 반영시켜 줘야함


8. jdbc driver다운로드및 hive의 lib에 upload

https://jdbc.postgresql.org/download.html

(예. postgresql-9.3-1103.jdbc4.jar)


9. hive-site.xml수정

        <property>

            <name>javax.jdo.option.ConnectionURL</name>

            <value>jdbc:postgresql://db.com/dbname</value>

        </property>

        <property>

            <name>javax.jdo.option.ConnectionDriverName</name>

            <value>org.postgresql.Driver</value>

        </property>

       <property>

         <name>javax.jdo.option.ConnectionUserName</name>

         <value>db게정</value>

       </property>

       <property>

          <name>javax.jdo.option.ConnectionPassword</name>

          <value>패스워드</value>

       </property>


10. hive-env.sh수정

: 아래를 추가하여 hive가 hadoop의 jar파일을 사용할수 있도록 해준다.

#hadoop library classpath setting 

for f in ${HADOOP_HOME}/lib/*.jar; do

  CLASSPATH=${CLASSPATH}:$f;

done


for f in ${HIVE_HOME}/lib/*.jar; do

  CLASSPATH=${CLASSPATH}:$f;

done


11. hadoop-env.sh수정

: 맨끝에 아래의 내용을 추가한다.

export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:/usr/local/hadoop/share/hadoop/mapreduce:/usr/local/hadoop/share/hadoop/mapreduce/lib:$HIVE_HOME/lib:$HIVE_HOME/conf


* hadoop-env.sh에 위에 내용을 추가하지 않으면 hive-site.xml이 CLASSPATH에 없다는 오류가 발생하며 meta정보를 rdb에 저장하려 설정했던 부분이 인식되지 않아서 derby db가 생기게 된다.


12. 확인

  가. console에서 hive치고 정상적으로 실행되면 성공

  나. hive cli를 종료후 derby.log와 metadata_db 폴더가 생겨있지 않으면 meta정보가 지정된 rdb에 정상적으로 연동되고 있다고 할수 있다.

번호 제목 글쓴이 날짜 조회 수
120 znode /hbase recursive하게 지우기 총관리자 2015.05.06 673
119 java.lang.IllegalArgumentException: Does not contain a valid host:port authority: master 오류해결방법 총관리자 2015.05.06 449
118 hadoop 2.6.0 기동(에코시스템 포함)및 wordcount 어플리케이션을 이용한 테스트 총관리자 2015.05.05 3769
117 oozie 4.1 설치 - maven을 이용한 source compile on hadoop 2.5.2 with postgresql 9.3 총관리자 2015.04.30 861
» hive 0.13.1 설치 + meta정보는 postgresql 9.3에 저장 총관리자 2015.04.30 227
115 HBase 0.98.12(1.2.5) for hadoop2 설치-5대에 완전분산모드 (HDFS HA상테) 총관리자 2015.04.29 1047
114 Hadoop - 클러스터 세팅및 기동 총관리자 2015.04.28 427
113 zookeeper 3.4.6 설치(3대) 총관리자 2015.04.28 1209
112 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable원인 총관리자 2015.04.27 322
111 bananapi 5대(ubuntu계열 리눅스)에 yarn(hadoop 2.6.0)설치하기-ResourceManager HA/HDFS HA포함, JobHistory포함 총관리자 2015.04.24 19143
110 scan의 startrow, stoprow지정하는 방법 총관리자 2015.04.08 375
109 SASL configuration failed: javax.security.auth.login.LoginException: java.lang.NullPointerException 오류 해결방법 총관리자 2015.04.02 701
108 kafka의 re-balance를 이용하여 consumer를 multi thread로 돌려서 topic의 partitions을 활용 총관리자 2015.03.31 248
107 Using The ZooKeeper CLI에서 zkCli의 위치 총관리자 2014.11.02 881
106 [번역] solr 검색 엔진 튜토리얼 총관리자 2014.10.07 441
105 solr vs elasticsearch 비교2 총관리자 2014.09.29 1276
104 solr설치및 적용관련 file 총관리자 2014.09.27 2124
103 solr에서 한글사용시 주의점 총관리자 2014.09.26 599
102 RHadoop을 통해서 웹사이트의 방문자수를 예측하는 방법 총관리자 2014.09.26 2007
101 로그 파일에 대해 Elasticsearch 사용하기 총관리자 2014.09.25 1121

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로