메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


1. tarball파일 다운로드

cd /usr/local

wget http://www.eu.apache.org/dist/hive/hive-0.13.1/apache-hive-0.13.1-bin.tar.gz 


2. 압축풀기

tar xvfz apache-hive-0.13.1-bin.tar.gz 


3. 링크생성

ln -s apache-hive-0.13.1-bin/ hive


4. 변수설정(/etc/profile)

export HIVE_HOME=/hadoop/hive

export PATH=$PATH:$HIVE_HOME/bin


5. HDFS에 hive용 folder생성및 mod수정

hadoop fs -mkdir /user/hive

hadoop fs -mkdir /user/hive/warehouse

hadoop fs -chmod g+w /user/hive/warehouse


6. conf파일 설정(conf폴더밑에 템플릿만 있으므로 아래와 같이 만들어줄것)

cp hive-env.sh.template hive-env.sh

cp hive-default.xml.template hive-site.xml

cp hive-exec-log4j.properties.template hive-exec-log4j.properties

cp hive-log4j.properties.template hive-log4j.properties



7. hadoop_env.sh에서 HADOOP_CLASSPATH 환경변수에 hive의 lib파일($HIVE_HOME/lib/* )을 등록

vi $HADOOP_HOME/conf/hadoop_env.sh

export HADOOP_CLASSPATH=/usr/local/hadoop/share/hadoop/mapreduce:/usr/local/hadoop/share/hadoop/mapreduce/lib:$HIVE_HOME/lib/*


* stop-yarn.sh 후 start-yarn.sh해서 반영시켜 줘야함


8. jdbc driver다운로드및 hive의 lib에 upload

https://jdbc.postgresql.org/download.html

(예. postgresql-9.3-1103.jdbc4.jar)


9. hive-site.xml수정

        <property>

            <name>javax.jdo.option.ConnectionURL</name>

            <value>jdbc:postgresql://db.com/dbname</value>

        </property>

        <property>

            <name>javax.jdo.option.ConnectionDriverName</name>

            <value>org.postgresql.Driver</value>

        </property>

       <property>

         <name>javax.jdo.option.ConnectionUserName</name>

         <value>db게정</value>

       </property>

       <property>

          <name>javax.jdo.option.ConnectionPassword</name>

          <value>패스워드</value>

       </property>


10. hive-env.sh수정

: 아래를 추가하여 hive가 hadoop의 jar파일을 사용할수 있도록 해준다.

#hadoop library classpath setting 

for f in ${HADOOP_HOME}/lib/*.jar; do

  CLASSPATH=${CLASSPATH}:$f;

done


for f in ${HIVE_HOME}/lib/*.jar; do

  CLASSPATH=${CLASSPATH}:$f;

done


11. hadoop-env.sh수정

: 맨끝에 아래의 내용을 추가한다.

export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:/usr/local/hadoop/share/hadoop/mapreduce:/usr/local/hadoop/share/hadoop/mapreduce/lib:$HIVE_HOME/lib:$HIVE_HOME/conf


* hadoop-env.sh에 위에 내용을 추가하지 않으면 hive-site.xml이 CLASSPATH에 없다는 오류가 발생하며 meta정보를 rdb에 저장하려 설정했던 부분이 인식되지 않아서 derby db가 생기게 된다.


12. 확인

  가. console에서 hive치고 정상적으로 실행되면 성공

  나. hive cli를 종료후 derby.log와 metadata_db 폴더가 생겨있지 않으면 meta정보가 지정된 rdb에 정상적으로 연동되고 있다고 할수 있다.

번호 제목 글쓴이 날짜 조회 수
401 우분투 16.04 설치후 APM (Apache2, PHP, MySQL) 설치 총관리자 2017.01.29 185
400 anaconda3(v5.4)를 이용하여 tensorflow설치후 ipython프로그램을 실행하여 import할때 오류발생시 조치 총관리자 2018.07.27 188
399 test333 총관리자 2017.05.01 189
398 MapReduce2.0(YARN)기반의 CDH5 설치시 생성되는 사용자및 권한 부여 총관리자 2018.05.30 190
397 모두를 위한 머신러닝과 딥러닝의 강의 file 총관리자 2016.09.27 192
396 sendmail + dovecot(pop3) + saslauthd 설치 총관리자 2017.06.11 192
395 beeline으로 접근시 "User: gooper is not allowed to impersonate anonymous (state=08S01,code=0)"가 발생하면서 "No current connection"이 발생하는 경우 조치 총관리자 2018.04.15 194
394 [shellscript] 함수에 배열을 인자로 주어서 처리하는 방법 총관리자 2019.07.16 194
393 Could not compute split, block input-0-1517397051800 not found형태의 오류가 발생시 조치방법 총관리자 2018.02.01 196
392 SCM서비스를 추가하는 동안 Unexpected error. Unable to verify database connection. 오류발생시 확인 사항 총관리자 2018.06.08 196
391 RHEL 7.4에 zeppelin 0.7.4 설치 총관리자 2018.07.31 196
390 git 초기화(Windows에서 Git Bash사용) 총관리자 2016.11.17 197
389 프로세스를 확인해서 프로세스를 삭제하는 shell script예제(cryptonight) 총관리자 2018.02.02 197
388 하둡기반 데이타 모델링(6편) 총관리자 2018.06.27 197
387 [shell script]test.txt에 space로 분리된 내용을 일어들이는 예제 총관리자 2017.02.21 198
386 [메모리 덤프파일 분석] 총관리자 2017.03.31 198
385 우분투 16.04LTS에 Zeppelin 0.7.3설치 총관리자 2018.04.18 198
384 spark 2.3.0을 설치하가 위해서 parcel에 다음 url을 입력한다. 총관리자 2018.07.15 198
383 spark 2.0.0의 api를 이용하는 예제 프로그램 총관리자 2017.03.15 199
382 pom.xml에서 build.gradle로 변환 총관리자 2015.09.14 201

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로