메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


http://stackoverflow.com/questions/19943766/hadoop-unable-to-load-native-hadoop-library-for-your-platform-error-on-centos


hadoop 2.5.2 소스컴파일하기


1. Hadoop 2.5.2 다운


2. JDK 설치 & 설정

-  http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html (v1.7 or v1.6 다운)

-  tar xvf (jdk파일이름.tar.gz)

-  mv (설치dri) /usr/local

-  chmod 755 (설치경로)

-  vi /etc/profile

-  export JAVA_HOME=/usr/local/jdk이름

-  export PATH=$PATH:$JAVA_HOME/bin

-  which java 또는 java –version 으로 체크

-  source /etc/profile

 

3. Hadoop 설치시 필요한 것

-  Development Tools: 필요한 패키지 존재

-  Additional Tools

-  maven : Hadoop은 maven으로 설치

-  cmake, libssl-dev : 하둡 설치 시 Common Lib 와 컴파일로 사용

-  ssh : 하둡에서 ssh설정에 필요

  

4. Maven 설치 & 설정


-  다운 : http:.//mirror-apache-kr.org/maven

-  tar xvf 메이븐파일.tar.gz

-  ln –s /메이븐경로 /경로/maven  (심볼릭 링크)

-  vi /etc/profile 열기

-  export M2_HOME=/usr/local/maven (( 이 경로에 설치했음 ))

-  export PATH=$PATH:$M2_HOME/bin

-  source /etc/profile

-  mvn –version (확인하기)

 

5. cmake 설치

-  yum install cmake (자동 설치)

 

6 . Development Tools & Additional Tools 설치

[root@master ~]# yum install gcc-c++

[root@master ~]# yum install zlib-devel

[root@master ~]# yum install libtool

[root@master ~]# yum install gzip

[root@master ~]# yum install patch

 

7. Proto buffer 설치

-  통신을 통해 데이터를 주고 받을 때 각종 데이터를 byte형태로 바꾸어준다. (Hadoop 컴파일시 2.5.0을 사용해야 하기 때문에 설치)

-  mk tools

-  cd tools

-  /tools#  wget http://protobuf.googlecode.com/files/protobuf-2.5.0.tar.gz

-  tar –zxvf protobuf-2.5.0.tar.gz

-  cd protobuf-2.5.0

-  ./configure

-  make

-  make install

 

8 . Hadoop Compile

-  소스 컴파일 용 tar 다운

-  /tools#  wget http://mirror-apache-kr.org/hadoop/common/hadoop-2.5.2/hadoop-2.5.2-src.tar.gz

-  tar xfz Hadoop-2.5.2-src.tar.gz


* 아래 패치는 2.2.0의 경우이며 2.5.2는 생략해야함..

(  -> Hadoop Auth 에러 패치용

   -  tools/Hadoop-2.5.2-src$  wget http://issues.apache.org/jira/secure/attachment/12614482/HADOOP-10110.patch 

   -  patch –p0 < HADOOP-10110.patch

)

-  > Hadoop Compile 작업

-  mvn package –Pdist,native –DskipTests –Dtar


* Hadoop Compile할때 방법으로 하면 test과정에서 오류가 발생할 수가 있으므로.. 

  [root@master hadoop-2.5.2-src]# mvn clean install -DskipTests

번호 제목 글쓴이 날짜 조회 수
67 [Hadoop Encryption] Encryption Zone에 생성된 table에 Hue에서 insert 수행시 User:hdfs not allowed to do 'DECRYPT_EEK' ON 'testkey' 오류 gooper 2023.11.01 12
66 hadoop에서 yarn jar ..를 이용하여 appliction을 실행하여 정상적으로 수행되었으나 yarn UI의 어플리케이션 목록에 나타나지 않는 문제 총관리자 2017.05.02 24
65 hadoop cluster구성된 노드를 확인시 Capacity를 보면 색이 붉은색으로 표시되어 있는 경우나 Unhealthy인 경우 처리방법 총관리자 2017.08.30 46
64 hadoop에서 yarn jar ..를 이용하여 appliction을 실행하여 정상적으로 수행되었으나 yarn UI의 어플리케이션 목록에 나타나지 않는 문제 총관리자 2017.05.02 51
63 hadoop 어플리케이션을 사용하는 사용자 변경시 바꿔줘야 하는 부분 총관리자 2016.09.23 68
62 Hadoop 2.7.x에서 사용할 수 있는 파일/디렉토리 관련 util성 클래스 파일 총관리자 2017.09.28 76
61 hadoop에서 yarn jar ..를 이용하여 appliction을 실행하여 정상적(?)으로 수행되었으나 yarn UI의 어플리케이션 목록에 나타나지 않는 문제 총관리자 2017.05.02 77
60 A Cluster의 HDFS 디렉토리및 파일을 사용자및 권한 유지 하여 다운 받아서 B Cluster에 넣기 총관리자 2020.05.06 79
59 [2.7.2] distribute-exclude.sh사용할때 ssh 포트변경에 따른 오류발생시 조치사항 총관리자 2018.01.02 89
58 HA(Namenode, ResourceManager, Kerberos) 및 보안(Zookeeper, Hadoop) 총관리자 2018.03.16 93
57 hadoop에서 yarn jar ..를 이용하여 appliction을 실행하여 정상적으로 수행되었으나 yarn UI의 어플리케이션 목록에 나타나지 않는 문제 총관리자 2017.05.02 117
56 ./hadoop-daemon.sh start namenode로 namenode기동시 EditLog의 custerId, namespaceId가 달라서 발생하는 오류 해결방법 총관리자 2016.09.24 119
55 hadoop nfs gateway설정 (Cloudera 6.3.4, CentOS 7.4 환경에서) 총관리자 2022.01.07 132
54 서버중 slave,worker,regionserver만 재기동해야 할때 필요한 기동스크립트및 사용방법 총관리자 2017.02.03 143
53 format된 namenode를 다른 서버에서 다시 format했을때 오류내용 총관리자 2016.09.22 155
52 missing block및 관련 파일명 찾는 명령어 총관리자 2021.02.20 160
51 Mountable HDFS on CentOS 6.x(hadoop 2.7.2의 nfs기능을 이용) 총관리자 2016.11.24 179
50 Hadoop 완벽 가이드 정리된 링크 총관리자 2016.04.19 205
49 Error: java.lang.RuntimeException: java.lang.OutOfMemoryError 오류가 발생하는 경우 총관리자 2018.09.20 215
48 AIX 7.1에 Hadoop설치(정리중#2) 총관리자 2016.09.20 215

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로