메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


http://stackoverflow.com/questions/19943766/hadoop-unable-to-load-native-hadoop-library-for-your-platform-error-on-centos


hadoop 2.5.2 소스컴파일하기


1. Hadoop 2.5.2 다운


2. JDK 설치 & 설정

-  http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html (v1.7 or v1.6 다운)

-  tar xvf (jdk파일이름.tar.gz)

-  mv (설치dri) /usr/local

-  chmod 755 (설치경로)

-  vi /etc/profile

-  export JAVA_HOME=/usr/local/jdk이름

-  export PATH=$PATH:$JAVA_HOME/bin

-  which java 또는 java –version 으로 체크

-  source /etc/profile

 

3. Hadoop 설치시 필요한 것

-  Development Tools: 필요한 패키지 존재

-  Additional Tools

-  maven : Hadoop은 maven으로 설치

-  cmake, libssl-dev : 하둡 설치 시 Common Lib 와 컴파일로 사용

-  ssh : 하둡에서 ssh설정에 필요

  

4. Maven 설치 & 설정


-  다운 : http:.//mirror-apache-kr.org/maven

-  tar xvf 메이븐파일.tar.gz

-  ln –s /메이븐경로 /경로/maven  (심볼릭 링크)

-  vi /etc/profile 열기

-  export M2_HOME=/usr/local/maven (( 이 경로에 설치했음 ))

-  export PATH=$PATH:$M2_HOME/bin

-  source /etc/profile

-  mvn –version (확인하기)

 

5. cmake 설치

-  yum install cmake (자동 설치)

 

6 . Development Tools & Additional Tools 설치

[root@master ~]# yum install gcc-c++

[root@master ~]# yum install zlib-devel

[root@master ~]# yum install libtool

[root@master ~]# yum install gzip

[root@master ~]# yum install patch

 

7. Proto buffer 설치

-  통신을 통해 데이터를 주고 받을 때 각종 데이터를 byte형태로 바꾸어준다. (Hadoop 컴파일시 2.5.0을 사용해야 하기 때문에 설치)

-  mk tools

-  cd tools

-  /tools#  wget http://protobuf.googlecode.com/files/protobuf-2.5.0.tar.gz

-  tar –zxvf protobuf-2.5.0.tar.gz

-  cd protobuf-2.5.0

-  ./configure

-  make

-  make install

 

8 . Hadoop Compile

-  소스 컴파일 용 tar 다운

-  /tools#  wget http://mirror-apache-kr.org/hadoop/common/hadoop-2.5.2/hadoop-2.5.2-src.tar.gz

-  tar xfz Hadoop-2.5.2-src.tar.gz


* 아래 패치는 2.2.0의 경우이며 2.5.2는 생략해야함..

(  -> Hadoop Auth 에러 패치용

   -  tools/Hadoop-2.5.2-src$  wget http://issues.apache.org/jira/secure/attachment/12614482/HADOOP-10110.patch 

   -  patch –p0 < HADOOP-10110.patch

)

-  > Hadoop Compile 작업

-  mvn package –Pdist,native –DskipTests –Dtar


* Hadoop Compile할때 방법으로 하면 test과정에서 오류가 발생할 수가 있으므로.. 

  [root@master hadoop-2.5.2-src]# mvn clean install -DskipTests

번호 제목 글쓴이 날짜 조회 수
181 ubuntu 커널 업그레이드 방법 총관리자 2018.09.02 1416
180 ntp시간 맞추기 총관리자 2018.09.12 249
179 cloudera(python 2.7.5)에서 anaconda3로 설치한 외부 python(3.6.6)을 이용하여 pyspark를 사용하는 설정 총관리자 2018.09.14 1087
178 impala,hive및 hdfs만 접근가능하고 파일을 이용한 테이블생성가능하도록 hue 권한설정설정 총관리자 2018.09.17 356
177 physical memory used되면서 mapper가 kill되는 경우 오류 발생시 조치 총관리자 2018.09.20 1522
176 Error: java.lang.RuntimeException: java.lang.OutOfMemoryError 오류가 발생하는 경우 총관리자 2018.09.20 215
175 hive metastore ERD file 총관리자 2018.09.20 731
174 [sentry]role부여후 테이블명이 변경되어 오류가 발생할때 조치방법 총관리자 2018.10.16 215
173 kafka에서 메세지 중복 consume이 발생할 수 있는 상황 총관리자 2018.10.23 260
172 [Oozie]Disk I/O error: Failed to open HDFS file dhfs://..../tb_aaa/....OPYING 총관리자 2019.02.15 312
171 TransmitData() to failed: Network error: Recv() got EOF from remote (error 108) 오류 현상 총관리자 2019.02.15 358
170 json으로 존재하는 데이터 parsing하기 총관리자 2019.03.25 974
169 Could not configure server becase SASL configuration did not allow the Zookeeper server to authenticate itself properly: javax.security.auth.login.LoginException: Checksum failed 총관리자 2019.05.18 434
168 하둡 클러스터 전체 노드를 다시 기동하면 invalidate metadata를 수행해야 데이터가 틀어지지 않는다. 총관리자 2019.05.20 114
167 hive테이블의 물리적인 위치인 HDFS에 여러개의 데이터 파일이 존재할때 한개의 파일로 merge하여 동일한 테이블에 입력하는 방법 총관리자 2019.05.23 640
166 kerberos설정된 상태의 spooldir->memory->hdfs로 저장하는 과정의 flume agent configuration구성 예시 총관리자 2019.05.30 171
165 source, sink를 직접 구현하여 사용하는 예시 총관리자 2019.05.30 398
164 jdk 9이상 사용하려면 repository를 아래와 같이 지정해야한다. 총관리자 2019.06.02 71
163 ubuntu에 maven 3.6.1설치 및 환경변수 설정 총관리자 2019.06.02 856
162 scala-eclipse 다운로드 총관리자 2019.06.09 174

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로