메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


Hadoop AIX 7.1에 Hadoop설치(정리중)

총관리자 2016.09.12 13:32 조회 수 : 236

--os정보확인

-oslevel


-- bit확인

http://solarixer.blogspot.kr/2007/11/unixlinux-os-3264bit.html


----java다운로드/설치

http://m.blog.naver.com/dae0park/140194653364

혹은 

http://likebnb.tistory.com/99


C:UsersgooperDownloadDirector에 다운로드 된다.


---AIX에서 사용가능한 명령어

http://oracle.tistory.com/108


- AIX(ksh)에서 파일명 자동완성(리눅스에서 일부만 입력후 tab키 누르는 것과 같은 효과)

[ESC] + [=] 실행가능 list up

[ESC] + [] 파일명 자동완성


----ksh 사용법

http://madhaks.blogspot.kr/2004/12/ksh-100.html


------.profile파일에 java경로 지정

PATH=/usr/bin:/etc:/usr/sbin:/usr/ucb:$HOME/bin:/usr/bin/X11:/sbin:.:/usr/java7_64/bin


# .profile변경사항 반영

$ . .profile



-------------AIX에서 hadoop방법및 참고사항

http://www.programering.com/a/MzMwQDMwATU.html


-----------AIX에 Flume설치시오류 해결 내용

http://developordie.tistory.com/entry/%EB%A1%9C%EA%B7%B8-%EC%88%98%EC%A7%91%EA%B8%B0-flume-hadoop-%EB%A7%8C%EB%93%A4%EA%B8%B0-3-Flume-%EC%84%A4%EC%B9%98-%EB%B0%8F-%EB%A1%9C%EA%B7%B8-%EC%A0%84%EB%8B%AC



----------설치 참고

기타1.  
 - java6은 sdk와 jre가 같이 합쳐있어 하나의 파일만 설치하면 되지만 7의 경우 jre와 jdk가 분리되어 있다. 
 - 7의 경우 jre를 설치 후 sdk를 설치해야 한다.(의존성에 체크됨) 

기타2. 
 - 자바7의 경우 AIX6.1이상부터 설치가 가능한 듯 하다.



-----------------AIX에서 설치해서 사용할 수 있는 GNU/Linux 프로그램 목록

http://www-03.ibm.com/systems/power/software/aix/linux/toolbox/alpha.html



----AIX설치시 참고

http://developordie.tistory.com/category/IT%20story


----참고------------------------

unix/linux의 OS 32/64bit 확인 방법


HP UX


11.xx 일 경우

# getconf KERNEL_BITS 

64


10.xx 일 경우

# getconf LONG_MAX 

2147483647

(64비트임)로 확인할 수 있습니다 


AIX


현재 load된 kernel 이 32-bit 혹은 64-bit 인지 확인하는 명령어

# bootinfo -K 

32


사용중인 machine이 32-bit 혹은 64-bit 인지 확인하는 명령어

# bootinfo -y 

32 



SOLARIS


# isainfo -kv

64-bit sparcv9 kernel modules 

현재 이 시스템은 64bit 커널을 가지고 운영을 하는 시스템 이다. 


# isainfo -kv 

32-bit sparcv kernel modules 

이 시스템은 32bit 커널을 가지고 운영을 하는 시스템이다. 


# isainfo -v 

64-bit sparcv9 applications 32-bit sparc applications 

"-v"만 했을 경우 이 시스템에서는 32bit / 64bit 체계의 프로그램을 사용할 수 있다. 


# isainfo -v 

32-bit sparc applications 

이 시스템은 32bit 체계의 프로그램만 구성하여 사용할 수 있다.

번호 제목 글쓴이 날짜 조회 수
27 기준일자 이전의 hdfs 데이타를 지우는 shellscript 샘플 총관리자 2019.06.14 359
26 Cleaning up the staging area file시 'cannot access' 혹은 'Directory is not writable' 발생시 조치사항 총관리자 2017.05.02 333
25 Container killed by the ApplicationMaster. Container killed on request. Exit code is 143 Container exited with a non-zero exit code 143 TaskAttempt killed because it ran on unusable node 오류시 조치방법 총관리자 2017.04.06 324
24 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable원인 총관리자 2015.04.27 322
23 editLog의 문제로 발생하는 journalnode 기동 오류 발생시 조치사항 총관리자 2017.09.14 313
» AIX 7.1에 Hadoop설치(정리중) 총관리자 2016.09.12 236
21 Windows7 64bit 환경에서 Apache Hadoop 2.7.1설치하기 총관리자 2017.07.26 235
20 Error: java.lang.RuntimeException: java.lang.OutOfMemoryError 오류가 발생하는 경우 총관리자 2018.09.20 215
19 AIX 7.1에 Hadoop설치(정리중#2) 총관리자 2016.09.20 215
18 Hadoop 완벽 가이드 정리된 링크 총관리자 2016.04.19 205
17 Mountable HDFS on CentOS 6.x(hadoop 2.7.2의 nfs기능을 이용) 총관리자 2016.11.24 174
16 missing block및 관련 파일명 찾는 명령어 총관리자 2021.02.20 160
15 format된 namenode를 다른 서버에서 다시 format했을때 오류내용 총관리자 2016.09.22 155
14 서버중 slave,worker,regionserver만 재기동해야 할때 필요한 기동스크립트및 사용방법 총관리자 2017.02.03 143
13 hadoop nfs gateway설정 (Cloudera 6.3.4, CentOS 7.4 환경에서) 총관리자 2022.01.07 128
12 ./hadoop-daemon.sh start namenode로 namenode기동시 EditLog의 custerId, namespaceId가 달라서 발생하는 오류 해결방법 총관리자 2016.09.24 119
11 hadoop에서 yarn jar ..를 이용하여 appliction을 실행하여 정상적으로 수행되었으나 yarn UI의 어플리케이션 목록에 나타나지 않는 문제 총관리자 2017.05.02 117
10 HA(Namenode, ResourceManager, Kerberos) 및 보안(Zookeeper, Hadoop) 총관리자 2018.03.16 93
9 [2.7.2] distribute-exclude.sh사용할때 ssh 포트변경에 따른 오류발생시 조치사항 총관리자 2018.01.02 89
8 hadoop에서 yarn jar ..를 이용하여 appliction을 실행하여 정상적(?)으로 수행되었으나 yarn UI의 어플리케이션 목록에 나타나지 않는 문제 총관리자 2017.05.02 77

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로