메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


Hadoop AIX 7.1에 Hadoop설치(정리중)

총관리자 2016.09.12 13:32 조회 수 : 236

--os정보확인

-oslevel


-- bit확인

http://solarixer.blogspot.kr/2007/11/unixlinux-os-3264bit.html


----java다운로드/설치

http://m.blog.naver.com/dae0park/140194653364

혹은 

http://likebnb.tistory.com/99


C:UsersgooperDownloadDirector에 다운로드 된다.


---AIX에서 사용가능한 명령어

http://oracle.tistory.com/108


- AIX(ksh)에서 파일명 자동완성(리눅스에서 일부만 입력후 tab키 누르는 것과 같은 효과)

[ESC] + [=] 실행가능 list up

[ESC] + [] 파일명 자동완성


----ksh 사용법

http://madhaks.blogspot.kr/2004/12/ksh-100.html


------.profile파일에 java경로 지정

PATH=/usr/bin:/etc:/usr/sbin:/usr/ucb:$HOME/bin:/usr/bin/X11:/sbin:.:/usr/java7_64/bin


# .profile변경사항 반영

$ . .profile



-------------AIX에서 hadoop방법및 참고사항

http://www.programering.com/a/MzMwQDMwATU.html


-----------AIX에 Flume설치시오류 해결 내용

http://developordie.tistory.com/entry/%EB%A1%9C%EA%B7%B8-%EC%88%98%EC%A7%91%EA%B8%B0-flume-hadoop-%EB%A7%8C%EB%93%A4%EA%B8%B0-3-Flume-%EC%84%A4%EC%B9%98-%EB%B0%8F-%EB%A1%9C%EA%B7%B8-%EC%A0%84%EB%8B%AC



----------설치 참고

기타1.  
 - java6은 sdk와 jre가 같이 합쳐있어 하나의 파일만 설치하면 되지만 7의 경우 jre와 jdk가 분리되어 있다. 
 - 7의 경우 jre를 설치 후 sdk를 설치해야 한다.(의존성에 체크됨) 

기타2. 
 - 자바7의 경우 AIX6.1이상부터 설치가 가능한 듯 하다.



-----------------AIX에서 설치해서 사용할 수 있는 GNU/Linux 프로그램 목록

http://www-03.ibm.com/systems/power/software/aix/linux/toolbox/alpha.html



----AIX설치시 참고

http://developordie.tistory.com/category/IT%20story


----참고------------------------

unix/linux의 OS 32/64bit 확인 방법


HP UX


11.xx 일 경우

# getconf KERNEL_BITS 

64


10.xx 일 경우

# getconf LONG_MAX 

2147483647

(64비트임)로 확인할 수 있습니다 


AIX


현재 load된 kernel 이 32-bit 혹은 64-bit 인지 확인하는 명령어

# bootinfo -K 

32


사용중인 machine이 32-bit 혹은 64-bit 인지 확인하는 명령어

# bootinfo -y 

32 



SOLARIS


# isainfo -kv

64-bit sparcv9 kernel modules 

현재 이 시스템은 64bit 커널을 가지고 운영을 하는 시스템 이다. 


# isainfo -kv 

32-bit sparcv kernel modules 

이 시스템은 32bit 커널을 가지고 운영을 하는 시스템이다. 


# isainfo -v 

64-bit sparcv9 applications 32-bit sparc applications 

"-v"만 했을 경우 이 시스템에서는 32bit / 64bit 체계의 프로그램을 사용할 수 있다. 


# isainfo -v 

32-bit sparc applications 

이 시스템은 32bit 체계의 프로그램만 구성하여 사용할 수 있다.

번호 제목 글쓴이 날짜 조회 수
47 hadoop에서 yarn jar ..를 이용하여 appliction을 실행하여 정상적(?)으로 수행되었으나 yarn UI의 어플리케이션 목록에 나타나지 않는 문제 총관리자 2017.05.02 77
46 hadoop에서 yarn jar ..를 이용하여 appliction을 실행하여 정상적으로 수행되었으나 yarn UI의 어플리케이션 목록에 나타나지 않는 문제 총관리자 2017.05.02 117
45 hadoop에서 yarn jar ..를 이용하여 appliction을 실행하여 정상적으로 수행되었으나 yarn UI의 어플리케이션 목록에 나타나지 않는 문제 총관리자 2017.05.02 51
44 hadoop에서 yarn jar ..를 이용하여 appliction을 실행하여 정상적으로 수행되었으나 yarn UI의 어플리케이션 목록에 나타나지 않는 문제 총관리자 2017.05.02 24
43 Cleaning up the staging area file시 'cannot access' 혹은 'Directory is not writable' 발생시 조치사항 총관리자 2017.05.02 332
42 Ubuntu 16.04 LTS에 4대에 Hadoop 2.8.0설치 총관리자 2017.05.01 520
41 Container killed by the ApplicationMaster. Container killed on request. Exit code is 143 Container exited with a non-zero exit code 143 TaskAttempt killed because it ran on unusable node 오류시 조치방법 총관리자 2017.04.06 324
40 서버중 slave,worker,regionserver만 재기동해야 할때 필요한 기동스크립트및 사용방법 총관리자 2017.02.03 143
39 HDFS상의 /tmp폴더에 Permission denied오류가 발생시 조치사항 총관리자 2017.01.25 358
38 Mountable HDFS on CentOS 6.x(hadoop 2.7.2의 nfs기능을 이용) 총관리자 2016.11.24 173
37 ./hadoop-daemon.sh start namenode로 namenode기동시 EditLog의 custerId, namespaceId가 달라서 발생하는 오류 해결방법 총관리자 2016.09.24 118
36 hadoop 어플리케이션을 사용하는 사용자 변경시 바꿔줘야 하는 부분 총관리자 2016.09.23 68
35 format된 namenode를 다른 서버에서 다시 format했을때 오류내용 총관리자 2016.09.22 155
34 AIX 7.1에 Hadoop설치(정리중#2) 총관리자 2016.09.20 214
» AIX 7.1에 Hadoop설치(정리중) 총관리자 2016.09.12 236
32 hadoop클러스터를 구성하던 서버중 HA를 담당하는 서버의 hostname등이 변경되어 문제가 발생했을때 조치사항 총관리자 2016.07.29 362
31 Journal Storage Directory /data/hadoop/journal/data/mycluster not formatted 오류시 조치사항 총관리자 2016.07.29 1518
30 Job이 끝난 log을 볼수 있도록 설정하기 총관리자 2016.05.30 403
29 Hadoop 완벽 가이드 정리된 링크 총관리자 2016.04.19 205
28 Incompatible clusterIDs오류 원인및 해결방법 총관리자 2016.04.01 481

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로