메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


Hadoop AIX 7.1에 Hadoop설치(정리중)

총관리자 2016.09.12 13:32 조회 수 : 236

--os정보확인

-oslevel


-- bit확인

http://solarixer.blogspot.kr/2007/11/unixlinux-os-3264bit.html


----java다운로드/설치

http://m.blog.naver.com/dae0park/140194653364

혹은 

http://likebnb.tistory.com/99


C:UsersgooperDownloadDirector에 다운로드 된다.


---AIX에서 사용가능한 명령어

http://oracle.tistory.com/108


- AIX(ksh)에서 파일명 자동완성(리눅스에서 일부만 입력후 tab키 누르는 것과 같은 효과)

[ESC] + [=] 실행가능 list up

[ESC] + [] 파일명 자동완성


----ksh 사용법

http://madhaks.blogspot.kr/2004/12/ksh-100.html


------.profile파일에 java경로 지정

PATH=/usr/bin:/etc:/usr/sbin:/usr/ucb:$HOME/bin:/usr/bin/X11:/sbin:.:/usr/java7_64/bin


# .profile변경사항 반영

$ . .profile



-------------AIX에서 hadoop방법및 참고사항

http://www.programering.com/a/MzMwQDMwATU.html


-----------AIX에 Flume설치시오류 해결 내용

http://developordie.tistory.com/entry/%EB%A1%9C%EA%B7%B8-%EC%88%98%EC%A7%91%EA%B8%B0-flume-hadoop-%EB%A7%8C%EB%93%A4%EA%B8%B0-3-Flume-%EC%84%A4%EC%B9%98-%EB%B0%8F-%EB%A1%9C%EA%B7%B8-%EC%A0%84%EB%8B%AC



----------설치 참고

기타1.  
 - java6은 sdk와 jre가 같이 합쳐있어 하나의 파일만 설치하면 되지만 7의 경우 jre와 jdk가 분리되어 있다. 
 - 7의 경우 jre를 설치 후 sdk를 설치해야 한다.(의존성에 체크됨) 

기타2. 
 - 자바7의 경우 AIX6.1이상부터 설치가 가능한 듯 하다.



-----------------AIX에서 설치해서 사용할 수 있는 GNU/Linux 프로그램 목록

http://www-03.ibm.com/systems/power/software/aix/linux/toolbox/alpha.html



----AIX설치시 참고

http://developordie.tistory.com/category/IT%20story


----참고------------------------

unix/linux의 OS 32/64bit 확인 방법


HP UX


11.xx 일 경우

# getconf KERNEL_BITS 

64


10.xx 일 경우

# getconf LONG_MAX 

2147483647

(64비트임)로 확인할 수 있습니다 


AIX


현재 load된 kernel 이 32-bit 혹은 64-bit 인지 확인하는 명령어

# bootinfo -K 

32


사용중인 machine이 32-bit 혹은 64-bit 인지 확인하는 명령어

# bootinfo -y 

32 



SOLARIS


# isainfo -kv

64-bit sparcv9 kernel modules 

현재 이 시스템은 64bit 커널을 가지고 운영을 하는 시스템 이다. 


# isainfo -kv 

32-bit sparcv kernel modules 

이 시스템은 32bit 커널을 가지고 운영을 하는 시스템이다. 


# isainfo -v 

64-bit sparcv9 applications 32-bit sparc applications 

"-v"만 했을 경우 이 시스템에서는 32bit / 64bit 체계의 프로그램을 사용할 수 있다. 


# isainfo -v 

32-bit sparc applications 

이 시스템은 32bit 체계의 프로그램만 구성하여 사용할 수 있다.

번호 제목 글쓴이 날짜 조회 수
399 Mysql DB 생성 및 권한. 특정아이피, 대역에 대한 접근 허용 총관리자 2017.05.04 60
398 Hive MetaStore Server기동시 Could not create "increment"/"table" value-generation container SEQUENCE_TABLE since autoCreate flags do not allow it. 오류발생시 조치사항 총관리자 2017.05.03 345
397 Ubuntu 16.04 LTS에 Hive 2.1.1설치하면서 "Version information not found in metastore"발생하는 오류원인및 조치사항 총관리자 2017.05.03 469
396 우분투에서 패키지 설치시 E: Sub-process /usr/bin/dpkg returned an error code 발생시 조치 총관리자 2017.05.02 251
395 hadoop에서 yarn jar ..를 이용하여 appliction을 실행하여 정상적(?)으로 수행되었으나 yarn UI의 어플리케이션 목록에 나타나지 않는 문제 총관리자 2017.05.02 77
394 hadoop에서 yarn jar ..를 이용하여 appliction을 실행하여 정상적으로 수행되었으나 yarn UI의 어플리케이션 목록에 나타나지 않는 문제 총관리자 2017.05.02 117
393 hadoop에서 yarn jar ..를 이용하여 appliction을 실행하여 정상적으로 수행되었으나 yarn UI의 어플리케이션 목록에 나타나지 않는 문제 총관리자 2017.05.02 51
392 hadoop에서 yarn jar ..를 이용하여 appliction을 실행하여 정상적으로 수행되었으나 yarn UI의 어플리케이션 목록에 나타나지 않는 문제 총관리자 2017.05.02 24
391 Cleaning up the staging area file시 'cannot access' 혹은 'Directory is not writable' 발생시 조치사항 총관리자 2017.05.02 333
390 test333444 총관리자 2017.05.01 113
389 test333 총관리자 2017.05.01 189
388 test2 총관리자 2017.05.01 153
387 Ubuntu 16.04 LTS에 MariaDB 10.1설치 및 포트변경 및 원격접속 허용 총관리자 2017.05.01 1074
386 Ubuntu 16.04 LTS에 4대에 Hadoop 2.8.0설치 총관리자 2017.05.01 520
385 fuseki webUI를 통해서 전체 카운트를 하면 급격하게 메모리를 소모해 버리는 문제가 있음 file 총관리자 2017.04.28 162
384 Kafka의 API중 Consumer.createJavaConsumerConnector()를 이용하고 다수의 thread를 생성하여 Kafka broker의 topic에 접근하여 데이타를 가져오고 처리하는 예제 소스 총관리자 2017.04.26 226
383 Spark에서 KafkaUtils.createStream()를 이용하여 이용하여 kafka topic에 접근하여 객채로 저장된 값을 가져오고 처리하는 예제 소스 총관리자 2017.04.26 292
382 Hbase API를 이용하여 scan시 페이징을 고려하여 목록을 가져올때 사용할 수 있는 로직의 예시를 보여줌 총관리자 2017.04.26 239
381 linux에서 특정 포트를 사용하는 프로세스 확인하기 총관리자 2017.04.26 346
380 Spark에서 Serializable관련 오류및 조치사항 총관리자 2017.04.21 4901

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로