메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


0. A Cluster에 hadoop 으로 로그인

1. mkdir /home/hadoop/BACKUP

2. cd /home/hadoop/BACKUP

3. sudo kinit -kt /var/lib/keytab/hdfs.keytab hdfs

4. HDFS SOURCE밑의 모든 파일 권한/사용자등을 유지하고 로컬에 다운로드

  sudo hdfs dfs -copyToLocal -p /SOURCE .

5. 압축하기

  sudo tar cvfz SOURCE_20200506.tar.gz SOURCE

6. SOURCE_20200506.tar.gz 파일을 로컬 컴퓨터에 다운로드


7. B Cluster에 hadoop으로 로그인하여 SOURCE_20200506.tar.gz upload하기 

8. 압축풀기 

  sudo tar xvfz SOURCE_20200506.tar.gz

9. B Cluster에 upload (HDFS의 /SOURCE로 올라감)

  - kinit -kt /var/lib/keytab/hdfs.keytab hdfs

  - hdfs dfs -copyFromLocal -p SOURCE /

    (HDFS상에 동일한 파일이 있으때 덮어 쓸러면.. -f 옵션을 준다.)

* B Cluster에는 소유자로 지정된 모든 사용자가 존재하고 있어야 사용자가 적절하게 매핑되어 생성되며 그렇지 않으면 숫자가 매핑됨

번호 제목 글쓴이 날짜 조회 수
420 Hive java connection 설정 file 구퍼 2013.04.01 2013
419 hbase에 필요한 jar들 구퍼 2013.04.01 2101
418 hadoop설치시 오류 총관리자 2013.12.18 2313
417 Hive Query Examples from test code (1 of 2) 총관리자 2014.03.26 1050
416 Hive Query Examples from test code (2 of 2) 총관리자 2014.03.26 5031
415 의사분산모드에서 presto설치하기 총관리자 2014.03.31 3050
414 동일서버에서 LA와 LC동시에 기동하여 테스트 총관리자 2014.04.01 928
413 external partition table생성및 data확인 총관리자 2014.04.03 1072
412 다수의 로그 에이전트로 부터 로그를 받아 각각의 파일로 저장하는 방법(interceptor및 multiplexing) 총관리자 2014.04.04 4089
411 Oozie 설치, 환경설정 및 테스트 총관리자 2014.04.08 1293
410 hive에서 생성된 external table에서 hbase의 table에 값 insert하기 총관리자 2014.04.11 1750
409 column family삭제시 Column family 'delete' does not exist오류 발생하는 경우 총관리자 2014.04.14 932
408 json 값 다루기 총관리자 2014.04.17 1222
407 json serde사용법 총관리자 2014.04.17 1140
406 oozie에서 share lib설정시 action type별로 구분하여 넣을것 총관리자 2014.04.18 1195
405 sqoop 1.4.4 설치및 테스트 총관리자 2014.04.21 3134
404 sequence한 번호 생성방법 총관리자 2014.04.25 1123
403 unique한 값 생성 총관리자 2014.04.25 888
402 hbase shell에서 컬럼값 검색하기(SingleColumnValueFilter이용) 총관리자 2014.04.25 2448
401 index생성, 삭제, 활용 총관리자 2014.04.25 1702

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로