메뉴 건너뛰기

Cloudera, BigData, Semantic IoT, Hadoop, NoSQL

Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.


hbase HBase shell로 작업하기

구퍼 2013.03.15 17:54 조회 수 : 7315

실행중인 HBase에는 쉘을 통해 접속할 수 있다.

$ ./bin/hbase shell
HBase Shell; enter 'help<RETURN>' for list of supported commands.
Type "exit<RETURN>" to leave the HBase Shell
Version: 0.90.0, r1001068, Fri Sep 24 13:55:42 PDT 2010

hbase(main):001:0>

help라고 입력한 뒤, 엔터 키를 누르면 쉘 명령어 목록과 옵션을 확인할 수 있다. 도움말 맨 마지막 문단을 보면, HBase에서 변수나 명령어 인자를 어떻게 입력해야 하는지 확인할 수 있다. 특히 테이블 이름, 행, 컬럼 등을 인용부호로 감싸고 있다는 점을 유심히 봐야 한다.

test라는 이름으로 테이블을 생성해보자. 컬럼 패밀리는 cf라는 이름을 주고, 하나의 컬럼 패밀리만을 만들자. 테이블의 내요을 조회한 후, 몇 가지 값을 입력하면 테이블이 제대로 생성되었는지 확인해 볼 수 있다.

hbase(main):003:0> create 'test', 'cf'
0 row(s) in 1.2200 seconds
hbase(main):003:0> list 'test'
..
1 row(s) in 0.0550 seconds
hbase(main):004:0> put 'test', 'row1', 'cf:a', 'value1'
0 row(s) in 0.0560 seconds
hbase(main):005:0> put 'test', 'row2', 'cf:b', 'value2'
0 row(s) in 0.0370 seconds
hbase(main):006:0> put 'test', 'row3', 'cf:c', 'value3'
0 row(s) in 0.0450 seconds

이 예제에서 값 3개를 차례대로 추가했다. 처음에는 row1의 컬럼 cf:a에, 값으로는 value1을 입력했다. HBase에서 컬럼은 컬럼 패밀리를 가리키는 접두사(이 예제에서는 cf)와, 콜론, 그리고 컬럼 이름에 대한 접미사(이 경우에는 a)로 구성된다.

이제 데이터가 제대로 입력되었는지 확인해 보자.

아래와 같이, 테이블에 대해 scan 명령어를 실행하자.

hbase(main):007:0> scan 'test'
ROW COLUMN+CELL
row1 column=cf:a, timestamp=1288380727188, value=value1
row2 column=cf:b, timestamp=1288380738440, value=value2
row3 column=cf:c, timestamp=1288380747365, value=value3
3 row(s) in 0.0590 seconds

아래와 같이 한 행을 조회해보자.

hbase(main):008:0> get 'test', 'row1'
COLUMN CELL
cf:a timestamp=1288380727188, value=value1
1 row(s) in 0.0400 seconds

이제 테이블을 비활성화한 후, 테이블을 삭제하자. 이렇게 하면 앞에서 한 작업들이 모두 초기화된다.

hbase(main):012:0> disable 'test'
0 row(s) in 1.0930 seconds
hbase(main):013:0> drop 'test'
0 row(s) in 0.0770 seconds

번호 제목 날짜 조회 수
70 hadoop및 ecosystem에서 사용되는 명령문 정리 2014.05.28 5127
69 hive job실행시 meta정보를 원격의 mysql에 저장하는 경우 설정방법 2014.05.28 3842
68 oozie의 meta정보를 mysql에서 관리하기 2014.05.26 2973
67 hive query에서 mapreduce돌리지 않고 select하는 방법 2014.05.23 2968
66 hiverserver2기동시 connection refused가 발생하는 경우 조치방법 2014.05.22 3326
65 import 혹은 export할때 hive파일의 default 구분자는 --input-fields-terminated-by "x01"와 같이 지정해야함 2014.05.20 5456
64 hive에서 insert overwrite directory.. 로 하면 default column구분자는 'SOH'혹은 't'가 됨 2014.05.20 2199
63 source의 type을 spooldir로 하는 경우 해당 경로에 파일이 들어오면 파일단위로 전송함 2014.05.20 3078
62 특정파일이 생성되어야 action이 실행되는 oozie job만들기(coordinator.xml) 2014.05.20 3521
61 dual table만들기 2014.05.16 2815
60 sqoop에서 oracle관련 작업할때 테이블명, 사용자명, DB명은 모두 대문자로 사용할것 2014.05.15 2672
59 sqoop export/import등을 할때 driver를 못찾는 오류가 발생하면... 2014.05.15 3159
58 oozie가 말하는 start시간은..서버에서 확인되는 시간이 아닙니다. 2014.05.14 3198
57 우분투 16.04 LTS에 apache2와 tomcat7 연동하여 설치하기 2014.05.09 3040
56 ping 안될때.. networking restart 날려주면 잘됨.. 2014.05.09 4132
55 insert hbase by hive ... error occured after 5 hours..HMaster가 뜨지 않는 장애에 대한 복구 방법 2014.04.29 8253
54 빅데이터 분석을 위한 샘플 빅데이터 파일 다운로드 사이트 2014.04.28 4197
53 index생성, 삭제, 활용 2014.04.25 2874
52 hbase shell에서 컬럼값 검색하기(SingleColumnValueFilter이용) 2014.04.25 3699
51 unique한 값 생성 2014.04.25 3080
위로