Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다.
문의사항은 gooper@gooper.com로 메일을
보내주세요.
create문장으로 kudu table을 변경후 alter table로 table명을 변경하면 impala metastore에 저장된 테이블 명만 변경되고 hive.table_params에 된 kudu정보중 param_key='kudu.table_name'으로 param_value컬럼에 저장된 값은 바뀌지 않는다.
이 값을 변경하기 위해서는 먼저 kudu table 명을 변경후에 hive.table_params테이블의 kudu table 정보를 update해 주어야 한다.
예를 들어 test_db.table_table_tmp을 create한 후 test_db.table_table로 변경하는 방법은 다음과 같다.
1. kudu table rename
sudo -u kudu kinit -kt /var/lib/keytab/kudu.keytab kudu
sudo -u kudu kudu table rename_table master1.gooper.com:7051,master2.gooper.com:7051,master3.gooper.com:7051 impala::test_db.table_table_tmp impala::test_db.table_table
2. hive metastore정보 변경
update hive.table_params set param_value='impala::test_db.table_table' where param_key='kudu.table_name' and param_value like 'impala::test_db.table_table_tmp';
3. invalidate metadata문을 수행하여 변경 사항을 반영할 수 있게 해준다.
invalidate metadata est_db.table_table;
댓글 0
번호 | 제목 | 글쓴이 | 날짜 | 조회 수 |
---|---|---|---|---|
60 | access=WRITE, inode="staging":ubuntu:supergroup:rwxr-xr-x 오류 | 총관리자 | 2014.07.05 | 1719 |
59 | org.apache.hadoop.security.AccessControlException: Permission denied: user=hadoop, access=WRITE, inode="":root:supergroup:rwxr-xr-x 오류 처리방법 | 총관리자 | 2014.07.05 | 2835 |
58 | banana pi에(lubuntu)에 hadoop설치하고 테스트하기 - 성공 | 총관리자 | 2014.07.05 | 2760 |
57 | 2개 data를 join하고 마지막으로 code정보를 join하여 결과를 얻는 mr 프로그램 | 총관리자 | 2014.06.30 | 408 |
56 | Cannot create /var/run/oozie/oozie.pid: Directory nonexistent오류 | 총관리자 | 2014.06.03 | 479 |
55 | oozie job 구동시 JA009: User: hadoop is not allowed to impersonate hadoop 오류나는 경우 | 총관리자 | 2014.06.02 | 807 |
54 | hadoop및 ecosystem에서 사용되는 명령문 정리 | 총관리자 | 2014.05.28 | 3456 |
53 | hive job실행시 meta정보를 원격의 mysql에 저장하는 경우 설정방법 | 총관리자 | 2014.05.28 | 1088 |
52 | oozie의 meta정보를 mysql에서 관리하기 | 총관리자 | 2014.05.26 | 1466 |
51 | hive query에서 mapreduce돌리지 않고 select하는 방법 | 총관리자 | 2014.05.23 | 811 |
50 | hiverserver2기동시 connection refused가 발생하는 경우 조치방법 | 총관리자 | 2014.05.22 | 1472 |
49 | import 혹은 export할때 hive파일의 default 구분자는 --input-fields-terminated-by " |