메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


kudu table인 admin.hue_user_dept 테이블의 메타정보가 틀어진 경우에는 다음과 같이 조치한다. 
(Hue에서 alter table rename을 할때 HDFS폴더에 impala에게 권한이 없어 kudu table명은 변경되고 HDFS명 변경시 오류가 발생하면서 메타정보가 틀어지는 경우가 있음)

1. admin DB의 ID를 확인한다. 
select * from hive.dbs where name='admin';
--> 7973

2. hive.tbls에서 해당 테이블의 ID및 table명을 확인한다. 
select * from hive.tbls where tbl_name like '%hue_user_dept%' and db_id=7973;
--> 102504 1671852408 7973 0 hadoop USER 0 2941304 hue_user_dept EXTERNAL_TABLE 0 0

3. hive.table_params에서 kudu table정보를 확인한다.
select * from hive.table_params where param_key='kudu.table_name' and param_value like 'impala::admin.hue_user_dept%';
--> 102504 kudu.table_name impala::admin.hue_user_dept

4. 만일읭 사태를 대비하여 기존 테이블은 backup해둔다. 
create table hive.tbls_20231109 as select * from hive.tbls;
create table hive.table_params_20231109 as select * from hive.table_params;

5. hive.tbls정보를 update한다. 
update hive.tbls set tbl_name='hue_user_dept_old' where tbl_name ='hue_user_dept' and tbl_id=102504 and db_id=7973;

5. hive.table_params정보를 update한다. 
update hive.table_params set param_value='impala::admin.hue_user_dept_old' where param_key='kudu.table_name' and tbl_id=102504 and param_value like 'impala::admin.hue_user_dept';

*참고 : 
 hue에서 invalidate metadata admin.hue_user_dept_old; 를 수행해야 테이블이 정상적으로 보인다. 
번호 제목 글쓴이 날짜 조회 수
130 [Impala] alter table구문수행시 "WARNINGS: Impala does not have READ_WRITE access to path 'hdfs://nameservice1/DATA/Temp/DB/source/table01_ccd'" 발생시 조치 gooper 2024.04.26 0
129 [CDP7.1.7]Oozie job에서 ERROR: Kudu error(s) reported, first error: Timed out: Failed to write batch of 774 ops to tablet 8003f9a064bf4be5890a178439b2ba91가 발생하면서 쿼리가 실패하는 경우 gooper 2024.01.05 7
128 [CDP7.1.7, Hive Replication]Hive Replication진행중 "The following columns have types incompatible with the existing columns in their respective positions " 오류 gooper 2023.12.27 7
127 [CDP7.1.7]impala-shell을 이용하여 kudu table에 insert/update수행시 발생하는 오류(Transport endpoint is not connected (error 107)) 발생시 확인할 내용 gooper 2023.11.30 40
126 [CDP7.1.7]impala-shell수행시 간헐적으로 "-k requires a valid kerberos ticket but no valid kerberos ticket found." 오류 gooper 2023.11.16 11
» kudu table와 impala(hive) table정보가 틀어져서 테이블을 읽지 못하는 경우(Error Loading Metadata) 조치방법 gooper 2023.11.10 24
124 임시 테이블에서 데이터를 읽어서 partitioned table에 입력하는 impala SQL문 예시 gooper 2023.11.10 15
123 [Impala jdbc]CDP7.1.7환경에서 java프로그램을 이용하여 kerberized impala cluster에 접근하여 SQL을 수행하는 방법 gooper 2023.08.22 54
122 [impala]insert into db명.table명 select a, b from db명.table명 쿼리 수행시 "Memory limit exceeded: Failed to allocate memory for Parquet page index"오류 조치 방법 gooper 2023.05.31 21
121 Impala Admission Control 설정시 쿼리가 사용하는 메모리 사용량 판단 방법 gooper 2023.05.19 90
120 [KUDU] kudu tablet server여러가지 원인에 의해서 corrupted상태가 된 경우 복구방법 gooper 2023.03.28 37
119 [Kudu]ERROR: Unable to advance iterator for node with id '2' for Kudu table 'impala::core.pm0_abdasubjct': Network error: recv error from unknown peer: Transport endpoint is not connected (error 107) gooper 2023.03.16 532
118 hive의 메타정보 테이블을 MariaDB로 사용하는 경우 table comment나 column comment에 한글 입력시 깨지는 경우 utf8로 바꾸는 방법. gooper 2023.03.10 85
117 [Impala 3.2버젼]compute incremental stats db명.테이블명 수행시 ERROR: AnalysisException: Incremental stats size estimate exceeds 2000.00MB. 오류 발생원인및 조치방안 gooper 2022.11.30 697
116 [impala]쿼리 수행중 발생하는 오류(due to memory pressure: the memory usage of this transaction, Failed to write to server) gooper 2022.10.05 67
115 [CDP7.1.7]Impala Query의 Memory Spilled 양은 ScratchFileUsedBytes값을 누적해서 구할 수 있다. gooper 2022.07.29 29
114 [Kudu]Schema별 혹은 테이블별 사용량(Replica포함) 구하는 방법 gooper 2022.07.14 121
113 [Cloudera 6.3.4, Kudu]]Service Monitor에서 사용하는 metric중에 일부를 blacklist로 설정하여 모니터링 정보 수집 제외하는 방법 gooper 2022.07.08 31
112 small file 한개 파일로 만들기(text file 혹은 parquet file의 테이블) gooper 2022.07.04 75
111 Query 1234:1234 expired due to client inactivity(timeout is 5m)및 invalid query handle gooper 2022.06.10 81

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로