메뉴 건너뛰기

Cloudera, BigData, Semantic IoT, Hadoop, NoSQL

Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.


impala테이블이 어떤 형태인지에 따라 다음과 같이 2가지 방법으로 수행할 수 있다. 

특히 parquet형식의 테이블인 경우 set num_nodes=1을 먼저 수행해주면 여러개의 fragment로 수행하지 않고 1개의 fragment로 수행되며 지정하지 않으면 병렬 처리를 위해서 가능한한 1개 이상의 fragment로 나뉘어서 수행된다. 

1개의 노드에서만 처리할때 파일 사이즈가 많이 크면 OOM을 유발할 수 있으니 주의해야 한다. 


1. text형식의 hdfs파일에 대한 테이블인 경우 : insert overwrite table 테이블명 select * from 테이블명;

2. parquet형식의 hdfs파일에 대한 테이블인 경우  : set num_nodes=1; insert overwrite table 테이블명 select * from 테이블명;



*참고 

-- OVERWRITE가 붙으면 해당 위치의 내용을 삭제하고 덮어 쓴다. 

INSERT OVERWRITE TABLE target PARTITION(col1 = 'a', col2)

SELECT data1,

       date2

  FROM source;

번호 제목 날짜 조회 수
407 insert hbase by hive ... error occured after 5 hours..HMaster가 뜨지 않는 장애에 대한 복구 방법 2014.04.29 9668
406 oozie가 말하는 start시간은..서버에서 확인되는 시간이 아닙니다. 2014.05.14 4560
405 sqoop export/import등을 할때 driver를 못찾는 오류가 발생하면... 2014.05.15 4493
404 sqoop에서 oracle관련 작업할때 테이블명, 사용자명, DB명은 모두 대문자로 사용할것 2014.05.15 4090
403 dual table만들기 2014.05.16 4246
402 특정파일이 생성되어야 action이 실행되는 oozie job만들기(coordinator.xml) 2014.05.20 6731
401 source의 type을 spooldir로 하는 경우 해당 경로에 파일이 들어오면 파일단위로 전송함 2014.05.20 4445
400 hive에서 insert overwrite directory.. 로 하면 default column구분자는 'SOH'혹은 't'가 됨 2014.05.20 3595
399 import 혹은 export할때 hive파일의 default 구분자는 --input-fields-terminated-by "x01"와 같이 지정해야함 2014.05.20 6701
398 hiverserver2기동시 connection refused가 발생하는 경우 조치방법 2014.05.22 4646
397 hive query에서 mapreduce돌리지 않고 select하는 방법 2014.05.23 4434
396 oozie의 meta정보를 mysql에서 관리하기 2014.05.26 4968
395 hive job실행시 meta정보를 원격의 mysql에 저장하는 경우 설정방법 2014.05.28 5098
394 hadoop및 ecosystem에서 사용되는 명령문 정리 2014.05.28 6435
393 oozie job 구동시 JA009: User: hadoop is not allowed to impersonate hadoop 오류나는 경우 2014.06.02 3306
392 Cannot create /var/run/oozie/oozie.pid: Directory nonexistent오류 2014.06.03 4451
391 2개 data를 join하고 마지막으로 code정보를 join하여 결과를 얻는 mr 프로그램 2014.06.30 3426
390 banana pi에(lubuntu)에 hadoop설치하고 테스트하기 - 성공 file 2014.07.05 5344
389 org.apache.hadoop.security.AccessControlException: Permission denied: user=hadoop, access=WRITE, inode="":root:supergroup:rwxr-xr-x 오류 처리방법 2014.07.05 5385
388 access=WRITE, inode="staging":ubuntu:supergroup:rwxr-xr-x 오류 2014.07.05 4636
위로