Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다.
문의사항은 gooper@gooper.com로 메일을
보내주세요.
Hadoop클러스터 환경에서 오라클및 sqoop이 이미 설치되어 있는 상태에서 oracle 테이블을 import하는 방법은 아래와 같다.
1. query를 지정하는 경우
#!/bin/bash
export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:/usr/lib/oracle/19.9/client64/lib/ojdbc8.jar
sqoop import \
--connect jdbc:oracle:thin:@gooperdb:5012:orcl \
--username gooper \
--password gooper_password \
--driver oracle.jdbc.driver.OracleDriver \
--query ' SELECT A, B FROM gooper.table_name where $CONDITIONS' \
--target-dir /DATA/gooper/tb_gooper \
-m 1 \
--delete-target-dir \
2. 테이블을 직접 지정하여 import하는 경우(테이블명은 대문자로 지정할것.)
sqoop export \
--connect jdbc:oracle:thin:@아이피:포트:디비스페이스 \
--username 아이디 \
--password 패스워드 \
--table TB_SAVE_TABLE \
--export-dir /user/hive/warehouse/sample.db/t_test_data \
--input-fields-terminated-by "\t" \
--input-lines-terminated-by "\n" \
--verbose \
-m 1 \
--input-null-string '\\N' \
--input-null-non-string '\\N'
댓글 0
번호 | 제목 | 글쓴이 | 날짜 | 조회 수 |
---|---|---|---|---|
681 | dual table만들기 | 총관리자 | 2014.05.16 | 826 |
680 | 특정파일이 생성되어야 action이 실행되는 oozie job만들기(coordinator.xml) | 총관리자 | 2014.05.20 | 984 |
679 | source의 type을 spooldir로 하는 경우 해당 경로에 파일이 들어오면 파일단위로 전송함 | 총관리자 | 2014.05.20 | 687 |
678 | hive에서 insert overwrite directory.. 로 하면 default column구분자는 'SOH'혹은 't'가 됨 | 총관리자 | 2014.05.20 | 999 |
677 | import 혹은 export할때 hive파일의 default 구분자는 --input-fields-terminated-by " |