메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


sqoop sqoop 1.4.4 설치및 테스트

총관리자 2014.04.21 17:57 조회 수 : 3134

1. Sqoop를 다운받아 압축을 푼다

   *다운로드 받을 라이브러리가 사용하려는 하둡의 메이저 버전과 대응 되는지 확인 필요
   wget http://mirror.apache-kr.org/sqoop/1.4.4/sqoop-1.4.4.bin__hadoop-1.0.0.tar.gz

 

   * hadoop2의 경우는 sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz를 받아서 사용할것..


   tar zxvf sqoop-1.4.4.bin__hadoop-1.0.0.tar.gz

   ln -s sqoop-1.4.4.bin__hadoop-1.0.0. sqoop

 

2. Sqoop환경변수 설정

   vi  ~/.bashrc
   export SQOOP_HOME=/home/hadoop/sqoop
   export SQOOP_CONF_DIR=/home/hadoop/sqoop/conf


   export PATH=$PATH:$SQOOP_HOME/bin
   

   변경사항 반영
   source .bashrc

 

2-1. sqoop lib디렉토리 설정

   hadoop의 share디렉토리 밑에 있는 lib파일및 폴더를 모두 sqoop의 lib디렉토리 밑으로 복사한다.

 

3. Sqoop 환경설정

 

   cd $SQOOP_HOME/conf
   cp sqoop-env-template.sh sqoop-env.sh
   vi sqoop-env.sh

------------------------------------------------------------
# Set Hadoop-specific environment variables here.

#Set path to where bin/hadoop is available
export HADOOP_COMMON_HOME=/home/hadoop/hadoop

#Set path to where hadoop-*-core.jar is available
export HADOOP_MAPRED_HOME=/home/hadoop/hadoop/lib

#set the path to where bin/hbase is available
export HBASE_HOME=/home/hadoop/hbase

#Set the path to where bin/hive is available
export HIVE_HOME=/home/hadoop/hive

#Set the path for where zookeper config dir is
export ZOOCFGDIR=/home/hadoop/zookeeper/conf
----------------------------------------------------------

 

sqoop기동 확인

hadoop@bigdata-host:~/sqoop/conf$ sqoop
Warning: /usr/lib/hcatalog does not exist! HCatalog jobs will fail.
Please set $HCAT_HOME to the root of your HCatalog installation.
/home/hadoop/sqoop/bin/sqoop: line 101: /home/hadoop/hadoop/bin/bin/hadoop: No such file or directory

이 발생하게 되면 sqoop설치 디렉토리에 있는 sqoop-1.4.4.jar를 hadoop/lib에 복사한다.

 

4. 테스트(mysql)
 
   1) mysql jdbc 드라이버 설치
      http://dev.mysql.com/downloads/connector/j/


      tar zxvf mysql-connector-java-5.1.26.tar.gz
      cp mysql-connector-java-5.1.26/mysql-connector-java-5.1.26-bin.jar $SQOOP_HOME/lib
 
      * mysql에 bigdata계정 설정 및 sqoop테스트용 database생성 및 할당
      mysql -u root (암호 걸려있을 경우 -p)
      (암호 있을경우 입력)
      CREATE USER 'bigdata'@'localhost';
      create database sqoop_test;
      GRANT ALL PRIVILEGES ON sqoop_test.* TO 'bigdata'@'localhost';

   2) sqoop테스트용 테이블 생성 및 example데이터 입력
      mysql -u bigdata
      use sqoop_test;
      create table employee(id INT, name VARCHAR(20));       --import 테스트
      INSERT INTO employee(id,name) VALUES(1, "kim");
      INSERT INTO employee(id,name) VALUES(2, "lee");
      INSERT INTO employee(id,name) VALUES(3, "park");
      create table employee_ex(id INT, name VARCHAR(20));  --export 테스트

   3) hadoop 기동
      start-all.sh

   4) import 테스트(mysql에서 hdoop으로 저장)
      sqoop import --connect jdbc:mysql://localhost/sqoop_test --table employee --username bigdata -m 1

 

      =====>hadoop에서 확인<============

hadoop@bigdata-host:~/sqoop$ hadoop fs -lsr employee
-rw-r--r--   1 hadoop supergroup          0 2014-04-21 17:34 /user/hadoop/employee/_SUCCESS
drwxr-xr-x   - hadoop supergroup          0 2014-04-21 17:34 /user/hadoop/employee/_logs
drwxr-xr-x   - hadoop supergroup          0 2014-04-21 17:34 /user/hadoop/employee/_logs/history
-rw-r--r--   1 hadoop supergroup       9165 2014-04-21 17:34 /user/hadoop/employee/_logs/history/job_201404211042_0001_1398069253093_hadoop_employee.jar
-rw-r--r--   1 hadoop supergroup      59274 2014-04-21 17:34 /user/hadoop/employee/_logs/history/job_201404211042_0001_conf.xml
-rw-r--r--   1 hadoop supergroup         19 2014-04-21 17:34 /user/hadoop/employee/part-m-00000
hadoop@bigdata-host:~/sqoop$ hadoop fs -cat employee/part-m-00000
1,kim
2,lee
3,park
------------------------------------------

   5) export 테스트(hadoop에서 mysql의 테이블에 저장)
      sqoop export -connect jdbc:mysql://localhost/sqoop_test -table employee_ex -export-dir employee --username bigdata -m 1

 

5. postgresql

가. cp postgresql-9.3-1103.jdbc4.jar $SQOOP_HOME/lib

나.[hadoop@master]$ sqoop list-databases --connect jdbc:postgresql://node1:5432/hive_db --username hive_user --password hive_pass

Warning: /hadoop/sqoop/../hcatalog does not exist! HCatalog jobs will fail.

Please set $HCAT_HOME to the root of your HCatalog installation.

Warning: /hadoop/sqoop/../accumulo does not exist! Accumulo imports will fail.

Please set $ACCUMULO_HOME to the root of your Accumulo installation.

15/05/21 13:42:36 INFO sqoop.Sqoop: Running Sqoop version: 1.4.6

15/05/21 13:42:36 WARN tool.BaseSqoopTool: Setting your password on the command-line is insecure. Consider using -P instead.

15/05/21 13:42:36 INFO manager.SqlManager: Using default fetchSize of 1000

template1

template0

postgres

psmgdb

hive_db

 

oozie_db

 

번호 제목 글쓴이 날짜 조회 수
701 [Kudu]ERROR: Unable to advance iterator for node with id '2' for Kudu table 'impala::core.pm0_abdasubjct': Network error: recv error from unknown peer: Transport endpoint is not connected (error 107) gooper 2023.03.16 536
700 hive의 메타정보 테이블을 MariaDB로 사용하는 경우 table comment나 column comment에 한글 입력시 깨지는 경우 utf8로 바꾸는 방법. gooper 2023.03.10 93
699 [Hive canary]Hive에 Metastore canary red alert및 hive log파일에 Duplicate entry '123456' for key 'NOTIFICATION_LOG_EVENT_ID'가 발생시 조치사항 gooper 2023.03.10 67
698 호출 url현황 gooper 2023.02.21 6
697 ./gradlew :composeDown 및 ./gradlew :composeUp 를 성공했을때의 메세지 gooper 2023.02.20 6
696 [ftgo_application]Unable to infer base url오류 발생시 조치방법 gooper 2023.02.20 1364
695 [Impala TLS/SSL이슈]RangerAdminRESTClient.java:151] Failed to get response, Error is: TrustManager is not specified gooper 2023.02.02 106
694 [Kerberos]병렬 kinit 호출시 cache파일이 손상되어 Bad format in credentials cache 혹은 No credentials cache found 혹은 Internal credentials cache error 오류 발생시 gooper 2023.01.20 32
693 [HA구성 이슈]oozie 2대를 L4로 HA구성했을때 발생하는 이슈 gooper 2023.01.17 17
692 [Impala 3.2버젼]compute incremental stats db명.테이블명 수행시 ERROR: AnalysisException: Incremental stats size estimate exceeds 2000.00MB. 오류 발생원인및 조치방안 gooper 2022.11.30 697
691 [oozie]oozie ssh action으로 패스워드 없이 다른 서버에 ssh로그인 하여 shellscript호출하는 설정하는 방법 gooper 2022.11.10 29
690 kudu의 내부 table명 변경하는 방법 gooper 2022.11.10 22
689 kerberos연동된 CDH 6.3.4에서 default realm값이 잘못된 상태에서 서비스 기동시 오류 gooper 2022.10.14 36
688 [impala]쿼리 수행중 발생하는 오류(due to memory pressure: the memory usage of this transaction, Failed to write to server) gooper 2022.10.05 67
687 [Kerberos인증] /var/log/krb5kdc.log파일 기준으로 인증요청(AS), 티켓확인(TGS)이 진행되는 로그 기록 gooper 2022.09.21 36
686 Oracle 12c DB의 LOB타입 컬럼이 있는 테이블을 import할 때 주의 할 사항 gooper 2022.09.14 179
685 [kerberos]Kerberos HA구성 참고 페이지 gooper 2022.08.31 15
684 [CDP7.1.7]Impala Query의 Memory Spilled 양은 ScratchFileUsedBytes값을 누적해서 구할 수 있다. gooper 2022.07.29 29
683 [Kudu]Schema별 혹은 테이블별 사용량(Replica포함) 구하는 방법 gooper 2022.07.14 121
682 [Cloudera 6.3.4, Kudu]]Service Monitor에서 사용하는 metric중에 일부를 blacklist로 설정하여 모니터링 정보 수집 제외하는 방법 gooper 2022.07.08 31

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로