메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


sqoop sqoop 1.4.4 설치및 테스트

총관리자 2014.04.21 17:57 조회 수 : 3134

1. Sqoop를 다운받아 압축을 푼다

   *다운로드 받을 라이브러리가 사용하려는 하둡의 메이저 버전과 대응 되는지 확인 필요
   wget http://mirror.apache-kr.org/sqoop/1.4.4/sqoop-1.4.4.bin__hadoop-1.0.0.tar.gz

 

   * hadoop2의 경우는 sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz를 받아서 사용할것..


   tar zxvf sqoop-1.4.4.bin__hadoop-1.0.0.tar.gz

   ln -s sqoop-1.4.4.bin__hadoop-1.0.0. sqoop

 

2. Sqoop환경변수 설정

   vi  ~/.bashrc
   export SQOOP_HOME=/home/hadoop/sqoop
   export SQOOP_CONF_DIR=/home/hadoop/sqoop/conf


   export PATH=$PATH:$SQOOP_HOME/bin
   

   변경사항 반영
   source .bashrc

 

2-1. sqoop lib디렉토리 설정

   hadoop의 share디렉토리 밑에 있는 lib파일및 폴더를 모두 sqoop의 lib디렉토리 밑으로 복사한다.

 

3. Sqoop 환경설정

 

   cd $SQOOP_HOME/conf
   cp sqoop-env-template.sh sqoop-env.sh
   vi sqoop-env.sh

------------------------------------------------------------
# Set Hadoop-specific environment variables here.

#Set path to where bin/hadoop is available
export HADOOP_COMMON_HOME=/home/hadoop/hadoop

#Set path to where hadoop-*-core.jar is available
export HADOOP_MAPRED_HOME=/home/hadoop/hadoop/lib

#set the path to where bin/hbase is available
export HBASE_HOME=/home/hadoop/hbase

#Set the path to where bin/hive is available
export HIVE_HOME=/home/hadoop/hive

#Set the path for where zookeper config dir is
export ZOOCFGDIR=/home/hadoop/zookeeper/conf
----------------------------------------------------------

 

sqoop기동 확인

hadoop@bigdata-host:~/sqoop/conf$ sqoop
Warning: /usr/lib/hcatalog does not exist! HCatalog jobs will fail.
Please set $HCAT_HOME to the root of your HCatalog installation.
/home/hadoop/sqoop/bin/sqoop: line 101: /home/hadoop/hadoop/bin/bin/hadoop: No such file or directory

이 발생하게 되면 sqoop설치 디렉토리에 있는 sqoop-1.4.4.jar를 hadoop/lib에 복사한다.

 

4. 테스트(mysql)
 
   1) mysql jdbc 드라이버 설치
      http://dev.mysql.com/downloads/connector/j/


      tar zxvf mysql-connector-java-5.1.26.tar.gz
      cp mysql-connector-java-5.1.26/mysql-connector-java-5.1.26-bin.jar $SQOOP_HOME/lib
 
      * mysql에 bigdata계정 설정 및 sqoop테스트용 database생성 및 할당
      mysql -u root (암호 걸려있을 경우 -p)
      (암호 있을경우 입력)
      CREATE USER 'bigdata'@'localhost';
      create database sqoop_test;
      GRANT ALL PRIVILEGES ON sqoop_test.* TO 'bigdata'@'localhost';

   2) sqoop테스트용 테이블 생성 및 example데이터 입력
      mysql -u bigdata
      use sqoop_test;
      create table employee(id INT, name VARCHAR(20));       --import 테스트
      INSERT INTO employee(id,name) VALUES(1, "kim");
      INSERT INTO employee(id,name) VALUES(2, "lee");
      INSERT INTO employee(id,name) VALUES(3, "park");
      create table employee_ex(id INT, name VARCHAR(20));  --export 테스트

   3) hadoop 기동
      start-all.sh

   4) import 테스트(mysql에서 hdoop으로 저장)
      sqoop import --connect jdbc:mysql://localhost/sqoop_test --table employee --username bigdata -m 1

 

      =====>hadoop에서 확인<============

hadoop@bigdata-host:~/sqoop$ hadoop fs -lsr employee
-rw-r--r--   1 hadoop supergroup          0 2014-04-21 17:34 /user/hadoop/employee/_SUCCESS
drwxr-xr-x   - hadoop supergroup          0 2014-04-21 17:34 /user/hadoop/employee/_logs
drwxr-xr-x   - hadoop supergroup          0 2014-04-21 17:34 /user/hadoop/employee/_logs/history
-rw-r--r--   1 hadoop supergroup       9165 2014-04-21 17:34 /user/hadoop/employee/_logs/history/job_201404211042_0001_1398069253093_hadoop_employee.jar
-rw-r--r--   1 hadoop supergroup      59274 2014-04-21 17:34 /user/hadoop/employee/_logs/history/job_201404211042_0001_conf.xml
-rw-r--r--   1 hadoop supergroup         19 2014-04-21 17:34 /user/hadoop/employee/part-m-00000
hadoop@bigdata-host:~/sqoop$ hadoop fs -cat employee/part-m-00000
1,kim
2,lee
3,park
------------------------------------------

   5) export 테스트(hadoop에서 mysql의 테이블에 저장)
      sqoop export -connect jdbc:mysql://localhost/sqoop_test -table employee_ex -export-dir employee --username bigdata -m 1

 

5. postgresql

가. cp postgresql-9.3-1103.jdbc4.jar $SQOOP_HOME/lib

나.[hadoop@master]$ sqoop list-databases --connect jdbc:postgresql://node1:5432/hive_db --username hive_user --password hive_pass

Warning: /hadoop/sqoop/../hcatalog does not exist! HCatalog jobs will fail.

Please set $HCAT_HOME to the root of your HCatalog installation.

Warning: /hadoop/sqoop/../accumulo does not exist! Accumulo imports will fail.

Please set $ACCUMULO_HOME to the root of your Accumulo installation.

15/05/21 13:42:36 INFO sqoop.Sqoop: Running Sqoop version: 1.4.6

15/05/21 13:42:36 WARN tool.BaseSqoopTool: Setting your password on the command-line is insecure. Consider using -P instead.

15/05/21 13:42:36 INFO manager.SqlManager: Using default fetchSize of 1000

template1

template0

postgres

psmgdb

hive_db

 

oozie_db

 

번호 제목 글쓴이 날짜 조회 수
39 import 혹은 export할때 hive파일의 default 구분자는 --input-fields-terminated-by "x01"와 같이 지정해야함 총관리자 2014.05.20 4244
38 sqoop작업시 hdfs의 개수보다 더많은 값이 중복되어 oracle에 입력되는 경우가 있음 총관리자 2014.09.02 4093
37 다수의 로그 에이전트로 부터 로그를 받아 각각의 파일로 저장하는 방법(interceptor및 multiplexing) 총관리자 2014.04.04 4089
» sqoop 1.4.4 설치및 테스트 총관리자 2014.04.21 3134
35 kafka broker기동시 brokerId가 달라서 기동에 실패하는 경우 조치방법 총관리자 2016.05.02 2331
34 hadoop 2.6.0에 sqoop2 (1.99.5) server및 client설치 == fail 총관리자 2015.06.11 1770
33 sqoop에서 oracle관련 작업할때 테이블명, 사용자명, DB명은 모두 대문자로 사용할것 총관리자 2014.05.15 1528
32 flume 1.5.2 설치및 테스트(source : file, sink : hdfs) in HA 총관리자 2015.05.21 1415
31 avro 사용하기(avsc 스키마 파일 컴파일 방법, consumer, producer샘플소스) 총관리자 2016.07.08 1269
30 Flume과 Kafka를 사용한 초당 100만개 로그 수집 테스트 file 총관리자 2016.10.31 1021
29 oozie 에서 sqoop action실행 에러 - 컬럼개수 차이 총관리자 2014.07.17 1002
28 동일서버에서 LA와 LC동시에 기동하여 테스트 총관리자 2014.04.01 928
27 sqoop export/import등을 할때 driver를 못찾는 오류가 발생하면... 총관리자 2014.05.15 863
26 source의 type을 spooldir로 하는 경우 해당 경로에 파일이 들어오면 파일단위로 전송함 총관리자 2014.05.20 687
25 sqoop으로 mariadb에 접근해서 hive 테이블로 자동으로 생성하기 총관리자 2018.08.03 670
24 kafka-manager 1.3.3.4 설정및 실행하기 총관리자 2017.03.20 617
23 Kafka Offset Monitor로 kafka 상태 모니터링 하기 file 총관리자 2016.11.08 527
22 java.util.NoSuchElementException발생시 조치 총관리자 2014.08.27 476
21 컬럼및 라인의 구분자를 지정하여 sqoop으로 데이타를 가져오고 hive테이블을 생성하는 명령문 총관리자 2018.08.03 418
20 kafka 0.9.0.1 for scala 2.1.1 설치및 테스트 총관리자 2016.05.02 412

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로