메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


1. mysql을 설치/설정한다.(hive-site.xml)

 : hive.metastore.lcoal은 설정하지 않아도됨

 

-------------------------------------------------hive-site.xml의 일부--------------------------------------------------------

<property>
  <name>hive.metastore.uris</name>
  <value>thrift://192.168.8.5:9083</value>
  <description>Thrift uri for the remote metastore. Used by metastore client to connect to remote metastore.</description>
</property>
<property>
  <name>hive.metastore.local</name>
  <value>false</value>
</property>
<property>
  <name>javax.jdo.option.ConnectionURL</name>
  <value>jdbc:mysql://localhost:3306/metastore_db</value>
  <description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
  <name>hive.metastore.warehouse.dir</name>
  <value>/user/hadoop/warehouse</value>
</property>
<property>
  <name>javax.jdo.option.ConnectionDriverName</name>
  <value>com.mysql.jdbc.Driver</value>
  <description>Driver class name for a JDBC metastore</description>
</property>
 
2. Hive metastore interface를 기동해준다.
bin/hive --service metastore &
 
3. 9083포트 확인
netstat -an | grep 9083
 
* hive metastore interface기동하지 않고 oozie에서 hive job을 돌리면...
아래와 같은 오류가 발생하며 job이 kill된다.

================================================================= >>> Invoking Hive command line now >>> Hadoop Job IDs executed by Hive: Intercepting System.exit(40000) <<< Invocation of Main class completed <<< Failing Oozie Launcher, Main class [org.apache.oozie.action.hadoop.HiveMain], exit code [40000] Oozie Launcher failed, finishing Hadoop job gracefully Oozie Launcher ends -- End of task: attempt_201405271904_0020_m_000000_0 --




stderr logs

log4j:WARN No appenders could be found for logger (org.apache.hadoop.util.NativeCodeLoader). log4j:WARN Please initialize the log4j system properly. Logging initialized using configuration in jar:file:/tmp/mapr-hadoop/mapred/local/taskTracker/distcache/5455234734278781531_309545739_993904106/maprfs/mapr/my.cluster.com/lib/hive/hive-common-0.12-mapr-1401-140130.jar!/hive-log4j.properties FAILED: SemanticException Unable to fetch table ht_dm_101010 Log file: /tmp/mapr-hadoop/mapred/local/taskTracker/mapr/jobcache/job_201405271904_0020/attempt_201405271904_0020_m_000000_0/work/hive-oozie-job_201405271904_0020.log not present. Therefore no Hadoop jobids found Intercepting System.exit(40000) Failing Oozie Launcher, Main class [org.apache.oozie.action.hadoop.HiveMain], exit code [40000] -- End of task: attempt_201405271904_0020_m_000000_0 --

번호 제목 글쓴이 날짜 조회 수
27 hive query에서 mapreduce돌리지 않고 select하는 방법 총관리자 2014.05.23 811
26 dual table만들기 총관리자 2014.05.16 824
25 Hive JDBC Connection과 유형별 에러및 필요한 jar파일 총관리자 2021.05.24 833
24 unique한 값 생성 총관리자 2014.04.25 888
23 json으로 존재하는 데이터 parsing하기 총관리자 2019.03.25 974
22 hive에서 insert overwrite directory.. 로 하면 default column구분자는 'SOH'혹은 't'가 됨 총관리자 2014.05.20 999
21 Hive Query Examples from test code (1 of 2) 총관리자 2014.03.26 1050
20 external partition table생성및 data확인 총관리자 2014.04.03 1072
» hive job실행시 meta정보를 원격의 mysql에 저장하는 경우 설정방법 총관리자 2014.05.28 1088
18 sequence한 번호 생성방법 총관리자 2014.04.25 1123
17 json serde사용법 총관리자 2014.04.17 1140
16 Caused by: java.net.URISyntaxException: Relative path in absolute URI: ${system:java.io.tmpdir%7D/$%7Bsystem:user.name%7D오류발생시 조치사항 총관리자 2016.06.03 1141
15 upsert구현방법(년-월-일 파티션을 기준으로) 및 테스트 script file 총관리자 2018.07.03 1220
14 json 값 다루기 총관리자 2014.04.17 1222
13 schema설정없이 hive를 최초에 실행했을때 발생하는 오류메세지및 처리방법 총관리자 2016.09.25 1224
12 hiverserver2기동시 connection refused가 발생하는 경우 조치방법 총관리자 2014.05.22 1471
11 FAILED: IllegalStateException Variable substitution depth too large: 40 오류발생시 조치사항 총관리자 2014.08.19 1521
10 index생성, 삭제, 활용 총관리자 2014.04.25 1702
9 java.lang.RuntimeException: org.apache.hadoop.hive.ql.metadata.HiveException: Hive Runtime Error: Unable to deserialize reduce input key from...오류해결방법 총관리자 2015.06.16 1734
8 hive에서 생성된 external table에서 hbase의 table에 값 insert하기 총관리자 2014.04.11 1748

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로