메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


hiveserver2실행시 /tmp/root/hive.log를 보면 아래와 같은 오류가 발생하는데 다음과 같이 수정한다.

가. hive-site.xml의 다음 항목값을 수정한다.
<name>hive.exec.scratchdir</name>
  <value>/tmp/hive-${user.name}</value>

<name>hive.exec.local.scratchdir</name>
 <value>/tmp/${user.name}</value>

<name>hive.downloaded.resources.dir</name>
 <value>/tmp/${user.name}_resources</value>

<name>hive.scratch.dir.permission</name>
 <value>733</value>

나. bin폴더 아래에서 metastore 서비스와 hiveserver2 데몬을 다시 기동한다.
./hive --service metastore &
./hiveserver2  &


------------------------------------오류내용---------------------
2016-06-03T19:58:49,938 WARN  [main]: server.HiveServer2 (HiveServer2.java:startHiveServer2(555)) - Error starting HiveServer2 on attempt 3, will retry in 60 seconds
java.lang.RuntimeException: Error applying authorization policy on hive configuration: java.net.URISyntaxException: Relative path in absolute URI: ${system:java.io.tmpdir%7D/$%7Bsystem:user.name%7D
        at org.apache.hive.service.cli.CLIService.init(CLIService.java:112) ~[hive-jdbc-2.0.1-standalone.jar:2.0.1]
        at org.apache.hive.service.CompositeService.init(CompositeService.java:59) ~[hive-jdbc-2.0.1-standalone.jar:2.0.1]
        at org.apache.hive.service.server.HiveServer2.init(HiveServer2.java:118) ~[hive-jdbc-2.0.1-standalone.jar:2.0.1]
        at org.apache.hive.service.server.HiveServer2.startHiveServer2(HiveServer2.java:514) [hive-jdbc-2.0.1-standalone.jar:2.0.1]
        at org.apache.hive.service.server.HiveServer2.access$700(HiveServer2.java:85) [hive-jdbc-2.0.1-standalone.jar:2.0.1]
        at org.apache.hive.service.server.HiveServer2$StartOptionExecutor.execute(HiveServer2.java:771) [hive-jdbc-2.0.1-standalone.jar:2.0.1]
        at org.apache.hive.service.server.HiveServer2.main(HiveServer2.java:640) [hive-jdbc-2.0.1-standalone.jar:2.0.1]
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) ~[?:1.8.0_66]
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) ~[?:1.8.0_66]
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) ~[?:1.8.0_66]
        at java.lang.reflect.Method.invoke(Method.java:497) ~[?:1.8.0_66]
        at org.apache.hadoop.util.RunJar.run(RunJar.java:221) [spark-assembly-1.3.1-hadoop2.6.0.jar:1.3.1]
        at org.apache.hadoop.util.RunJar.main(RunJar.java:136) [spark-assembly-1.3.1-hadoop2.6.0.jar:1.3.1]
Caused by: java.lang.IllegalArgumentException: java.net.URISyntaxException: Relative path in absolute URI: ${system:java.io.tmpdir%7D/$%7Bsystem:user.name%7D
        at org.apache.hadoop.fs.Path.initialize(Path.java:206) ~[spark-assembly-1.3.1-hadoop2.6.0.jar:1.3.1]
        at org.apache.hadoop.fs.Path.<init>(Path.java:172) ~[spark-assembly-1.3.1-hadoop2.6.0.jar:1.3.1]
        at org.apache.hadoop.hive.ql.session.SessionState.createSessionDirs(SessionState.java:628) ~[hive-exec-2.0.1.jar:2.0.1]
        at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:548) ~[hive-exec-2.0.1.jar:2.0.1]
        at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:511) ~[hive-exec-2.0.1.jar:2.0.1]
        at org.apache.hive.service.cli.CLIService.applyAuthorizationConfigPolicy(CLIService.java:125) ~[hive-jdbc-2.0.1-standalone.jar:2.0.1]
        at org.apache.hive.service.cli.CLIService.init(CLIService.java:110) ~[hive-jdbc-2.0.1-standalone.jar:2.0.1]
        ... 12 more
Caused by: java.net.URISyntaxException: Relative path in absolute URI: ${system:java.io.tmpdir%7D/$%7Bsystem:user.name%7D
        at java.net.URI.checkPath(URI.java:1823) ~[?:1.8.0_66]
        at java.net.URI.<init>(URI.java:745) ~[?:1.8.0_66]
        at org.apache.hadoop.fs.Path.initialize(Path.java:203) ~[spark-assembly-1.3.1-hadoop2.6.0.jar:1.3.1]
        at org.apache.hadoop.fs.Path.<init>(Path.java:172) ~[spark-assembly-1.3.1-hadoop2.6.0.jar:1.3.1]
        at org.apache.hadoop.hive.ql.session.SessionState.createSessionDirs(SessionState.java:628) ~[hive-exec-2.0.1.jar:2.0.1]
        at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:548) ~[hive-exec-2.0.1.jar:2.0.1]
        at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:511) ~[hive-exec-2.0.1.jar:2.0.1]
        at org.apache.hive.service.cli.CLIService.applyAuthorizationConfigPolicy(CLIService.java:125) ~[hive-jdbc-2.0.1-standalone.jar:2.0.1]
        at org.apache.hive.service.cli.CLIService.init(CLIService.java:110) ~[hive-jdbc-2.0.1-standalone.jar:2.0.1]
        ... 12 more
번호 제목 글쓴이 날짜 조회 수
129 [CDP7.1.7, Hive Replication]Hive Replication진행중 "The following columns have types incompatible with the existing columns in their respective positions " 오류 gooper 2023.12.27 7
128 [CDP7.1.7]Oozie job에서 ERROR: Kudu error(s) reported, first error: Timed out: Failed to write batch of 774 ops to tablet 8003f9a064bf4be5890a178439b2ba91가 발생하면서 쿼리가 실패하는 경우 gooper 2024.01.05 7
127 [CDP7.1.7]impala-shell수행시 간헐적으로 "-k requires a valid kerberos ticket but no valid kerberos ticket found." 오류 gooper 2023.11.16 11
126 임시 테이블에서 데이터를 읽어서 partitioned table에 입력하는 impala SQL문 예시 gooper 2023.11.10 15
125 [impala]insert into db명.table명 select a, b from db명.table명 쿼리 수행시 "Memory limit exceeded: Failed to allocate memory for Parquet page index"오류 조치 방법 gooper 2023.05.31 21
124 not leader of this config: current role FOLLOWER 오류 발생시 확인방법 총관리자 2022.01.17 23
123 kudu table와 impala(hive) table정보가 틀어져서 테이블을 읽지 못하는 경우(Error Loading Metadata) 조치방법 gooper 2023.11.10 24
122 [CDP7.1.7]Impala Query의 Memory Spilled 양은 ScratchFileUsedBytes값을 누적해서 구할 수 있다. gooper 2022.07.29 28
121 [Cloudera 6.3.4, Kudu]]Service Monitor에서 사용하는 metric중에 일부를 blacklist로 설정하여 모니터링 정보 수집 제외하는 방법 gooper 2022.07.08 31
120 Failed to write to server: (no server available): 총관리자 2022.01.17 32
119 AnalysisException: Incomplatible return type 'DECIMAL(38,0)' and 'DECIMAL(38,5)' of exprs가 발생시 조치 총관리자 2021.07.26 33
118 [KUDU] kudu tablet server여러가지 원인에 의해서 corrupted상태가 된 경우 복구방법 gooper 2023.03.28 34
117 spark에서 hive table을 읽어 출력하는 예제 소스 총관리자 2017.03.09 35
116 [TLS/SSL]Kudu Tablet Server설정 총관리자 2022.05.13 35
115 spark에서 hive table을 읽어 출력하는 예제 소스 총관리자 2017.03.09 37
114 [CDP7.1.7]impala-shell을 이용하여 kudu table에 insert/update수행시 발생하는 오류(Transport endpoint is not connected (error 107)) 발생시 확인할 내용 gooper 2023.11.30 40
113 spark 온라인 책자링크 (제목 : mastering-apache-spark) 총관리자 2016.05.25 48
112 [Impala jdbc]CDP7.1.7환경에서 java프로그램을 이용하여 kerberized impala cluster에 접근하여 SQL을 수행하는 방법 gooper 2023.08.22 53
111 [hive] hive.tbls테이블의 owner컬럼값은 hadoop.security.auth_to_local에 의해서 filtering된다. 총관리자 2022.04.14 55
110 [TLS/SSL]Kudu Master 설정하기 총관리자 2022.05.13 61

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로