Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.
DataSetCreator관련 job돌리면 "Illegal character in fragment at index.."라는 오류가 발생하며
작업이 실해하는 경우가 있는데 이는 HDFS에 만들려는 인자에 '/'가 포함되어 있어서 문제가 발생하는 경우이다.
Helper.scala의 createDirInHDFS() 함수의 hdfs dfs -mkdir 명령에 이어서 -p옵션을 추가해주고 컴파일해서 실행한다.
그리고 URI자체에 영문과 숫자 '/', '.'만 포함하고 '<', '>', '#', '//', ':', ')', '(', ',', '&', '^'등이 들어가지 않도록 특정문자로 치환해준다.
---------------------------오류내용------------------------
Showing 4096 bytes. Click here for full log
st4/ExtVP/SO/_L_http__//data.nasa.gov/qudt/owl/qudt#conversionOffset_B_/_L_http__//data.nasa.gov/qudt/owl/qudt#systemPrefixUnit_B_.parquet
at java.net.URI$Parser.fail(URI.java:2848)
at java.net.URI$Parser.checkChars(URI.java:3021)
at java.net.URI$Parser.parse(URI.java:3067)
at java.net.URI.<init>(URI.java:588)
at java.net.URI.create(URI.java:850)
... 31 more
16/06/17 13:51:12 INFO yarn.ApplicationMaster: Final app status: FAILED, exitCode: 15, (reason: User class threw exception: Illegal character in fragment at index 112: test4/ExtVP/SO/_L_http__//data.nasa.gov/qudt/owl/qudt#conversionOffset_B_/_L_http__//data.nasa.gov/qudt/owl/qudt#systemPrefixUnit_B_.parquet)
16/06/17 13:51:12 INFO yarn.ApplicationMaster: Invoking sc stop from shutdown hook
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/metrics/json,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/stages/stage/kill,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/static,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/executors/threadDump/json,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/executors/threadDump,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/executors/json,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/executors,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/environment/json,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/environment,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/storage/rdd/json,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/storage/rdd,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/storage/json,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/storage,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/stages/pool/json,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/stages/pool,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/stages/stage/json,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/stages/stage,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/stages/json,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/stages,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/jobs/job/json,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/jobs/job,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/jobs/json,null}
16/06/17 13:51:12 INFO handler.ContextHandler: stopped o.s.j.s.ServletContextHandler{/jobs,null}
16/06/17 13:51:12 INFO ui.SparkUI: Stopped Spark web UI at http://gsda3:37016
16/06/17 13:51:12 INFO scheduler.DAGScheduler: Stopping DAGScheduler
16/06/17 13:51:12 INFO cluster.YarnClusterSchedulerBackend: Shutting down all executors
16/06/17 13:51:12 INFO cluster.YarnClusterSchedulerBackend: Asking each executor to shut down
16/06/17 13:51:12 INFO scheduler.OutputCommitCoordinator$OutputCommitCoordinatorActor: OutputCommitCoordinator stopped!
16/06/17 13:51:12 INFO spark.MapOutputTrackerMasterActor: MapOutputTrackerActor stopped!
16/06/17 13:51:12 INFO storage.MemoryStore: MemoryStore cleared
16/06/17 13:51:12 INFO storage.BlockManager: BlockManager stopped
16/06/17 13:51:12 INFO storage.BlockManagerMaster: BlockManagerMaster stopped
16/06/17 13:51:12 INFO spark.SparkContext: Successfully stopped SparkContext댓글 0
| 번호 | 제목 | 날짜 | 조회 수 |
|---|---|---|---|
| 10 | S2RDF를 이용한 다른 버젼의 github링크 | 2016.12.02 | 2983 |
| » | DataSetCreator실행시 "Illegal character in fragment at index"오류가 나는 경우 조치방안 | 2016.06.17 | 2732 |
| 8 | 5건의 triple data를 이용하여 특정 작업 폴더에서 작업하는 방법/절차 | 2016.06.16 | 2170 |
| 7 | queryTranslator실행시 NullPointerException가 발생전에 java.lang.ArrayIndexOutOfBoundsException발생시 조치사항 | 2016.06.16 | 4126 |
| 6 | S2RDF를 실행부분만 추출하여 1건의 triple data를 HDFS에 등록, sparql을 sql로 변환, sql실행하는 방법및 S2RDF소스 컴파일 방법 | 2016.06.15 | 3022 |
| 5 | S2RDF모듈의 실행부분만 추출하여 별도록 실행하는 방법(draft) | 2016.06.14 | 2449 |
| 4 | --master yarn 옵션으로 spark client프로그램 실행할때 메모리 부족 오류발생시 조치방법 | 2016.05.27 | 3723 |
| 3 | DataSetCreator.py 실행시 파일을 찾을 수 없는 오류 | 2016.05.27 | 2297 |
| 2 | python실행시 ValueError: zero length field name in format오류 해결방법 | 2016.05.27 | 4052 |
| 1 |
S2RDF 테스트(벤치마크 테스트를 기준으로 python, scala소스가 만들어져서 기능은 파악되지 못함)
[1] | 2016.05.27 | 2993 |