Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.
실행 : python DataSetCreator.py -i /home/hadoop/QueryTranslator/S2RDF_QueryTranslator/data/sparql.in -s 0.25
===> 
실행했을때 아래의 오류가 발생하는데 이는 python의 버젼이 3.1이상이 되어야 지원되는 python기능이 있어서 
발생하는 문제이므로 python의 버변을 3.1이상으로 설치하고 python3으로 실행하면 해결됨
* 설치는 https://www.gooper.com/ss/index.php?mid=bigdata&category=2812&document_srl=3130 참조할것
----------------------오류내용-----------------------------
Input RDF file ->" /home/hadoop/QueryTranslator/S2RDF_QueryTranslator/data/sparql.in
Traceback (most recent call last):
  File "DataSetCreator.py", line 126, in <module>
    main(sys.argv[1:])
  File "DataSetCreator.py", line 123, in main
    generateDatsets()
  File "DataSetCreator.py", line 80, in generateDatsets
    wholeRunTime = submitSparkCommand("VP")
  File "DataSetCreator.py", line 61, in submitSparkCommand
    + " > ./DataBaseCreator.err")
ValueError: zero length field name in format
댓글 0
| 번호 | 제목 | 날짜 | 조회 수 | 
|---|---|---|---|
| 10 | S2RDF를 이용한 다른 버젼의 github링크 | 2016.12.02 | 2984 | 
| 9 | DataSetCreator실행시 "Illegal character in fragment at index"오류가 나는 경우 조치방안 | 2016.06.17 | 2741 | 
| 8 | 5건의 triple data를 이용하여 특정 작업 폴더에서 작업하는 방법/절차 | 2016.06.16 | 2175 | 
| 7 | queryTranslator실행시 NullPointerException가 발생전에 java.lang.ArrayIndexOutOfBoundsException발생시 조치사항 | 2016.06.16 | 4136 | 
| 6 | S2RDF를 실행부분만 추출하여 1건의 triple data를 HDFS에 등록, sparql을 sql로 변환, sql실행하는 방법및 S2RDF소스 컴파일 방법 | 2016.06.15 | 3036 | 
| 5 | S2RDF모듈의 실행부분만 추출하여 별도록 실행하는 방법(draft) | 2016.06.14 | 2457 | 
| 4 | --master yarn 옵션으로 spark client프로그램 실행할때 메모리 부족 오류발생시 조치방법 | 2016.05.27 | 3729 | 
| 3 | DataSetCreator.py 실행시 파일을 찾을 수 없는 오류 | 2016.05.27 | 2301 | 
| » | python실행시 ValueError: zero length field name in format오류 해결방법 | 2016.05.27 | 4061 | 
| 1 | 
					S2RDF 테스트(벤치마크 테스트를 기준으로 python, scala소스가 만들어져서 기능은 파악되지 못함)
	[1]		 | 																		2016.05.27 | 2999 |