메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


0. RDF4J에서 지원하는 트랜잭션 처리를 위해서는 트랜잭션ID를 구하고 ADD,DELETE,UPDATE한후 필요한 작업(GET,SIZE,QUERY)를 수행하여 확인후 최종적으로COMMIT하는 순서로 진행해야한다.(POSTMAN등의 툴을 이용하여 호출한다, 리포지토리명 : gTest)

(*참조 : http://docs.rdf4j.org/rest-api/#_repository_queries)


1. 트랜잭션-시작(트랜잭션ID구하기)

 - URL : http://www.gooper.com/rdf4j-server/repositories/gTest/transactions

 - METHOD : POST

 - HEADERS : Content-Type->없음

 - BODY : 없음

 - 수행결과 : 리턴된 결과의 Headers location(예, http://www.gooper.com/rdf4j-server/repositories/gTest/transactions/71f13943-29fb-4671-b5d0-cd865a28aada)값이 있는데 이값을 참조하여 트랜잭션ID를 구한다.


2. 트랜잭션-데이타 등록

 - URL : http://www.gooper.com/rdf4j-server/repositories/gTest/transactions/71f13943-29fb-4671-b5d0-cd865a28aada?action=ADD

 - METHOD : PUT

 - HEADERS : Content-Type->text/turtle

 - BODY : 등록할 triple(statement) 목록

<http://www.gooper.com/gooper> <http://www.gooper.com/hasName1> <http://www.gooper.com/parksanghyeon1> .
<http://www.gooper.com/gooper> <http://www.gooper.com/hasName1> <http://www.gooper.com/parksanghyeon11> .

 - 수행결과 : 없음


3. 트랜잭션-트랜잭션ID에 등록된 데이타 조회

 - URL : http://www.gooper.com/rdf4j-server/repositories/gTest/transactions/71f13943-29fb-4671-b5d0-cd865a28aada?action=GET

 - METHOD : PUT

 - HEADERS : Content-Type-> text/turtle

 - BODY : 없음

 - 수행결과 : 트랜잭션ID에 등록된 데이타 목록

<http://www.gooper.com/gooper> <http://www.gooper.com/hasName1> <http://www.gooper.com/parksanghyeon1> .
<http://www.gooper.com/gooper> <http://www.gooper.com/hasName1> <http://www.gooper.com/parksanghyeon11> .


4. 트랜잭션-COMMIT : 지정된 트랜잭션ID를 gTest에 최종 commit을 수행한다.

 - URL : http://www.gooper.com/rdf4j-server/repositories/gTest/transactions/71f13943-29fb-4671-b5d0-cd865a28aada?action=COMMIT

 - METHOD : PUT

 - HEADERS : Content-Type-> 없음

 - BODY : 없음

 - 수행결과 : 없음


5. 트랜잭션 - commit된 gTest전체 데이타 조회

 - URL : http://www.gooper.com/rdf4j-server/repositories/gTest/statements

 - METHOD : GET

 - HEADERS : Accept->application/sparql-results_xml, */*;q=0.5

 - BODY : 없음

 - 수행결과 : gTest에 등록된 전체 데이타

<http://www.gooper.com/gooper> <http://www.gooper.com/hasName1> <http://www.gooper.com/parksanghyeon1> .
<http://www.gooper.com/gooper> <http://www.gooper.com/hasName1> <http://www.gooper.com/parksanghyeon11> .


번호 제목 글쓴이 날짜 조회 수
520 CentOS 7.x에 Jupyter설치 총관리자 2018.04.18 550
519 외부 기기(usb, 하드)등 mount(연결)하기 총관리자 2014.08.03 546
518 spark-shell을 실행하면 "Attempted to request executors before the AM has registered!"라는 오류가 발생하면 총관리자 2018.06.08 542
517 spark client프로그램 기동시 "Error initializing SparkContext"오류 발생할때 조치사항 총관리자 2016.05.27 539
516 hadoop의 data디렉토리를 변경하는 방법 총관리자 2014.08.24 536
515 [Kudu]ERROR: Unable to advance iterator for node with id '2' for Kudu table 'impala::core.pm0_abdasubjct': Network error: recv error from unknown peer: Transport endpoint is not connected (error 107) gooper 2023.03.16 532
514 Kafka Offset Monitor로 kafka 상태 모니터링 하기 file 총관리자 2016.11.08 527
513 Ubuntu 16.04 LTS에 4대에 Hadoop 2.8.0설치 총관리자 2017.05.01 520
512 spark-submit 실행시 "java.lang.OutOfMemoryError: Java heap space"발생시 조치사항 총관리자 2018.02.01 517
511 anaconda3 (v5.2) 설치및 머신러닝 관련 라이브러리 설치 절차 총관리자 2018.07.27 513
510 동시에 많은 요청이 endpoint로 몰려서java.net.NoRouteToHostException가 발생하는 경우의 처리방법 총관리자 2016.10.17 508
509 데이타 제공 사이트 링크 총관리자 2014.08.03 508
508 CDH에서 Sentry 개념및 설정 file 총관리자 2018.06.21 504
507 compile할때와 exclude할때 대상을 표현하는 명칭이 다르므로 주의할것 총관리자 2016.08.10 503
506 hive기동시 Caused by: java.net.URISyntaxException: Relative path in absolute URI: ${system:java.io.tmpdir%7D/$%7Bsystem:user.name%7D 오류 발생시 조치사항 총관리자 2016.09.25 496
505 원격지에서 zio공유기를 통해서 노트북의 mysql접속을 허용하는 방법 총관리자 2014.09.07 494
504 [dovecot]dovecot restart할때 root@gsda4:/usr/lib/dovecot# service dovecot restart 오류 발생시 조치사항 총관리자 2017.06.12 492
503 Incompatible clusterIDs오류 원인및 해결방법 총관리자 2016.04.01 490
502 시스템날짜를 현재 정보로 동기화 하는 방법(rdate, ntpdate이용) 총관리자 2014.08.24 481
501 DataSetCreator실행시 "Illegal character in fragment at index"오류가 나는 경우 조치방안 총관리자 2016.06.17 480

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로