메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


0. RDF4J에서 지원하는 트랜잭션 처리를 위해서는 트랜잭션ID를 구하고 ADD,DELETE,UPDATE한후 필요한 작업(GET,SIZE,QUERY)를 수행하여 확인후 최종적으로COMMIT하는 순서로 진행해야한다.(POSTMAN등의 툴을 이용하여 호출한다, 리포지토리명 : gTest)

(*참조 : http://docs.rdf4j.org/rest-api/#_repository_queries)


1. 트랜잭션-시작(트랜잭션ID구하기)

 - URL : http://www.gooper.com/rdf4j-server/repositories/gTest/transactions

 - METHOD : POST

 - HEADERS : Content-Type->없음

 - BODY : 없음

 - 수행결과 : 리턴된 결과의 Headers location(예, http://www.gooper.com/rdf4j-server/repositories/gTest/transactions/71f13943-29fb-4671-b5d0-cd865a28aada)값이 있는데 이값을 참조하여 트랜잭션ID를 구한다.


2. 트랜잭션-데이타 등록

 - URL : http://www.gooper.com/rdf4j-server/repositories/gTest/transactions/71f13943-29fb-4671-b5d0-cd865a28aada?action=ADD

 - METHOD : PUT

 - HEADERS : Content-Type->text/turtle

 - BODY : 등록할 triple(statement) 목록

<http://www.gooper.com/gooper> <http://www.gooper.com/hasName1> <http://www.gooper.com/parksanghyeon1> .
<http://www.gooper.com/gooper> <http://www.gooper.com/hasName1> <http://www.gooper.com/parksanghyeon11> .

 - 수행결과 : 없음


3. 트랜잭션-트랜잭션ID에 등록된 데이타 조회

 - URL : http://www.gooper.com/rdf4j-server/repositories/gTest/transactions/71f13943-29fb-4671-b5d0-cd865a28aada?action=GET

 - METHOD : PUT

 - HEADERS : Content-Type-> text/turtle

 - BODY : 없음

 - 수행결과 : 트랜잭션ID에 등록된 데이타 목록

<http://www.gooper.com/gooper> <http://www.gooper.com/hasName1> <http://www.gooper.com/parksanghyeon1> .
<http://www.gooper.com/gooper> <http://www.gooper.com/hasName1> <http://www.gooper.com/parksanghyeon11> .


4. 트랜잭션-COMMIT : 지정된 트랜잭션ID를 gTest에 최종 commit을 수행한다.

 - URL : http://www.gooper.com/rdf4j-server/repositories/gTest/transactions/71f13943-29fb-4671-b5d0-cd865a28aada?action=COMMIT

 - METHOD : PUT

 - HEADERS : Content-Type-> 없음

 - BODY : 없음

 - 수행결과 : 없음


5. 트랜잭션 - commit된 gTest전체 데이타 조회

 - URL : http://www.gooper.com/rdf4j-server/repositories/gTest/statements

 - METHOD : GET

 - HEADERS : Accept->application/sparql-results_xml, */*;q=0.5

 - BODY : 없음

 - 수행결과 : gTest에 등록된 전체 데이타

<http://www.gooper.com/gooper> <http://www.gooper.com/hasName1> <http://www.gooper.com/parksanghyeon1> .
<http://www.gooper.com/gooper> <http://www.gooper.com/hasName1> <http://www.gooper.com/parksanghyeon11> .


번호 제목 글쓴이 날짜 조회 수
521 참고할만한 spark예제를 설명하는 사이트 총관리자 2016.11.11 98
520 Class.forName을 이용한 메서드 호출 샘플소스 총관리자 2016.12.21 100
519 RDF storage조합에대한 test결과(4store, Jena+HBase, Hive+HBase, CumulusRDF, Couchbase) 페이지 링크 총관리자 2016.05.26 102
518 fuseki의 endpoint를 이용한 insert, delete하는 sparql예시 총관리자 2018.02.14 102
517 https://github.com/Merck/Halyard프로젝트 컴파일및 배포/테스트 총관리자 2017.01.24 103
516 Hue Load Balancer를 L4로 L/B하는 경우는 L4쪽 도멘인으로 발행된 인증서를 TLS/SSL항목에 설정해주어야 한다. 총관리자 2021.10.08 103
515 TopBraid Composer에서 SPIN 사용법 file 총관리자 2016.02.25 104
514 [AD(LADP)] CDP1.7에서 AD및 Kerberos를 연동해도 각 노드에 os account, os group은 생성되어야 하지만 SSSD서비스를 이용하면 직접 생성될 필요가 없다. gooper 2022.06.10 105
513 [SparkR]SparkR 설치 사용기 1 - Installation Guide On Yarn Cluster & Mesos Cluster & Stand Alone Cluster file 총관리자 2016.11.04 106
512 spark 2.0.0를 windows에서 실행시 로컬 파일을 읽을때 발생하는 오류 해결 방법 총관리자 2017.01.12 106
511 컴퓨터 무한 재부팅 원인및 조치방법 file 총관리자 2017.12.05 106
510 [Impala TLS/SSL이슈]RangerAdminRESTClient.java:151] Failed to get response, Error is: TrustManager is not specified gooper 2023.02.02 106
509 .gitignore파일에 지정되지 않은 파일이 ignore되는 경우 확인방법 총관리자 2016.11.22 107
508 collection생성혹은 collection조회시 Plugin init failure for [schema.xml] fieldType "pdate": Error loading class 'solr.IntField' 오류 조치사항 총관리자 2022.04.07 107
507 elasticsearch 1.3.0에서 rdf및 hadoop plugin설치 총관리자 2016.04.06 108
506 hue.axes_accessattempt테이블 데이터 샘플 총관리자 2020.02.10 108
505 impala external 테이블 생성시 컬럼과 라인 구분자를 지정하여 테이블 생성하는 예시 총관리자 2020.02.20 108
504 centos 6에서 mariadb 5.1 to 10.0 으로 upgrade 총관리자 2016.11.01 109
503 https용 인증서 발급 명령문 예시및 오류 메세지 총관리자 2018.01.24 109
502 kudu 테이블 metadata강제 삭제시 발생하는 오류 메세지 총관리자 2022.01.12 109

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로