메뉴 건너뛰기

Cloudera, BigData, Semantic IoT, Hadoop, NoSQL

Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.


참조 : http://joyhong.tistory.com/18


SWRL(Semantic Web Rule Language)와 SPIN(SPARQL Inferencing Notation)


SWRL과 SPIN은 rule을 RDF syntax로 표현한다. 하지만 SPIN은 SWRL보다 모든 면에서 우수하다고 생각한다. 

SPIN은 SPARQL을 기초로한다. SPARQL은 많은 엔진과 데이터베이스에서 사용 및 제공하고 있기 때문에 데이터베이스에 직접 실행될 수 있고, 중간에 상호작용할 엔진이 따로 필요가 없다. 또한 SPARQL이 UNION과 FILTER 표현과 같이 다양한 feature를 제공하기 때문에 SPIN은 SWRL보다 표현력이 더 좋다. 그리고 SPIN은 단순한 규칙언어를 넘어서서 constraint를 표현하고 새로운 기능과 템플릿을 정의하기 위한 방법을 제공한다.




SPIN으로 무엇을 할 수 있나?


SPIN은 개별적인 규칙 언어를 배우지 않아도 된다. SPIN은 SPARQL로 표현하기 때문이다.

SPIN은 다른 프로퍼티들을 기초로 프로퍼티의 값을 계산하는 것에 사용할 수 있다. 예를 들면, 제품의 높이와 너비를 통한 면적, 오늘 날짜와 생일 차이를 통한 사람의 나이, 성과 이름의 연결로 사람의 성명을 계산하는데 사용할 수 있다.

또한 특정 조건하에서 실행되는 규칙의 집합을 분리하는 것에 사용할 수 있다. 예를 들면, 증분 추론을 지원한다거나, 리소스가 처음 생성될 때 특정 값을 초기화한다거나, 대화형 애플리케이션으로 사용하도록 할 수 있다.



SPIN은 SPARQL의 CONSTRUCT나 UPDATE 문을 사용하여 구현된다. SPIN 템플릿은 고레벨의 도메인 특정 언어에서 이러한 규칙을 정의할 수 있도록 해 줌으로서 규칙 디자이너가 직접적으로 SPARQL로 작업할 필요가 없다.

애플리케이션의 또 다른 일반적인 요구는 데이터 유효성을 체크하는 것이다. 예를 들면, 필드 입력 또는 입력된 문자열이 해당 형식 요구 사항을 만족하도록 요구할 수 있다. SPIN은 닫힌 세계 의미(closed world semantics)로 제약사항을 체크하는 것과 현재 사용 가능한 정보가 지정된 무결성 제약 조건과 맞지 않을 때 자동적으로 불일치 표시를 나타내도록 제공한다. 제약 조건은 SPARQL의 ASK나 CONSTRUCT 쿼리를 사용하거나 해당하는 SPIN 템플릿을 사용하여 지정한다.

또한 SPIN은 명확하고 웹 친화적인 프레임워크를 통해 새로운 SPARQL function의 정의를 지원해준다.



SPIN을 이용한 추론


SPARQL의 CONSTRUCT 쿼리를 이용하여 

학생이 3개 이상의 수업을 수강하고 있다면 그 학생은 바쁜 학생이라고 추론하도록 

spin:rule을 사용하여 규칙을 작성하였다.


CONSTRUCT {

    ?s a :BusyStudent .

}

WHERE {

    {

        SELECT ?s ((COUNT(?s)) AS ?scount)

        WHERE {

            ?s :registerFor ?cls .

            ?cls a :Credit3Course .

        }

        GROUP BY ?s

    } .

    FILTER (?scount > 2) .

}



SPIN을 이용한 초기값 설정


instance 생성시 특정한 초기값을 자동으로 생성하도록 

spin:constructor를 사용하여 설정하였다.


CONSTRUCT {

    ?this :createdAt ?date .

}

WHERE {

    BIND (afn:now() AS ?date) .

}



SPIN을 이용한 제약사항 설정


대학생이 되는 조건으로 나이가 21세 이상이라는 제약사항을

spin:constraint를 사용하여 설정하였다.


ASK WHERE {

    ?this :age ?age .

    FILTER (?age < 20) .

}

번호 제목 날짜 조회 수
210 python실행시 ValueError: zero length field name in format오류 해결방법 2016.05.27 2551
209 S2RDF 테스트(벤치마크 테스트를 기준으로 python, scala소스가 만들어져서 기능은 파악되지 못함) [1] file 2016.05.27 1507
208 CentOS6에 python3.5.1 소스코드로 빌드하여 설치하기 2016.05.27 2637
207 RDF storage조합에대한 test결과(4store, Jena+HBase, Hive+HBase, CumulusRDF, Couchbase) 페이지 링크 2016.05.26 1643
206 spark-submit으로 spark application실행하는 다양한 방법 2016.05.25 2873
205 spark 온라인 책자링크 (제목 : mastering-apache-spark) 2016.05.25 2655
204 "Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources"오류 발생시 조치사항 2016.05.25 3113
203 spark-env.sh에서 사용할 수있는 항목. 2016.05.24 2791
202 Spark 1.6.1 설치후 HA구성 2016.05.24 2557
201 spark-shell실행시 "A read-only user or a user in a read-only database is not permitted to disable read-only mode on a connection."오류가 발생하는 경우 해결방법 2016.05.20 1493
200 Master rejected startup because clock is out of sync 오류 해결방법 2016.05.03 3246
199 kafka broker기동시 brokerId가 달라서 기동에 실패하는 경우 조치방법 2016.05.02 3748
198 kafka 0.9.0.1 for scala 2.1.1 설치및 테스트 2016.05.02 2525
197 solr 인스턴스 기동후 shard에 서버가 정상적으로 할당되지 않는 경우 해결책 2016.04.29 2730
196 collection생성시 -shards와 -replicationFactor값을 잘못지정하면 write.lock for client xxx.xxx.xxx.xxx already exists오류가 발생한다. 2016.04.28 1303
195 solrdf초기 기동시 "Caused by: java.lang.IllegalAccessError: tried to access field org.apache.solr.handler.RequestHandlerBase.log from class org.gazzax.labs.solrdf.handler.update.RdfUpdateRequestHandler" 오류가 발생시 조치사항 2016.04.22 2625
194 solrcloud에 solrdf1.1설치하고 테스트 하기 2016.04.22 1942
193 Spark 2.1.1 clustering(5대) 설치(YARN기반) 2016.04.22 3463
192 Hadoop 완벽 가이드 정리된 링크 2016.04.19 2144
191 cumulusRDF 1.0.1설치및 "KeyspaceCumulus" keyspace확인하기 file 2016.04.15 7523
위로