메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


아래와 같이 "Caused by: java.lang.IllegalAccessError: tried to access field org.apache.solr.handler.RequestHandlerBase.log from class org.gazzax.labs.solrdf.handler.update.RdfUpdateRequestHandler"오류가 발생하는 경우가 있는데
이는 solrdf 1.1.0이 실행되는 solr의 버젼이 up되면서 내부적인 처리방법이 변경되면서 발생하는 문제임
==========> solrdf 1.1와 어울리는 solr의 버젼을 5.3.1로 맞춰서 설치해줘야 함


org.apache.solr.common.SolrException: tried to access field org.apache.solr.handler.RequestHandlerBase.log from class org.gazzax.labs.solrdf.handler.update.RdfUpdateRequestHandler
        at org.apache.solr.core.SolrCore.<init>(SolrCore.java:820)
        at org.apache.solr.core.SolrCore.<init>(SolrCore.java:658)
        at org.apache.solr.core.CoreContainer.create(CoreContainer.java:814)
        at org.apache.solr.core.CoreContainer.access$000(CoreContainer.java:87)
        at org.apache.solr.core.CoreContainer$1.call(CoreContainer.java:467)
        at org.apache.solr.core.CoreContainer$1.call(CoreContainer.java:458)
        at java.util.concurrent.FutureTask.run(FutureTask.java:266)
        at org.apache.solr.common.util.ExecutorUtil$MDCAwareThreadPoolExecutor$1.run(ExecutorUtil.java:231)
        at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
        at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
        at java.lang.Thread.run(Thread.java:745)
Caused by: java.lang.IllegalAccessError: tried to access field org.apache.solr.handler.RequestHandlerBase.log from class org.gazzax.labs.solrdf.handler.update.RdfUpdateRequestHandler
        at org.gazzax.labs.solrdf.handler.update.RdfUpdateRequestHandler.createDefaultLoaders(RdfUpdateRequestHandler.java:31)
        at org.apache.solr.handler.UpdateRequestHandler.init(UpdateRequestHandler.java:117)
        at org.apache.solr.core.PluginBag.initInstance(PluginBag.java:92)
        at org.apache.solr.core.PluginBag.createPlugin(PluginBag.java:122)
        at org.apache.solr.core.PluginBag.init(PluginBag.java:221)
        at org.apache.solr.core.RequestHandlers.initHandlersFromConfig(RequestHandlers.java:130)
        at org.apache.solr.core.SolrCore.<init>(SolrCore.java:773)
        ... 10 more
번호 제목 글쓴이 날짜 조회 수
201 spark-shell실행시 "A read-only user or a user in a read-only database is not permitted to disable read-only mode on a connection."오류가 발생하는 경우 해결방법 총관리자 2016.05.20 555
200 Master rejected startup because clock is out of sync 오류 해결방법 총관리자 2016.05.03 63
199 kafka broker기동시 brokerId가 달라서 기동에 실패하는 경우 조치방법 총관리자 2016.05.02 2340
198 kafka 0.9.0.1 for scala 2.1.1 설치및 테스트 총관리자 2016.05.02 420
197 solr 인스턴스 기동후 shard에 서버가 정상적으로 할당되지 않는 경우 해결책 총관리자 2016.04.29 655
196 collection생성시 -shards와 -replicationFactor값을 잘못지정하면 write.lock for client xxx.xxx.xxx.xxx already exists오류가 발생한다. 총관리자 2016.04.28 89
» solrdf초기 기동시 "Caused by: java.lang.IllegalAccessError: tried to access field org.apache.solr.handler.RequestHandlerBase.log from class org.gazzax.labs.solrdf.handler.update.RdfUpdateRequestHandler" 오류가 발생시 조치사항 총관리자 2016.04.22 163
194 solrcloud에 solrdf1.1설치하고 테스트 하기 총관리자 2016.04.22 113
193 Spark 2.1.1 clustering(5대) 설치(YARN기반) 총관리자 2016.04.22 1887
192 Hadoop 완벽 가이드 정리된 링크 총관리자 2016.04.19 205
191 cumulusRDF 1.0.1설치및 "KeyspaceCumulus" keyspace확인하기 file 총관리자 2016.04.15 429
190 bin/cassandra -f -R로 startup할때 NullPointerException오류가 나면 조치할 내용 총관리자 2016.04.14 70
189 Cassandra 3.4(3.10) 설치/설정 (5대로 clustering) 총관리자 2016.04.11 398
188 딥러닝 수학/알고리즘 '한국어' 강의 총관리자 2016.04.10 110
187 서버 5대에 solr 5.5.0 설치하고 index data를 HDFS에 저장/search하도록 설치/설정하는 방법(SolrCloud) 총관리자 2016.04.08 660
186 서버 5대에 solr 5.5.0 설치하고 index data를 HDFS에 저장/search하도록 설치/설정하는 방법 총관리자 2016.04.08 55
185 failed to read local state, exiting...오류발생시 조치사항 총관리자 2016.04.06 142
184 elasticsearch 1.3.0에서 rdf및 hadoop plugin설치 총관리자 2016.04.06 109
183 Elastic Search For Hadoop 2.2.0설치하기(5대 클러스터링) 총관리자 2016.04.04 450
182 Incompatible clusterIDs오류 원인및 해결방법 총관리자 2016.04.01 504

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로