메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


datanode기동시 Incompatible clusterIDs오류가 발생하는 이유는 "hadoop namenode -format"이 다시 한번 이루어지면서 
namenode는 새로운 ID를 받고 datanode는 새로운 ID를 발급받지 못하여 불일치가 발생한다.
그래서 format전에 /hadoop/dfs/datanode/VERSION파일을 지우고 format하면 해결된다.

---------------------------datanode 로그파일 내용------------------
2016-04-01 10:18:29,872 INFO org.apache.hadoop.hdfs.server.common.Storage: Lock on /hadoop/dfs/datanode/in_use.lock acquired by nodename 2642@so-db2
2016-04-01 10:18:29,876 WARN org.apache.hadoop.hdfs.server.common.Storage: java.io.IOException: Incompatible clusterIDs in /hadoop/dfs/datanode: namenode clusterID = CID-114223dd-58a8-4145-8359-990ebc169f13; datanode clusterID = CID-0a8e7038-7c96-45ab-bf73-1ad00fcbd192
2016-04-01 10:18:29,878 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for Block pool <registering> (Datanode Uuid unassigned) service to sda2/xxx.xxx.xxx.44:9000. Exiting. 
java.io.IOException: All specified directories are failed to load.
        at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:478)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:1358)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:1323)
        at org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:317)
        at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.connectToNNAndHandshake(BPServiceActor.java:223)
        at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:802)
        at java.lang.Thread.run(Thread.java:745)
2016-04-01 10:18:29,878 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for Block pool <registering> (Datanode Uuid unassigned) service to sda1/xxx.xxx.xxx.43:9000. Exiting. 
java.io.IOException: Cluster IDs not matched: dn cid=CID-114223dd-58a8-4145-8359-990ebc169f13 but ns cid=CID-0a8e7038-7c96-45ab-bf73-1ad00fcbd192; bpid=BP-503361220-xxx.xxx.xxx.43-1459412244660
        at org.apache.hadoop.hdfs.server.datanode.DataNode.setClusterId(DataNode.java:717)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:1316)
        at org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:317)
        at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.connectToNNAndHandshake(BPServiceActor.java:223)
        at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:802)
        at java.lang.Thread.run(Thread.java:745)
2016-04-01 10:18:29,881 WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Ending block pool service for: Block pool <registering> (Datanode Uuid unassigned) service to sda2/xxx.xxx.xxx.44:9000
2016-04-01 10:18:29,881 WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Ending block pool service for: Block pool <registering> (Datanode Uuid unassigned) service to sda1/xxx.xxx.xxx.43:9000
2016-04-01 10:18:29,983 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Removed Block pool <registering> (Datanode Uuid unassigned)
2016-04-01 10:18:31,983 WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Exiting Datanode
2016-04-01 10:18:31,986 INFO org.apache.hadoop.util.ExitUtil: Exiting with status 0
2016-04-01 10:18:31,988 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: SHUTDOWN_MSG: 
/************************************************************
SHUTDOWN_MSG: Shutting down DataNode at so-db2/xxx.xxx.xxx.38
************************************************************/
번호 제목 글쓴이 날짜 조회 수
67 bananapi 5대(ubuntu계열 리눅스)에 yarn(hadoop 2.6.0)설치하기-ResourceManager HA/HDFS HA포함, JobHistory포함 총관리자 2015.04.24 19145
66 mapreduce appliction을 실행시 "is running beyond virtual memory limits" 오류 발생시 조치사항 총관리자 2017.05.04 16899
65 org.apache.hadoop.hdfs.server.common.InconsistentFSStateException: Directory /tmp/hadoop-root/dfs/name is in an inconsistent state: storage directory does not exist or is not accessible. 구퍼 2013.03.11 14781
64 [Decommission]시 시간이 많이 걸리면서(수일) Decommission이 완료되지 않는 경우 조치 총관리자 2018.01.03 5363
63 Hadoop Cluster 설치 (Hadoop+Zookeeper+Hbase) file 구퍼 2013.03.07 3995
62 hadoop 2.6.0 기동(에코시스템 포함)및 wordcount 어플리케이션을 이용한 테스트 총관리자 2015.05.05 3770
61 hadoop및 ecosystem에서 사용되는 명령문 정리 총관리자 2014.05.28 3455
60 "java.net.NoRouteToHostException: 호스트로 갈 루트가 없음" 오류시 확인및 조치할 사항 총관리자 2016.04.01 3025
59 이클립스에서 생성한 jar 파일 hadoop 으로 실행하기 file 구퍼 2013.03.06 2836
58 org.apache.hadoop.security.AccessControlException: Permission denied: user=hadoop, access=WRITE, inode="":root:supergroup:rwxr-xr-x 오류 처리방법 총관리자 2014.07.05 2835
57 banana pi에(lubuntu)에 hadoop설치하고 테스트하기 - 성공 file 총관리자 2014.07.05 2760
56 hadoop 설치(3대) file 구퍼 2013.03.07 2613
55 Cacti로 Hadoop 모니터링 하기 file 구퍼 2013.03.12 2367
54 hadoop설치시 오류 총관리자 2013.12.18 2313
53 메이븐 (maven) 설치 및 이클립스 연동하기 file 구퍼 2013.03.06 2280
52 hadoop설치시 참고사항 구퍼 2013.03.08 2131
51 W/F수행후 Logs not available for 1. Aggregation may not to complete. 표시되며 로그내용이 보이지 않은 경우 총관리자 2020.05.08 2110
50 Hadoop 설치 및 시작하기 file 구퍼 2013.03.06 1951
49 Hadoop wordcount 소스 작성 file 구퍼 2013.03.06 1888
48 access=WRITE, inode="staging":ubuntu:supergroup:rwxr-xr-x 오류 총관리자 2014.07.05 1719

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로