메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


1. 소스를 다운로드 받는다.

https://github.com/yahoo/kafka-manager/releases


2. 서버에 올리고(kafka-manager-1.3.3.4-src) 압축을 푼다.

kafka-manager>mkdir kafka-manager-1.3.3.4-src

kafka-manager-1.3.3.4-src>unzip kafka-manager-1.3.3.4.zip


3. 설정정보를 수정한다.

  가. vi conf/application.conf

    kafka-manager.zkhosts값을 현재 설정된 zookeeper정보로 변경한다(예, kafka-manager.zkhosts="sda1:2181,sda2:2181,sda3:2181")


4. sbt를 이용한 빌드 수행

  ./sbt clean dist

....

[info] Your package is ready in /home/gooper/kafka-manager/kafka-manager-1.3.3.4/target/universal/kafka-manager-1.3.3.4.zip
[info]
[success] Total time: 412 s, completed 2017. 3. 20 오후 12:25:21
-bash-4.1$


5. sbt를 이용하여 생성된 zip file을 특정폴더(예, /home/gooper/kafka-manager/kafka-manager-1.3.3.4)에 복사/압축을 푼다.  

  가. cp /home/gooper/kafka-manager/kafka-manager-1.3.3.4-src/target/universal/kafka-manager-1.3.3.4.zip /home/gooper/kafka-manager/kafka-manager-1.3.3.4

  나. cd /home/gooper/kafka-manager/kafka-manager-1.3.3.4

  다. unzip kafka-manager-1.3.3.4.zip


6. unzip된 폴더 밑의 bin 폴더 밑에 있는 kafka-manager를 실행한다.(default webport로 9000포트를 사용하는데 hadoop에서 사용하는 포트이므로 아래와 같이 변경하여 사용한다.)

  nohup bin/kafka-manager -Dconfig.file=./conf/application.conf -Dhttp.port=8889 & 혹은

  nohup bin/kafka-manager -Dhttp.port=1256 & 로 입력하여 kafka-manager데몬을 띄운다.


7. 브라우져에서 sda1:8889를 입력한다.


8. Cluster->Add Cluster를 선택하여 필요한 설정을 한다.

  가. Cluster Name : ICBMS_kafka_manager

  나. Cluster Zookeepr Hosts : sda1:2181,sda2:2181,sda3:2181

  다. Kafka Version(예, 0.9.0.1)을 선택한다.(설치된 kafka버젼을 선택함)

  라. Enable JMX Polling (Set JMX_PORT env variable before starting kafka server를 선택한다.

  마. JMX Auth Username, JMX Auth Password를 입력한다.(필요시)

  바. 체크옵션중 JMX with SSL을 제외하고 나머지는 선택하고 'save'를 누른다.
    Poll consumer information (Not recommended for large # of consumers)
    Filter out inactive consumers
    Enable Logkafka  
    Enable Active OffsetCache (Not recommended for large # of consumers)
    Display Broker and Topic Size (only works after applying this patch)


9. Lag확인

Topic메뉴를 클릭하고 하단 좌측에 보이는 Topic명을 클릭한다. 다음 화면에서 우측의 Consumers consuming from this topic 목록중에서 모니터링이 필요한 Consumer Group명칭을 클릭한다.


* KafkaOffsetMonitor를 사용하다보면 어는 시점에 모니터링 목록이 보이지 않는 문제가 있음. 이때 이 프로그램을 사용해 볼 수도 있음


10. 프로세스 확인(jps -m)

 - ProdServerStart가 있는지 확인한다.


번호 제목 글쓴이 날짜 조회 수
260 hive metadata(hive, impala, kudu 정보가 있음) 테이블에서 db, table, owner, location를 조회하는 쿼리 총관리자 2020.02.07 380
259 Namenode Metadata백업하는 방법 총관리자 2020.02.10 378
258 namenode오류 복구시 사용하는 명령 총관리자 2016.04.01 377
257 scan의 startrow, stoprow지정하는 방법 총관리자 2015.04.08 375
256 HUE를 사용할 사용자를 추가 하는 절차 총관리자 2018.05.29 367
255 hadoop클러스터를 구성하던 서버중 HA를 담당하는 서버의 hostname등이 변경되어 문제가 발생했을때 조치사항 총관리자 2016.07.29 363
254 root계정으로 MariaDB설치후 mysql -u root -p로 db에 접근하여 바로 해줘야 하는일..(케릭터셑은 utf8) 총관리자 2015.10.02 361
253 HDFS상의 /tmp폴더에 Permission denied오류가 발생시 조치사항 총관리자 2017.01.25 360
252 기준일자 이전의 hdfs 데이타를 지우는 shellscript 샘플 총관리자 2019.06.14 359
251 TransmitData() to failed: Network error: Recv() got EOF from remote (error 108) 오류 현상 총관리자 2019.02.15 359
250 impala,hive및 hdfs만 접근가능하고 파일을 이용한 테이블생성가능하도록 hue 권한설정설정 총관리자 2018.09.17 357
249 Hive MetaStore Server기동시 Could not create "increment"/"table" value-generation container SEQUENCE_TABLE since autoCreate flags do not allow it. 오류발생시 조치사항 총관리자 2017.05.03 349
248 [kudu]테이블 drop이 안되고 timeout이 걸리는 경우 조치 방법 총관리자 2020.06.08 348
247 Apache Spark와 Drools를 이용한 CEP구현 테스트 총관리자 2016.07.15 342
246 [sqoop] mapper를 2이상으로 설정하기 위한 split-by컬럼을 찾을때 유용하게 활용할 수 있는 쿼리 총관리자 2020.05.13 341
245 Cleaning up the staging area file시 'cannot access' 혹은 'Directory is not writable' 발생시 조치사항 총관리자 2017.05.02 337
244 sentry설정후 beeline으로 hive2server에 접속하여 admin계정에 admin권한 부여하기 총관리자 2018.07.03 336
243 Cloudera가 사용하는 서비스별 포트 총관리자 2018.03.29 326
242 cloudera-scm-agent 설정파일 위치및 재시작 명령문 총관리자 2018.03.29 326
241 Container killed by the ApplicationMaster. Container killed on request. Exit code is 143 Container exited with a non-zero exit code 143 TaskAttempt killed because it ran on unusable node 오류시 조치방법 총관리자 2017.04.06 325

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로