메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


1. 소스를 다운로드 받는다.

https://github.com/yahoo/kafka-manager/releases


2. 서버에 올리고(kafka-manager-1.3.3.4-src) 압축을 푼다.

kafka-manager>mkdir kafka-manager-1.3.3.4-src

kafka-manager-1.3.3.4-src>unzip kafka-manager-1.3.3.4.zip


3. 설정정보를 수정한다.

  가. vi conf/application.conf

    kafka-manager.zkhosts값을 현재 설정된 zookeeper정보로 변경한다(예, kafka-manager.zkhosts="sda1:2181,sda2:2181,sda3:2181")


4. sbt를 이용한 빌드 수행

  ./sbt clean dist

....

[info] Your package is ready in /home/gooper/kafka-manager/kafka-manager-1.3.3.4/target/universal/kafka-manager-1.3.3.4.zip
[info]
[success] Total time: 412 s, completed 2017. 3. 20 오후 12:25:21
-bash-4.1$


5. sbt를 이용하여 생성된 zip file을 특정폴더(예, /home/gooper/kafka-manager/kafka-manager-1.3.3.4)에 복사/압축을 푼다.  

  가. cp /home/gooper/kafka-manager/kafka-manager-1.3.3.4-src/target/universal/kafka-manager-1.3.3.4.zip /home/gooper/kafka-manager/kafka-manager-1.3.3.4

  나. cd /home/gooper/kafka-manager/kafka-manager-1.3.3.4

  다. unzip kafka-manager-1.3.3.4.zip


6. unzip된 폴더 밑의 bin 폴더 밑에 있는 kafka-manager를 실행한다.(default webport로 9000포트를 사용하는데 hadoop에서 사용하는 포트이므로 아래와 같이 변경하여 사용한다.)

  nohup bin/kafka-manager -Dconfig.file=./conf/application.conf -Dhttp.port=8889 & 혹은

  nohup bin/kafka-manager -Dhttp.port=1256 & 로 입력하여 kafka-manager데몬을 띄운다.


7. 브라우져에서 sda1:8889를 입력한다.


8. Cluster->Add Cluster를 선택하여 필요한 설정을 한다.

  가. Cluster Name : ICBMS_kafka_manager

  나. Cluster Zookeepr Hosts : sda1:2181,sda2:2181,sda3:2181

  다. Kafka Version(예, 0.9.0.1)을 선택한다.(설치된 kafka버젼을 선택함)

  라. Enable JMX Polling (Set JMX_PORT env variable before starting kafka server를 선택한다.

  마. JMX Auth Username, JMX Auth Password를 입력한다.(필요시)

  바. 체크옵션중 JMX with SSL을 제외하고 나머지는 선택하고 'save'를 누른다.
    Poll consumer information (Not recommended for large # of consumers)
    Filter out inactive consumers
    Enable Logkafka  
    Enable Active OffsetCache (Not recommended for large # of consumers)
    Display Broker and Topic Size (only works after applying this patch)


9. Lag확인

Topic메뉴를 클릭하고 하단 좌측에 보이는 Topic명을 클릭한다. 다음 화면에서 우측의 Consumers consuming from this topic 목록중에서 모니터링이 필요한 Consumer Group명칭을 클릭한다.


* KafkaOffsetMonitor를 사용하다보면 어는 시점에 모니터링 목록이 보이지 않는 문제가 있음. 이때 이 프로그램을 사용해 볼 수도 있음


10. 프로세스 확인(jps -m)

 - ProdServerStart가 있는지 확인한다.


번호 제목 글쓴이 날짜 조회 수
38 Oracle 12c DB의 LOB타입 컬럼이 있는 테이블을 import할 때 주의 할 사항 gooper 2022.09.14 12
37 oracle 접속 방식에 따른 --connect 지정 방법 총관리자 2022.02.11 8
36 Oracle NLOB type의 데이터를 import하는 경우 No Java type for SQL type 2011 for column rst와 같은 오류 발생시 조치사항 총관리자 2022.01.14 20
35 oracle 12에 sqoop해서 데이터 import하기 (console에서 sqoop import하는 방법) 총관리자 2021.12.31 9
34 [sap] Error: java.io.IOException: SQLException in nextKeyValue 오류 발생 총관리자 2020.06.08 150
33 [sqoop] mapper를 2이상으로 설정하기 위한 split-by컬럼을 찾을때 유용하게 활용할 수 있는 쿼리 총관리자 2020.05.13 254
32 source, sink를 직접 구현하여 사용하는 예시 총관리자 2019.05.30 338
31 kerberos설정된 상태의 spooldir->memory->hdfs로 저장하는 과정의 flume agent configuration구성 예시 총관리자 2019.05.30 151
30 kafka에서 메세지 중복 consume이 발생할 수 있는 상황 총관리자 2018.10.23 207
29 컬럼및 라인의 구분자를 지정하여 sqoop으로 데이타를 가져오고 hive테이블을 생성하는 명령문 총관리자 2018.08.03 335
28 sqoop으로 mariadb에 접근해서 hive 테이블로 자동으로 생성하기 총관리자 2018.08.03 599
27 Kafka의 API중 Consumer.createJavaConsumerConnector()를 이용하고 다수의 thread를 생성하여 Kafka broker의 topic에 접근하여 데이타를 가져오고 처리하는 예제 소스 총관리자 2017.04.26 208
» kafka-manager 1.3.3.4 설정및 실행하기 총관리자 2017.03.20 574
25 Kafka Offset Monitor로 kafka 상태 모니터링 하기 file 총관리자 2016.11.08 466
24 Flume과 Kafka를 사용한 초당 100만개 로그 수집 테스트 file 총관리자 2016.10.31 916
23 운영중인 상태에서 kafka topic삭제하고 재생성하여 처리되지 않은 메세지 모두 삭제하기 총관리자 2016.10.24 144
22 producer / consumer구현시 설정 옵션 설명 총관리자 2016.10.19 114
21 No broker partitions consumed by consumer thread오류 발생시 확인/조치할 사항 총관리자 2016.09.02 146
20 kafka 0.9.0.1버젼의 producer와 kafka버젼이 0.10.0.1인 consumer가 서로 대화하는 모습 총관리자 2016.08.18 279
19 down된 broker로 메세지를 전송하려는 경우의 오류 내용및 조치사항 총관리자 2016.08.12 223

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로