Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다.
문의사항은 gooper@gooper.com로 메일을
보내주세요.
1. 다운로드(/usr에서 저장)
wget http://mirror.apache-kr.org/zeppelin/zeppelin-0.7.3/zeppelin-0.7.3-bin-all.tgz
2. 압축풀기
sudo tar xvfz zeppelin-0.7.3-bin-all.tgz
3. 환경설정파일 수정(./conf/*)
가. zeppelin-env.sh.template -> zeppelin-env.sh
export JAVA_HOME=내용입력
export SPARK_HOME=내용입력
.....(필요한 항목 설정함)
나. zeppelin-site.xml.template -> zeppelin-site.xml
<property>
<name>zeppelin.server.addr</name>
<value>192.168.0.xxx</value>
<description>Server address</description>
</property>
<property>
<name>zeppelin.server.port</name>
<value>9080( 이미 8080은 사용 중이라 변경 )</value>
<description>Server port.</description>
</property>
<property>
<name>zeppelin.server.ssl.port</name>
<value>6443( 이미 사용 중이라 변경 )</value>
<description>Server ssl port. (used when ssl property is set to true)</description>
</property>
4. 서버 실행
root@gsda4:~/zeppelin/zeppelin/bin# ./zeppelin-daemon.sh start (데몬으로 시작하는 경우), zeppelin-daemon.sh stop(중지시키는 경우)
Log dir doesn't exist, create /svc/apps/gsda/bin/hadoop/zeppelin/zeppelin/logs
Pid dir doesn't exist, create /svc/apps/gsda/bin/hadoop/zeppelin/zeppelin/run
Zeppelin start [ OK ]
5. 실행확인
http://XXX.XXX.XXX.9080/
댓글 0
번호 | 제목 | 글쓴이 | 날짜 | 조회 수 |
---|---|---|---|---|
681 | dual table만들기 | 총관리자 | 2014.05.16 | 826 |
680 | 특정파일이 생성되어야 action이 실행되는 oozie job만들기(coordinator.xml) | 총관리자 | 2014.05.20 | 984 |
679 | source의 type을 spooldir로 하는 경우 해당 경로에 파일이 들어오면 파일단위로 전송함 | 총관리자 | 2014.05.20 | 687 |
678 | hive에서 insert overwrite directory.. 로 하면 default column구분자는 'SOH'혹은 't'가 됨 | 총관리자 | 2014.05.20 | 999 |
677 | import 혹은 export할때 hive파일의 default 구분자는 --input-fields-terminated-by " |