메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


0. anaconda3가 이미 설치되어 있고 conda를 통하여 jupyterhub및 notebook를 설치완료된 상태이지만 python 3.6.5를 사용하지 못하고 RHEL 7.4에 default설치된 python 3.7.5를 사용하도록 PATH를 지정하는 경우 절대경로를 지정하지 않고 jupyterhub등을 실행하면 오류가 발생하고 특히 http://gooper.com:8000/에서 로그인 시도시 아래와 같은 오류가 발생하면서 로그인에 실패하면

config파일에 "c.Spawner.cmd = ['/usr/anaconda3/bin/jupyterhub-singleuser']"를 반드시 설정하고 기동해준다.(jupyterhub-singleuser가 있는 절대경로임)

--------------오류내용--------

 File "/usr/anaconda3/lib/python3.6/subprocess.py", line 1344, in _execute_child

        raise child_exception_type(errno_num, err_msg, err_filename)

    PermissionError: [Errno 13] Permission denied: 'jupyterhub-singleuser'


----------------설정방법(conda를 이용)------------

1. jupyterhub설치

  sudo /usr/anaconda3/bin/conda install -c conda-forge jupyterhub

2. jupyter설치

  sudo /usr/anaconda3/bin/conda install notebook

3. 설정파일이 저장될 위치 생성

  sudo mkdir /etc/jupyterhub

4. default 설정파일 생성 명령문

sudo /usr/anaconda3/bin/jupyterhub --generate-config -f /etc/jupyterhub/jupyterhub_config.py

5. 설정파일 수정(vi jupyterhub_config.py)후 저장

#  This is the address on which the proxy will bind. Sets protocol, ip, base_url

c.JupyterHub.bind_url = 'http://XXX.XXX.XXX.XXX:8000'


#  Some spawners allow shell-style expansion here, allowing you to use

#  environment variables. Most, including the default, do not. Consult the

#  documentation for your spawner to verify!

c.Spawner.cmd = ['/usr/anaconda3/bin/jupyterhub-singleuser']


5. 실행(debug모드로 실행)

  sudo /usr/anaconda3/bin/jupyterhub --debug


6. 확인(default는 PAM인증임)

https://localhost:8000


* jupyter는 jupyterhub를 통하면 자동으로 spawn되므로 따로 기동시킬 필요없음


번호 제목 글쓴이 날짜 조회 수
700 org.apache.hadoop.security.AccessControlException: Permission denied: user=hadoop, access=WRITE, inode="":root:supergroup:rwxr-xr-x 오류 처리방법 총관리자 2014.07.05 2834
699 spark-sql실행시 Caused by: java.lang.NumberFormatException: For input string: "0s" 오류발생시 조치사항 총관리자 2016.06.09 2802
698 banana pi에(lubuntu)에 hadoop설치하고 테스트하기 - 성공 file 총관리자 2014.07.05 2760
697 protege 설명및 사용법 file 총관리자 2017.04.04 2743
696 Hive+mysql 설치 및 환경구축하기 file 구퍼 2013.03.07 2722
695 mysql-server 기동시 Do you already have another mysqld server running on port 오류 발생할때 확인및 조치방법 총관리자 2017.05.14 2668
694 org.apache.hadoop.hbase.PleaseHoldException: Master is initializing 구퍼 2013.03.15 2668
693 HBase 설치하기 – Pseudo-distributed file 구퍼 2013.03.12 2644
692 hadoop 설치(3대) file 구퍼 2013.03.07 2613
691 [DataNode]org.apache.hadoop.security.KerberosAuthException: failure to login: for principal: hdfs/datanode03@GOOPER.COM from keytab hdfs.keytab오류 gooper 2023.04.18 2600
690 HBase, BigTable, Cassandra Schema Design file 구퍼 2013.03.15 2506
689 hbase shell에서 컬럼값 검색하기(SingleColumnValueFilter이용) 총관리자 2014.04.25 2447
688 banana pi에 hive 0.13.1+mysql(metastore)설치 file 총관리자 2014.09.09 2406
687 Cacti로 Hadoop 모니터링 하기 file 구퍼 2013.03.12 2367
686 AIX 7.1에 MariaDB 10.2 소스 설치 총관리자 2016.09.24 2363
685 jupyter, zeppelin, rstudio를 이용하여 spark cluster에 job를 실행시키기 위한 정보 총관리자 2018.04.13 2335
684 kafka broker기동시 brokerId가 달라서 기동에 실패하는 경우 조치방법 총관리자 2016.05.02 2331
683 hadoop설치시 오류 총관리자 2013.12.18 2313
682 메이븐 (maven) 설치 및 이클립스 연동하기 file 구퍼 2013.03.06 2280
681 apk 파일 위치 file 총관리자 2015.05.25 2227

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로