메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


Hadoop NFS gateway 서비스를 기동하여 외부에서 NFS에 mount하여 일반 파일 시스템에 데이터를 저장하고 읽을 수 있도록 할 수 있다.

이때 NFS gateway서비스의 설정에서 export point만 HDFS의 원하는 폴더의 full 경로로 설정해주고 HDFS폴더의 권한은 1777을 준다. 

그리고 NFS gateway서비스는 rpcbind서비스를 이용하므로 systemctl status rpcbind로 서비스 중인지 확인해야 한다. 

(rpcbind서비스는 /etc/hosts.deny, /etc/hosts.allow를 이용하므로 다음과 같은 설정(특히 rpcbind: localhost)이 필요하며 파일 권한은 rw- r-- r--로 설정되어 있어야 한다.

rpcbind: localhost가 /etc/hosts.allow파일에 설정되어 있지 않으면 NFS 서비스가 기동시 Cannot connect to port 2049오류가 발생한다.)

rpc에 등록된 서비스 확인은 sudo rpcinfo -p로 확인할 수 있다.

또한 NFS gateway서비스를 기동할때 내부적으로 nfs및 mountd서비스를 기동하므로 NFS gateway기동후에는 mountd, nfs서비스가 추가로 떠 있는것이 rpcinfo -p에서 확인된다.


* /etc/hosts.allow 예시

sshd: localhost \

space로 분리된 ip들


vsftpd: localhost \

space로 분리된 ip들


rpcbind: space로 분리된 ip들

rpcbind: localhost 


sshd: space로 분리된 ip들


* /etc/hosts.deny 예시 

ALL:ALL


* 참고 1 : RHEL/CentOS 8 에서 부터는 /etc/hosts.allow,deny 를 사용할 수 없음으로 firewalld 를 사용해야 하지만 따로 설정할 필요는 없음

* 참고 2 : 정상적으로 기동시 rpcinfo -p로 확인 했을때 다음과 같이 보여야 한다.

program vers proto port service

100000 4 tcp 111 portmapper

100000 3 tcp 111 portmapper

100000 2 tcp 111 portmapper

100000 4 udp 111 portmapper

100000 3 udp 111 portmapper

100000 2 udp 111 portmapper

100024 1 udp 44448 status

100024 1 tcp 54617 status

100005 1 udp 4242 mountd(자동으로 뜸)

100005 2 udp 4242 mountd(자동으로 뜸)

100005 3 udp 4242 mountd(자동으로 뜸)

100005 1 tcp 4242 mountd(자동으로 뜸)

100005 2 tcp 4242 mountd(자동으로 뜸)

100005 3 tcp 4242 mountd(자동으로 뜸)

100003 3 tcp 2049 nfs   (자동으로 뜸)


번호 제목 글쓴이 날짜 조회 수
700 이클립스에서 생성한 jar 파일 hadoop 으로 실행하기 file 구퍼 2013.03.06 2836
699 org.apache.hadoop.security.AccessControlException: Permission denied: user=hadoop, access=WRITE, inode="":root:supergroup:rwxr-xr-x 오류 처리방법 총관리자 2014.07.05 2835
698 spark-sql실행시 Caused by: java.lang.NumberFormatException: For input string: "0s" 오류발생시 조치사항 총관리자 2016.06.09 2802
697 banana pi에(lubuntu)에 hadoop설치하고 테스트하기 - 성공 file 총관리자 2014.07.05 2760
696 protege 설명및 사용법 file 총관리자 2017.04.04 2749
695 Hive+mysql 설치 및 환경구축하기 file 구퍼 2013.03.07 2722
694 mysql-server 기동시 Do you already have another mysqld server running on port 오류 발생할때 확인및 조치방법 총관리자 2017.05.14 2671
693 org.apache.hadoop.hbase.PleaseHoldException: Master is initializing 구퍼 2013.03.15 2668
692 HBase 설치하기 – Pseudo-distributed file 구퍼 2013.03.12 2644
691 hadoop 설치(3대) file 구퍼 2013.03.07 2613
690 HBase, BigTable, Cassandra Schema Design file 구퍼 2013.03.15 2509
689 hbase shell에서 컬럼값 검색하기(SingleColumnValueFilter이용) 총관리자 2014.04.25 2448
688 banana pi에 hive 0.13.1+mysql(metastore)설치 file 총관리자 2014.09.09 2406
687 Cacti로 Hadoop 모니터링 하기 file 구퍼 2013.03.12 2367
686 AIX 7.1에 MariaDB 10.2 소스 설치 총관리자 2016.09.24 2366
685 jupyter, zeppelin, rstudio를 이용하여 spark cluster에 job를 실행시키기 위한 정보 총관리자 2018.04.13 2335
684 kafka broker기동시 brokerId가 달라서 기동에 실패하는 경우 조치방법 총관리자 2016.05.02 2332
683 hadoop설치시 오류 총관리자 2013.12.18 2313
682 메이븐 (maven) 설치 및 이클립스 연동하기 file 구퍼 2013.03.06 2280
681 apk 파일 위치 file 총관리자 2015.05.25 2227

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로