메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


Hadoop NFS gateway 서비스를 기동하여 외부에서 NFS에 mount하여 일반 파일 시스템에 데이터를 저장하고 읽을 수 있도록 할 수 있다.

이때 NFS gateway서비스의 설정에서 export point만 HDFS의 원하는 폴더의 full 경로로 설정해주고 HDFS폴더의 권한은 1777을 준다. 

그리고 NFS gateway서비스는 rpcbind서비스를 이용하므로 systemctl status rpcbind로 서비스 중인지 확인해야 한다. 

(rpcbind서비스는 /etc/hosts.deny, /etc/hosts.allow를 이용하므로 다음과 같은 설정(특히 rpcbind: localhost)이 필요하며 파일 권한은 rw- r-- r--로 설정되어 있어야 한다.

rpcbind: localhost가 /etc/hosts.allow파일에 설정되어 있지 않으면 NFS 서비스가 기동시 Cannot connect to port 2049오류가 발생한다.)

rpc에 등록된 서비스 확인은 sudo rpcinfo -p로 확인할 수 있다.

또한 NFS gateway서비스를 기동할때 내부적으로 nfs및 mountd서비스를 기동하므로 NFS gateway기동후에는 mountd, nfs서비스가 추가로 떠 있는것이 rpcinfo -p에서 확인된다.


* /etc/hosts.allow 예시

sshd: localhost \

space로 분리된 ip들


vsftpd: localhost \

space로 분리된 ip들


rpcbind: space로 분리된 ip들

rpcbind: localhost 


sshd: space로 분리된 ip들


* /etc/hosts.deny 예시 

ALL:ALL


* 참고 1 : RHEL/CentOS 8 에서 부터는 /etc/hosts.allow,deny 를 사용할 수 없음으로 firewalld 를 사용해야 하지만 따로 설정할 필요는 없음

* 참고 2 : 정상적으로 기동시 rpcinfo -p로 확인 했을때 다음과 같이 보여야 한다.

program vers proto port service

100000 4 tcp 111 portmapper

100000 3 tcp 111 portmapper

100000 2 tcp 111 portmapper

100000 4 udp 111 portmapper

100000 3 udp 111 portmapper

100000 2 udp 111 portmapper

100024 1 udp 44448 status

100024 1 tcp 54617 status

100005 1 udp 4242 mountd(자동으로 뜸)

100005 2 udp 4242 mountd(자동으로 뜸)

100005 3 udp 4242 mountd(자동으로 뜸)

100005 1 tcp 4242 mountd(자동으로 뜸)

100005 2 tcp 4242 mountd(자동으로 뜸)

100005 3 tcp 4242 mountd(자동으로 뜸)

100003 3 tcp 2049 nfs   (자동으로 뜸)


번호 제목 글쓴이 날짜 조회 수
419 Hive java connection 설정 file 구퍼 2013.04.01 2013
418 hbase에 필요한 jar들 구퍼 2013.04.01 2100
417 hadoop설치시 오류 총관리자 2013.12.18 2313
416 Hive Query Examples from test code (1 of 2) 총관리자 2014.03.26 1050
415 Hive Query Examples from test code (2 of 2) 총관리자 2014.03.26 5005
414 의사분산모드에서 presto설치하기 총관리자 2014.03.31 3050
413 동일서버에서 LA와 LC동시에 기동하여 테스트 총관리자 2014.04.01 928
412 external partition table생성및 data확인 총관리자 2014.04.03 1072
411 다수의 로그 에이전트로 부터 로그를 받아 각각의 파일로 저장하는 방법(interceptor및 multiplexing) 총관리자 2014.04.04 4089
410 Oozie 설치, 환경설정 및 테스트 총관리자 2014.04.08 1292
409 hive에서 생성된 external table에서 hbase의 table에 값 insert하기 총관리자 2014.04.11 1748
408 column family삭제시 Column family 'delete' does not exist오류 발생하는 경우 총관리자 2014.04.14 932
407 json 값 다루기 총관리자 2014.04.17 1222
406 json serde사용법 총관리자 2014.04.17 1140
405 oozie에서 share lib설정시 action type별로 구분하여 넣을것 총관리자 2014.04.18 1195
404 sqoop 1.4.4 설치및 테스트 총관리자 2014.04.21 3134
403 sequence한 번호 생성방법 총관리자 2014.04.25 1123
402 unique한 값 생성 총관리자 2014.04.25 888
401 hbase shell에서 컬럼값 검색하기(SingleColumnValueFilter이용) 총관리자 2014.04.25 2447
400 index생성, 삭제, 활용 총관리자 2014.04.25 1702

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로