메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


Hadoop NFS gateway 서비스를 기동하여 외부에서 NFS에 mount하여 일반 파일 시스템에 데이터를 저장하고 읽을 수 있도록 할 수 있다.

이때 NFS gateway서비스의 설정에서 export point만 HDFS의 원하는 폴더의 full 경로로 설정해주고 HDFS폴더의 권한은 1777을 준다. 

그리고 NFS gateway서비스는 rpcbind서비스를 이용하므로 systemctl status rpcbind로 서비스 중인지 확인해야 한다. 

(rpcbind서비스는 /etc/hosts.deny, /etc/hosts.allow를 이용하므로 다음과 같은 설정(특히 rpcbind: localhost)이 필요하며 파일 권한은 rw- r-- r--로 설정되어 있어야 한다.

rpcbind: localhost가 /etc/hosts.allow파일에 설정되어 있지 않으면 NFS 서비스가 기동시 Cannot connect to port 2049오류가 발생한다.)

rpc에 등록된 서비스 확인은 sudo rpcinfo -p로 확인할 수 있다.

또한 NFS gateway서비스를 기동할때 내부적으로 nfs및 mountd서비스를 기동하므로 NFS gateway기동후에는 mountd, nfs서비스가 추가로 떠 있는것이 rpcinfo -p에서 확인된다.


* /etc/hosts.allow 예시

sshd: localhost \

space로 분리된 ip들


vsftpd: localhost \

space로 분리된 ip들


rpcbind: space로 분리된 ip들

rpcbind: localhost 


sshd: space로 분리된 ip들


* /etc/hosts.deny 예시 

ALL:ALL


* 참고 1 : RHEL/CentOS 8 에서 부터는 /etc/hosts.allow,deny 를 사용할 수 없음으로 firewalld 를 사용해야 하지만 따로 설정할 필요는 없음

* 참고 2 : 정상적으로 기동시 rpcinfo -p로 확인 했을때 다음과 같이 보여야 한다.

program vers proto port service

100000 4 tcp 111 portmapper

100000 3 tcp 111 portmapper

100000 2 tcp 111 portmapper

100000 4 udp 111 portmapper

100000 3 udp 111 portmapper

100000 2 udp 111 portmapper

100024 1 udp 44448 status

100024 1 tcp 54617 status

100005 1 udp 4242 mountd(자동으로 뜸)

100005 2 udp 4242 mountd(자동으로 뜸)

100005 3 udp 4242 mountd(자동으로 뜸)

100005 1 tcp 4242 mountd(자동으로 뜸)

100005 2 tcp 4242 mountd(자동으로 뜸)

100005 3 tcp 4242 mountd(자동으로 뜸)

100003 3 tcp 2049 nfs   (자동으로 뜸)


번호 제목 글쓴이 날짜 조회 수
438 [CDP7.1.7] oozie sqoop action으로 import혹은 export수행시 발생한 오류에 대한 자세한 로그 확인 하는 방법 gooper 2024.04.19 0
437 [CDP7.1.7, Replication]Encryption Zone내 HDFS파일을 비Encryption Zone으로 HDFS Replication시 User hdfs가 아닌 hadoop으로 수행하는 방법 gooper 2024.01.15 1
436 [CDP7.1.7]Hive Replication수행중 Specified catalog.database.table does not exist : hive.db명.table명 오류 발생시 조치방법 gooper 2024.04.05 1
435 [CDP7.1.7][Replication]Table does not match version in getMetastore(). Table view original text mismatch gooper 2024.01.02 2
434 [Cloudera Agent] Metadata-Plugin throttling_logger INFO (713 skipped) Unable to send data to nav server. Will try again. gooper 2022.05.16 7
433 [CDP7.1.7, Hive Replication]Hive Replication진행중 "The following columns have types incompatible with the existing columns in their respective positions " 오류 gooper 2023.12.27 7
432 [CDP7.1.7]Oozie job에서 ERROR: Kudu error(s) reported, first error: Timed out: Failed to write batch of 774 ops to tablet 8003f9a064bf4be5890a178439b2ba91가 발생하면서 쿼리가 실패하는 경우 gooper 2024.01.05 7
431 oozie의 sqoop action수행시 ooize:launcher의 applicationId를 이용하여 oozie:action의 applicationId및 관련 로그를 찾는 방법 gooper 2023.07.26 10
430 [CDP7.1.7]Encryption Zone내부/외부 간 데이터 이동(mv,cp)및 CTAS, INSERT SQL시 오류(can't be moved into an encryption zone, can't be moved from an encryption zone) gooper 2023.11.14 10
429 [EncryptionZone]User:testuser not allowed to do "DECRYPT_EEK" on 'testkey' gooper 2023.06.29 11
428 [CDP7.1.7]impala-shell수행시 간헐적으로 "-k requires a valid kerberos ticket but no valid kerberos ticket found." 오류 gooper 2023.11.16 11
427 [Encryption Zone]Encryption Zone에 생성된 table을 select할때 HDFS /tmp/zone1에 대한 권한이 없는 경우 gooper 2023.06.29 12
426 [Hadoop Encryption] Encryption Zone에 생성된 table에 Hue에서 insert 수행시 User:hdfs not allowed to do 'DECRYPT_EEK' ON 'testkey' 오류 gooper 2023.11.01 12
425 [Oracle 11g]Kudu table의 meta정보를 담고 있는 table_params의 백업본을 이용하여 특정 컬럼값을 update하는 Oracle SQL문 gooper 2023.09.04 13
424 Hadoop Clsuter에 이미 포함된 host의 hostname변경시 처리 절차 gooper 2023.03.24 14
423 [CDP7.1.7]EncryptionZone에 table생성및 권한 테스트 gooper 2023.09.26 14
422 [EncryptionZone]User:hdfs not allowed to do 'DECRYPT_EEK on 'enc_key'오류 gooper 2023.11.02 14
421 service name방식의 oracle을 메타정보 저장소로 사용할때 Hue Configuration설정하는 방법 총관리자 2022.02.12 15
420 [kerberos]Kerberos HA구성 참고 페이지 gooper 2022.08.31 15
419 [HA구성 이슈]oozie 2대를 L4로 HA구성했을때 발생하는 이슈 gooper 2023.01.17 15

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로