메뉴 건너뛰기

Cloudera, BigData, Semantic IoT, Hadoop, NoSQL

Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.


1. oozie에서 제공하는 ssh action을 이용하여 다른 서버에 패스워드 없이 ssh로그인 하여 그 안에 있는 shellscript호출하는 설정하는 방법은 다음과 같다. 


oozie서버 : oozieserver.gooper.com <- client이면서 출발지 서버(호스트명 oozieserver)

ssh로 접속하려는 서버 :  sshserver.gooper.com <- 목적지 서버(호스트명 sshserver)

ssh접속 계정 :  hadoop


1. 설정

centos 8이전 버젼에서는 /etc/hosts.allow에 ssh: 접속허용IP 형태로 등록해주고 출발지와 목적지 서버간 22번 포트에 대한 방화벽을 오픈한다. 


2. oozie계정에 대한 key생성(공개키/개인키 기반의 키를 생성함)

sudo -u oozie ssh-keygen -t rsa


3. 2번에서 생성한 oozie계정용 key를 sshserver.gooper.com서버에 있는 hadoop계정의 authorized_keys에 추가 (home폴더는 /var/lib/계정 의 위치에 생성될 수도 있음)

sudo -u oozie ssh-copy_id i /home/oozie/.ssh/id_rsa.pub hadoop@sshserver.gooper.com


4. 패스워드 없이 접속 가능한지 접속 테스트

sudo -u oozie ssh hadoop@sslserver.gooper.com


* 참고#1 : oozie 프로세스에서 다른 서버에 hadoop게정으로 접속하는 경우 hadoop계정의 키를 생성해서 배포하고 hadoop계정으로 접속하거나 oozie서버의 oozie서비스 프로세스 기동한 계정인 oozie계정의 public key를 3번 처럼 목적지 서버에 배포한 후 4번처럼 ssh접속하면 패스워드를 따로 묻지 않고 접속됨.

 참고#2: 외부서버에서 oozie서버에 ssh접근하는 경우는 외부 서버의 shellecript실행할 os계정(예, msl)의 공개키를 받아서 oozie서버의 /home/msl2/.ssh/authorized_keys파일에 수동 등록해주면 

  외부 서버에서 sudo -u msl ssh msl2@oozieserver.gooper.com 처럼 msl계정으로 shellscript를 수행후 shellscript안에서 msl2계정으로 oozie서버에 패스워드 없이 ssh접근이 가능함)





번호 제목 날짜 조회 수
750 엑셀에서 K ,M, G ,T 단위를 숫자로 변환 하는 수식 2025.04.09 180
749 [Shellscript]Impala view의 실제 참조 테이블 추출용 shellscript파일 2025.03.22 171
748 Failed to resolve 'acme-v02.api.letsencrypt.org' ([Errno -3] Temporary failure in name resolution)" 2024.11.27 818
747 Apache Kudu에서 동일한 이름의 테이블을 반복적으로 DROP → CREATE → INSERT하는 로직을 2분 간격으로 10회 수행할 때 발생할 수 있는 주요 이슈 2025.01.26 1177
746 운영계 하둡클러스터에 노드 4대를 EdgeNode로 추가하는 방법/절차 2025.01.12 1148
745 Oracle 10g 혹은 12c 를 19c로 Upgrade시 Cloudera Cluster작업에 필요한 작업 2025.01.12 1264
744 beeline을 이용한 impala JDBC 테스트 방법(Kerberos 설정된 상태임) 2024.11.29 835
743 외부에서 ImpalaJDBC42.jar를 통해서 Impala에 접속시 sessions정보 2024.11.26 694
742 [Kerberos]Kerberos authentication cache를 FILE로 지정해도 KCM으로 저장되는 경우 조치방법 2024.11.03 1492
741 How to Install Magento 2.4.7 on Ubuntu 24.04 2024.09.04 3309
740 [CDP7.1.7]Hive Replication수행시 Target Cluster에서 Specified catalog.database.table does not exist 오류 2024.05.08 3229
739 [Impala] alter table구문수행시 "WARNINGS: Impala does not have READ_WRITE access to path 'hdfs://nameservice1/DATA/Temp/DB/source/table01_ccd'" 발생시 조치 2024.04.26 1641
738 [CDP7.1.7] oozie sqoop action으로 import혹은 export수행시 발생한 오류에 대한 자세한 로그 확인 하는 방법 2024.04.19 1852
737 [CDP7.1.7]Hive Replication수행중 Specified catalog.database.table does not exist : hive.db명.table명 오류 발생시 조치방법 2024.04.05 3217
736 [Active Directory] AD Kerberos보안 설정 변경 방법 (Maximum lifetime for user ticket, Maximum lifetime for user ticket renewal) 2024.03.12 3148
735 [CDP7.1.7]BDR작업후 오류로 Diagnostic Data를 수집하는 동안 "No content to map due to end-of-input at [Source: (String)""; line: 1, column: 0]" 오류 발생시 조치 2024.02.20 3663
734 [CDP7.1.7, Replication]Encryption Zone내 HDFS파일을 비Encryption Zone으로 HDFS Replication시 User hdfs가 아닌 hadoop으로 수행하는 방법 2024.01.15 1495
733 [CDP7.1.7]Oozie job에서 ERROR: Kudu error(s) reported, first error: Timed out: Failed to write batch of 774 ops to tablet 8003f9a064bf4be5890a178439b2ba91가 발생하면서 쿼리가 실패하는 경우 2024.01.05 3488
732 [CDP7.1.7][Replication]Table does not match version in getMetastore(). Table view original text mismatch 2024.01.02 3164
731 [CDP7.1.7, Hive Replication]Hive Replication진행중 "The following columns have types incompatible with the existing columns in their respective positions " 오류 2023.12.27 3150
위로