Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.
1. vsftpd설치
#yum -y install vsftpd
2. vsftpd.conf파일설정
#vi /etc/vsftpd/vsftpd.conf
끝부분에 아래를 추가
anonymous_enable=NO
local_enable=YES
write_enable=YES
local_umask=022
dirmessage_enable=YES
xferlog_enable=YES
connect_from_port_20=YES
xferlog_file=/var/log/xferlog
xferlog_std_format=YES
chroot_local_user=YES
listen=YES
pam_service_name=vsftpd
userlist_enable=YES
tcp_wrappers=YES
3 방화벽 설정
[root@f29fc740-c4d3-4f1f-adfb-975b1706c191 ~]# iptables -A INPUT -m state --state NEW -m tcp -p tcp --dport 20 -j ACCEPT
[root@f29fc740-c4d3-4f1f-adfb-975b1706c191 ~]# iptables -A INPUT -m state --state NEW -m tcp -p tcp --dport 21 -j ACCEPT
4. /etc/sysconfig/iptables에 파일이 생성
[root@f29fc740-c4d3-4f1f-adfb-975b1706c191 ~]# /etc/rc.d/init.d/iptables save
Saving firewall rules to /etc/sysconfig/iptables: [ OK ]
5. iptables확인
[root@f29fc740-c4d3-4f1f-adfb-975b1706c191 ~]# vi /etc/sysconfig/iptables
6. iptables start
[root@f29fc740-c4d3-4f1f-adfb-975b1706c191 ~]# service iptables start
Flushing firewall rules: [ OK ]
Setting chains to policy ACCEPT: filter [ OK ]
Unloading iptables modules: [ OK ]
Applying iptables firewall rules: [ OK ]
Loading additional iptables modules: ip_conntrack_netbios_n[ OK ]
6-1. iptables restart(optional)
[root@f29fc740-c4d3-4f1f-adfb-975b1706c191 ~]# service iptables restart
Flushing firewall rules: [ OK ]
Setting chains to policy ACCEPT: filter [ OK ]
Unloading iptables modules: [ OK ]
Applying iptables firewall rules: [ OK ]
Loading additional iptables modules: ip_conntrack_netbios_n[ OK ]
7. vsftpd 시작및 부팅시 자동실행 설정
#service vsftpd start
#chkconfig --level 2345 vsftpd on
6. 확인
#netstat -ntlp
에서 "vsftpd" "::21" 포트확인
댓글 0
번호 | 제목 | 날짜 | 조회 수 |
---|---|---|---|
730 | jupyter, zeppelin, rstudio를 이용하여 spark cluster에 job를 실행시키기 위한 정보 | 2018.04.13 | 7702 |
729 | 하둡 분산 파일 시스템을 기반으로 색인하고 검색하기 | 2013.03.15 | 7635 |
728 | [gson]mongodb의 api를 이용하여 데이타를 가져올때 "com.google.gson.stream.MalformedJsonException: Unterminated object at line..." 오류발생시 조치사항 | 2017.12.11 | 7581 |
727 | LUBM 데이타 생성구문 | 2017.07.24 | 7513 |
726 | oracle to hive data type정리표 | 2018.08.22 | 7377 |
725 | spark-sql실행시 Caused by: java.lang.NumberFormatException: For input string: "0s" 오류발생시 조치사항 | 2016.06.09 | 7108 |
724 | [Kerberos]Kerberos상태의 클러스터에 JDBC로 접근할때 케이스별 오류내용 | 2020.02.14 | 7062 |
723 | Caused by: java.sql.SQLNonTransientConnectionException: Could not read resultset: unexpected end of stream, read 0 bytes from 4 오류시 확인/조치할 내용 | 2016.10.31 | 6938 |
722 | sqoop작업시 hdfs의 개수보다 더많은 값이 중복되어 oracle에 입력되는 경우가 있음 | 2014.09.02 | 6935 |
721 | import 혹은 export할때 hive파일의 default 구분자는 --input-fields-terminated-by " |