메뉴 건너뛰기

Cloudera, BigData, Semantic IoT, Hadoop, NoSQL

Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.


1. rdate를 설치한다.
root@master:/app/hdd# apt-get install rdate
Reading package lists... Done
Building dependency tree       
Reading state information... Done
The following NEW packages will be installed:
  rdate
0 upgraded, 1 newly installed, 0 to remove and 0 not upgraded.
Need to get 16.4 kB of archives.
After this operation, 65.5 kB of additional disk space will be used.
WARNING: The following packages cannot be authenticated!
  rdate
Authentication warning overridden.
Get:1 http://ports.ubuntu.com/ubuntu-ports/ quantal/main rdate armhf 1:1.2-5 [16.4 kB]
Fetched 16.4 kB in 1s (13.9 kB/s)                  
Selecting previously unselected package rdate.
(Reading database ... 59871 files and directories currently installed.)
Unpacking rdate (from .../rdate_1%3a1.2-5_armhf.deb) ...
Processing triggers for man-db ...
Setting up rdate (1:1.2-5) ...
localepurge: Disk space freed in /usr/share/locale: 45316 KiB
localepurge: Disk space freed in /usr/share/man: 4252 KiB
localepurge: Disk space freed in /usr/share/gnome/help: 564 KiB
localepurge: Disk space freed in /usr/share/omf: 8 KiB

Total disk space freed by localepurge: 50140 KiB

2. 설정할 사이트의 주소를 이용하여 날자를 현재 시간과 동기화 한다.
root@master:/root# rdate -s time.nist.gov
 
 
3. CST를 KST로 적용하도록 변경
mv /etc/localtime /etc/localtime_old
cp /usr/share/zoneinfo/Asia/Seoul /etc/localtime
 
4. 시간을 hw에 기록
root@master:/root# hwclock -w
 
#확인
root@master:~# date
Sun Aug 24 22:26:58 CST 2014

 
# 주기적으로 실행하려면 root로 로그인하여 
crontab -e하여 아래 줄을 입력한다.
00 01 * * * /usr/bin/rdate -s time.nist.gov
00 01 * * * /sbin/hwclock -w
 
---------------time server list--------------
time.nist.gov
time.bora.net

* 참고 :rdate용 시간 제공 서버가 많이 없어짐 그래서 ntpdate를 이용하는 방법을 사용할것
-------------------------------------ntpdate사용-----------------
ntpdate time.nuri.net
ntpdate time.bora.net
번호 제목 날짜 조회 수
210 python실행시 ValueError: zero length field name in format오류 해결방법 2016.05.27 3929
209 S2RDF 테스트(벤치마크 테스트를 기준으로 python, scala소스가 만들어져서 기능은 파악되지 못함) [1] file 2016.05.27 2864
208 CentOS6에 python3.5.1 소스코드로 빌드하여 설치하기 2016.05.27 4110
207 RDF storage조합에대한 test결과(4store, Jena+HBase, Hive+HBase, CumulusRDF, Couchbase) 페이지 링크 2016.05.26 3017
206 spark-submit으로 spark application실행하는 다양한 방법 2016.05.25 4407
205 spark 온라인 책자링크 (제목 : mastering-apache-spark) 2016.05.25 4248
204 "Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources"오류 발생시 조치사항 2016.05.25 4562
203 spark-env.sh에서 사용할 수있는 항목. 2016.05.24 4286
202 Spark 1.6.1 설치후 HA구성 2016.05.24 4439
201 spark-shell실행시 "A read-only user or a user in a read-only database is not permitted to disable read-only mode on a connection."오류가 발생하는 경우 해결방법 2016.05.20 2953
200 Master rejected startup because clock is out of sync 오류 해결방법 2016.05.03 5067
199 kafka broker기동시 brokerId가 달라서 기동에 실패하는 경우 조치방법 2016.05.02 5188
198 kafka 0.9.0.1 for scala 2.1.1 설치및 테스트 2016.05.02 4051
197 solr 인스턴스 기동후 shard에 서버가 정상적으로 할당되지 않는 경우 해결책 2016.04.29 4032
196 collection생성시 -shards와 -replicationFactor값을 잘못지정하면 write.lock for client xxx.xxx.xxx.xxx already exists오류가 발생한다. 2016.04.28 2526
195 solrdf초기 기동시 "Caused by: java.lang.IllegalAccessError: tried to access field org.apache.solr.handler.RequestHandlerBase.log from class org.gazzax.labs.solrdf.handler.update.RdfUpdateRequestHandler" 오류가 발생시 조치사항 2016.04.22 4090
194 solrcloud에 solrdf1.1설치하고 테스트 하기 2016.04.22 3284
193 Spark 2.1.1 clustering(5대) 설치(YARN기반) 2016.04.22 4958
192 Hadoop 완벽 가이드 정리된 링크 2016.04.19 3655
191 cumulusRDF 1.0.1설치및 "KeyspaceCumulus" keyspace확인하기 file 2016.04.15 8722
위로