메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


Container killed on request. Exit code is 143
Container exited with a non-zero exit code 143

 

hortonworks에서 제공하는 메모리 설정및 계산기

http://docs.hortonworks.com/HDPDocuments/HDP2/HDP-2.0.9.1/bk_installing_manually_book/content/rpm-chap1-11.html

 

메모리 설정값 계산 파일

wget http://public-repo-1.hortonworks.com/HDP/tools/2.0.6.0/hdp_manual_install_rpm_helper_files-2.0.6.101.tar.gz 

 

실행/결과

[root@master scripts]$ python yarn-utils.py -c 16 -m 16 -d 1 -k True

 Using cores=16 memory=16GB disks=1 hbase=True

 Profile: cores=16 memory=12288MB reserved=4GB usableMem=12GB disks=1

 Num Container=3

 Container Ram=4096MB

 Used Ram=12GB

 Unused Ram=4GB

 

---yarn-site.xml

 yarn.scheduler.minimum-allocation-mb=4096

 yarn.scheduler.maximum-allocation-mb=12288

 yarn.nodemanager.resource.memory-mb=12288

 

mapred-site.xml

 mapreduce.map.memory.mb=4096

 mapreduce.map.java.opts=-Xmx3276m

 mapreduce.reduce.memory.mb=4096

 mapreduce.reduce.java.opts=-Xmx3276m

 

yarn-site.xml

 yarn.app.mapreduce.am.resource.mb=4096

 yarn.app.mapreduce.am.command-opts=-Xmx3276m


mapred-site.xml

 mapreduce.task.io.sort.mb=1638

 

-----------------------------------------------------------------------------------------------

yarn-site.xml에 설정

    <property>

        <name>yarn.nodemanager.resource.memory-mb</name>

        <!-- value>8000</value -->

        <value>12288</value>

     </property>

     <property>

         <name>yarn.scheduler.minimum-allocation-mb</name>

         <!-- value>512</value -->

         <value>4096</value>

     </property>

     <property>

         <name>yarn.scheduler.maximum-allocation-mb</name>

         <!-- value>2048</value -->

         <value>12288</value>

     </property>

     <property>

         <name>yarn.app.mapreduce.am.resouce.mb</name>

         <value>4096</value>

     </property>

     <property>

         <name>yarn.app.mapreduce.am.command-opts</name>

         <value>-Xmx3276m</value>

     </property>

 
mapred-site.xml에 설정
  <property>
    <name>mapreduce.map.memory.mb</name>
    <value>4096</value>
  </property>
  <property>
    <name>mapreduce.map.java.opts</name>
    <value>-Xmx3276m</value>
  </property>
  <property>
    <name>mapreduce.reduce.memory.mb</name>
    <value>4096</value>
  </property>
  <property>
    <name>mapreduce.reduce.java.opts</name>
    <value>-Xmx3276m</value>
  </property>
  <property>
    <name>mapreduce.task.io.sort.mb</name>
    <value>1638</value>
  </property>
  <property>
    <name>mapreduce.task.io.sort.mb</name>
    <value>1638</value>
  </property>

-------------------- -k 옵션에 False대신 false를 지정하는 경우의 오류내용 ----------------
실행 : python yarn-utils.py -c 4 -m 7 -d 1 -k False
오류 내용
Traceback (most recent call last):
  File "yarn-utils.py", line 146, in <module>
    main()
  File "yarn-utils.py", line 94, in main
    hbaseEnabled = ast.literal_eval(options.hbase)
  File "/usr/lib64/python2.6/ast.py", line 68, in literal_eval
    return _convert(node_or_string)
  File "/usr/lib64/python2.6/ast.py", line 67, in _convert
    raise ValueError('malformed string')
ValueError: malformed string

------------다른 케이스 ----
-bash-4.1$ python yarn-utils.py -c 4 -m 7 -d 1 -k False
 Using cores=4 memory=7GB disks=1 hbase=False
 Profile: cores=4 memory=6144MB reserved=1GB usableMem=6GB disks=1
 Num Container=3
 Container Ram=2048MB
 Used Ram=6GB
 Unused Ram=1GB
 yarn.scheduler.minimum-allocation-mb=2048
 yarn.scheduler.maximum-allocation-mb=6144
 yarn.nodemanager.resource.memory-mb=6144
 mapreduce.map.memory.mb=2048
 mapreduce.map.java.opts=-Xmx1638m
 mapreduce.reduce.memory.mb=4096
 mapreduce.reduce.java.opts=-Xmx3276m
 yarn.app.mapreduce.am.resource.mb=4096
 yarn.app.mapreduce.am.command-opts=-Xmx3276m
 mapreduce.task.io.sort.mb=819

* application을 테스트할때 메모리 관련 오류가 발생시 조치 방법: https://www.gooper.com/ss/bigdata/3396
번호 제목 글쓴이 날짜 조회 수
27 Container killed by the ApplicationMaster. Container killed on request. Exit code is 143 Container exited with a non-zero exit code 143 TaskAttempt killed because it ran on unusable node 오류시 조치방법 총관리자 2017.04.06 324
26 Ubuntu 16.04 LTS에 4대에 Hadoop 2.8.0설치 총관리자 2017.05.01 520
25 Cleaning up the staging area file시 'cannot access' 혹은 'Directory is not writable' 발생시 조치사항 총관리자 2017.05.02 333
24 hadoop에서 yarn jar ..를 이용하여 appliction을 실행하여 정상적으로 수행되었으나 yarn UI의 어플리케이션 목록에 나타나지 않는 문제 총관리자 2017.05.02 24
23 hadoop에서 yarn jar ..를 이용하여 appliction을 실행하여 정상적으로 수행되었으나 yarn UI의 어플리케이션 목록에 나타나지 않는 문제 총관리자 2017.05.02 51
22 hadoop에서 yarn jar ..를 이용하여 appliction을 실행하여 정상적으로 수행되었으나 yarn UI의 어플리케이션 목록에 나타나지 않는 문제 총관리자 2017.05.02 117
21 hadoop에서 yarn jar ..를 이용하여 appliction을 실행하여 정상적(?)으로 수행되었으나 yarn UI의 어플리케이션 목록에 나타나지 않는 문제 총관리자 2017.05.02 77
20 mapreduce appliction을 실행시 "is running beyond virtual memory limits" 오류 발생시 조치사항 총관리자 2017.05.04 16898
19 갑자기 DataNode가 java.io.IOException: Premature EOF from inputStream를 반복적으로 발생시키다가 java.lang.OutOfMemoryError: Java heap space를 내면서 죽는 경우 조치방법 총관리자 2017.07.19 1677
18 Windows7 64bit 환경에서 Apache Hadoop 2.7.1설치하기 총관리자 2017.07.26 235
17 hadoop cluster구성된 노드를 확인시 Capacity를 보면 색이 붉은색으로 표시되어 있는 경우나 Unhealthy인 경우 처리방법 총관리자 2017.08.30 46
16 editLog의 문제로 발생하는 journalnode 기동 오류 발생시 조치사항 총관리자 2017.09.14 313
15 Hadoop 2.7.x에서 사용할 수 있는 파일/디렉토리 관련 util성 클래스 파일 총관리자 2017.09.28 76
14 hadoop cluster에 포함된 노드중에서 문제있는 decommission하는 방법및 절차 file 총관리자 2017.12.28 662
13 [2.7.2] distribute-exclude.sh사용할때 ssh 포트변경에 따른 오류발생시 조치사항 총관리자 2018.01.02 89
12 [Decommission]시 시간이 많이 걸리면서(수일) Decommission이 완료되지 않는 경우 조치 총관리자 2018.01.03 5322
11 HA(Namenode, ResourceManager, Kerberos) 및 보안(Zookeeper, Hadoop) 총관리자 2018.03.16 93
10 hadoop 클러스터 실행 스크립트 정리 총관리자 2018.03.20 608
9 resouce manager에 dr.who가 아닌 다른 사용자로 로그인 하기 총관리자 2018.06.28 1207
8 physical memory used되면서 mapper가 kill되는 경우 오류 발생시 조치 총관리자 2018.09.20 1522

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로