메뉴 건너뛰기

Cloudera, BigData, Semantic IoT, Hadoop, NoSQL

Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.


오류가 발생하면 오류의 아래 부분에 제시하는데로 yarn.scheduler.maximum-allocation-mb' and/or 'yarn.nodemanager.resource.memory-mb 혹은(또는) yarn.scheduler.maximum-allocation-mb' and/or 'yarn.nodemanager.resource.memory-mb의 값을 증가 시켜 지정해준다.


------------오류내용

18/06/08 14:56:48 WARN cluster.YarnSchedulerBackend$YarnSchedulerEndpoint: Attempted to request executors before the AM has registered!

18/06/08 14:56:48 ERROR util.Utils: Uncaught exception in thread main

java.lang.NullPointerException

        at org.apache.spark.network.shuffle.ExternalShuffleClient.close(ExternalShuffleClient.java:152)

        at org.apache.spark.storage.BlockManager.stop(BlockManager.scala:1338)

        at org.apache.spark.SparkEnv.stop(SparkEnv.scala:97)

        at org.apache.spark.SparkContext$$anonfun$stop$12.apply$mcV$sp(SparkContext.scala:1786)

        at org.apache.spark.util.Utils$.tryLogNonFatalError(Utils.scala:1221)

        at org.apache.spark.SparkContext.stop(SparkContext.scala:1785)

        at org.apache.spark.SparkContext.<init>(SparkContext.scala:610)

        at org.apache.spark.repl.SparkILoop.createSparkContext(SparkILoop.scala:1022)

        at $line3.$read$$iwC$$iwC.<init>(<console>:15)

        at $line3.$read$$iwC.<init>(<console>:25)

        at $line3.$read.<init>(<console>:27)

        at $line3.$read$.<init>(<console>:31)

        at $line3.$read$.<clinit>(<console>)

        at $line3.$eval$.<init>(<console>:7)

        at $line3.$eval$.<clinit>(<console>)

        at $line3.$eval.$print(<console>)

        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)

        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorI


.....

java.lang.IllegalArgumentException: Required executor memory (1024+384 MB) is above the max threshold (1024 MB) of this cluster! Please check the values of 'yarn.scheduler.maximum-allocation-mb' and/or 'yarn.nodemanager.resource.memory-mb'.

        at org.apache.spark.deploy.yarn.Client.verifyClusterResources(Client.scala:281)

        at org.apache.spark.deploy.yarn.Client.submitApplication(Client.scala:140)

        at org.apache.spark.scheduler.cluster.YarnClientSchedulerBackend.start(YarnClientSchedulerBackend.scala:57)

        at org.apache.spark.scheduler.TaskSchedulerImpl.start(TaskSchedulerImpl.scala:151)

        at org.apache.spark.SparkContext.<init>(SparkContext.scala:538)

        at org.apache.spark.repl.SparkILoop.createSparkContext(SparkILoop.scala:1022)

        at $iwC$$iwC.<init>(<console>:15)

        at $iwC.<init>(<console>:25)

        at <init>(<console>:27)

        at .<init>(<console>:31)

        at .<clinit>(<console>)

        at .<init>(<console>:7)

        at .<clinit>(<console>)

        at $print(<console>)

        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)

        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)

        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)

        at java.lang.reflect.Method.invoke(Method.java:606)

        at org.apache.spark.repl.SparkIMain$ReadEvalPrint.call(SparkIMain.scala:1045)

        at org.apache.spark.repl.SparkIMain$Request.loadAndRun(SparkIMain.scala:1326)

        at org.apache.spark.repl.SparkIMain.loadAndRunReq$1(SparkIMain.scala:821)

        at org.apache.spark.repl.SparkIMain.interpret(SparkIMain.scala:852)

        at org.apache.spark.repl.SparkIMain.interpret(SparkIMain.scala:800)

        at org.apache.spark.repl.SparkILoop.reallyInterpret$1(SparkILoop.scala:857)

        at org.apache.spark.repl.SparkILoop.interpretStartingWith(SparkILoop.scala:902)

        at org.apache.spark.repl.SparkILoop.command(SparkILoop.scala:814)

        at org.apache.spark.repl.SparkILoopInit$$anonfun$initializeSpark$1.apply(SparkILoopInit.scala:125)

        at org.apache.spark.repl.SparkILoopInit$$anonfun$initializeSpark$1.apply(SparkILoopInit.scala:124)

        at org.apache.spark.repl.SparkIMain.beQuietDuring(SparkIMain.scala:305)

        at org.apache.spark.repl.SparkILoopInit$class.initializeSpark(SparkILoopInit.scala:124)

        at org.apache.spark.repl.SparkILoop.initializeSpark(SparkILoop.scala:64)


번호 제목 날짜 조회 수
136 select와 group by결과 값이 없는경우의 리턴 값이 다름 file 2016.02.05 3350
135 [Impala] alter table구문수행시 "WARNINGS: Impala does not have READ_WRITE access to path 'hdfs://nameservice1/DATA/Temp/DB/source/table01_ccd'" 발생시 조치 2024.04.26 3347
134 [jsoup]Jsoup Tutorial 2017.04.11 3341
133 ubuntu 커널 업그레이드 방법 2018.09.02 3340
132 [Mybatis]Spring과 연동하지 않고 Java+Mybatis 형태의 프로그램 샘플소스 2016.09.01 3338
131 elasticsearch에서 모든 인덱스(색인)을 삭제하는 방법 2019.06.09 3331
130 Hue Job Browser의 Queries탭에서 조건을 지정하는 방법 2018.05.10 3320
129 파일명 혹은 확장자 일괄 변경하는 방법 2017.01.26 3317
128 Core with name 'xx_shard4_replica1' already exists. 발생시 조치사항 2017.07.22 3314
127 Hive MetaStore Server기동시 Could not create "increment"/"table" value-generation container SEQUENCE_TABLE since autoCreate flags do not allow it. 오류발생시 조치사항 2017.05.03 3300
126 HDFS Balancer설정및 수행 2018.03.21 3299
125 Spark Streaming 코드레벨단에서의 성능개선 2016.10.31 3292
124 Apache Kudu에서 동일한 이름의 테이블을 반복적으로 DROP → CREATE → INSERT하는 로직을 2분 간격으로 10회 수행할 때 발생할 수 있는 주요 이슈 2025.01.26 3290
123 HBase 설정 최적화하기(VCNC) file 2017.07.18 3278
122 elasticsearch 1.3.0에서 rdf및 hadoop plugin설치 2016.04.06 3274
121 Ubuntu 16.04 LTS에 Hive 2.1.1설치하면서 "Version information not found in metastore"발생하는 오류원인및 조치사항 2017.05.03 3258
120 hadoop cluster구성된 노드를 확인시 Capacity를 보면 색이 붉은색으로 표시되어 있는 경우나 Unhealthy인 경우 처리방법 2017.08.30 3248
119 fuseki용 config-examples.ttl 예시 내용 2017.05.17 3247
118 elasticsearch 기동시 permission denied on key 'vm.max_map_count' 오류발생시 조치사항 2017.06.23 3230
117 Flume을 이용한 데이타 수집시 HBase write 성능 튜닝 file 2016.10.31 3228
위로