메뉴 건너뛰기

Cloudera, BigData, Semantic IoT, Hadoop, NoSQL

Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.


# Run application locally on 8 cores
./bin/spark-submit
  --class org.apache.spark.examples.SparkPi
  --master local[8]
  /path/to/examples.jar
  100

# Run on a Spark standalone cluster in client deploy mode
./bin/spark-submit
  --class org.apache.spark.examples.SparkPi
  --master spark://207.184.161.138:7077
  --executor-memory 20G
  --total-executor-cores 100
  /path/to/examples.jar
  1000

# Run on a Spark standalone cluster in cluster deploy mode with supervise
./bin/spark-submit
  --class org.apache.spark.examples.SparkPi
  --master spark://207.184.161.138:7077
  --deploy-mode cluster
  --supervise
  --executor-memory 20G
  --total-executor-cores 100
  /path/to/examples.jar
  1000

# Run on a YARN cluster
export HADOOP_CONF_DIR=XXX
./bin/spark-submit
  --class org.apache.spark.examples.SparkPi
  --master yarn
  --deploy-mode cluster   # can be client for client mode
  --executor-memory 20G
  --num-executors 50
  /path/to/examples.jar
  1000
 
# acutal example of running on a YARN cluster
./bin/spark-submit --class org.apache.spark.examples.SparkPi
--master yarn
--deploy-mode cluster
--driver-memory 4g
--executor-memory 2g
--executor-cores 1
--queue thequeue
lib/spark-examples*.jar
10 

# Run a Python application on a Spark standalone cluster
./bin/spark-submit
  --master spark://207.184.161.138:7077
  examples/src/main/python/pi.py
  1000

# Run on a Mesos cluster in cluster deploy mode with supervise
./bin/spark-submit
  --class org.apache.spark.examples.SparkPi
  --master mesos://207.184.161.138:7077
  --deploy-mode cluster
  --supervise
  --executor-memory 20G
  --total-executor-cores 100
  http://path/to/examples.jar
  1000
 
# Run a spark-shell on a YARN cluster
./bin/spark-shell --master yarn --deploy-mode client

번호 제목 날짜 조회 수
41 파일끝에 붙는 ^M 일괄 지우기(linux, unix(AIX)) 혹은 파일내에 있는 ^M지우기 2016.09.24 2397
40 JavaStreamingContext를 이용하여 스트림으로 들어오는 문자열 카운트 소스 2017.03.30 2551
39 Spark에서 KafkaUtils.createStream()를 이용하여 이용하여 kafka topic에 접근하여 객채로 저장된 값을 가져오고 처리하는 예제 소스 2017.04.26 2802
38 spark-shell실행시 "A read-only user or a user in a read-only database is not permitted to disable read-only mode on a connection."오류가 발생하는 경우 해결방법 2016.05.20 2953
37 spark 2.0.0의 api를 이용하는 예제 프로그램 2017.03.15 3108
36 spark-sql실행시 ERROR log: Got exception: java.lang.NumberFormatException For input string: "2000ms" 오류발생시 조치사항 2016.06.09 3135
35 spark2.0.0에서 hive 2.0.1 table을 읽어 출력하는 예제 소스(HiveContext, SparkSession, SQLContext) 2017.03.09 3254
34 Could not compute split, block input-0-1517397051800 not found형태의 오류가 발생시 조치방법 2018.02.01 3290
33 ./spark-sql 실행시 "java.lang.NumberFormatException: For input string: "1s"오류발생시 조치사항 2016.06.09 3300
32 spark 2.0.0를 windows에서 실행시 로컬 파일을 읽을때 발생하는 오류 해결 방법 2017.01.12 3375
31 참고할만한 spark예제를 설명하는 사이트 2016.11.11 3411
30 How-to: Tune Your Apache Spark Jobs (Part 2) file 2016.10.31 3457
29 Spark Streaming으로 유실 없는 스트림 처리 인프라 구축하기 2016.03.11 3462
28 spark stream처리할때 두개의 client프로그램이 동일한 checkpoint로 접근할때 발생하는 오류 내용 2018.01.16 3537
27 spark notebook 0.7.0설치및 설정 2016.11.14 3575
26 spark-submit 실행시 "java.lang.OutOfMemoryError: Java heap space"발생시 조치사항 2018.02.01 3711
25 kafka로 부터 메세지를 stream으로 받아 처리하는 spark샘플소스(spark의 producer와 consumer를 sbt로 컴파일 하고 서버에서 spark-submit하는 방법) 2016.07.13 3719
24 Caused by: java.lang.ClassNotFoundException: org.apache.spark.Logging 발생시 조치사항 2017.04.19 3752
23 spark에서 hive table을 읽어 출력하는 예제 소스 2017.03.09 3791
22 Scala를 이용한 Streaming예제 2018.03.08 3839
위로