메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


1. hdd를 추가하고 mounting한다.

https://www.gooper.com/ss/index.php?mid=bigdata&category=2772&document_srl=2984 를 참조할것..


2. /app/hdd 폴더밑에 hadoop폴더를 job을 수행할 계정(예, hadoop)으로 생성한다

    (혹시 start-all.sh기동후 hadoop폴더 밑에 생성된 폴더가 root계정으로 생성되면.. 

    chown -R hadoop:hadoop hadoop을 실행하여 모두 hadoop계정으로 전환시켜준다.)


3. conf파일들의 경로를 수정함

   가. core-site.xml

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>

<property>

   <name>fs.default.name</name>

   <value>hdfs://master:9000</value>

</property>

<property>

   <name>hadoop.tmp.dir</name>

   <!-- value>/tmp/hadoop-${user.name}</value -->

   <!-- value>/home/${user.name}/work/tmp</value -->

   <value>/app/hdd/hadoop/tmp</value>

</property>

</configuration>


   나. hdfs-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
   <name>ds.replication</name>
   <value>2</value>
</property>
<property>
   <name>dfs.name.dir</name>
   <!-- value>/home/hadoop/work/name</value -->
   <!-- value>/home/${user.name}/work/name</value -->
   <value>/app/hdd/hadoop/name</value>
</property>
<property>
   <name>dfs.data.dir</name>
   <!-- value>/home/hadoop/work/data</value -->
   <!-- value>/home/${user.name}/work/data</value -->
   <value>/app/hdd/hadoop/data</value>
</property>
<property>
   <name>dfs.support.append</name>
   <value>true</value>
</property>
<property>
   <name>dfs.permissions</name>
   <value>true</value>
</property>
</configuration>

   다. mapred-site.xml

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>

<property>

   <name>mapred.job.tracker</name>

   <value>hdfs://master:9001</value>

</property>

<property>

   <name>mapred.system.dir</name>

   <!-- value>/home/hadoop/work/mapred/system</value -->

   <!-- value>/home/${user.name}/work/mapred/system</value -->

   <value>/app/hdd/hadoop/mapred/system</value>

</property>

   <property>

      <name>hadoop.proxyuser.hadoop.groups</name>

      <!-- value>*</value -->

      <value>root,hadoop</value>

   </property>

   <property>

      <name>hadoop.proxyuser.hadoop.hosts</name>

      <value>*</value>

      <!-- value>localhost</value -->

   </property>

<property>

  <name>mapreduce.jobtracker.staging.root.dir</name>

  <!-- value>/home/hadoop/work/tmp/mapred/staging</value -->

  <value>/user</value>

</property>

</configuration>


4. namenode를 format

   hadoop namenode -format


5. 데몬을 모두 기동함

   start-all.sh


6. hdfs상에 /user밑으로 hadoop계정을 생성한다.

   hadoop fs -mkdir /user/hadoop을 생성함


7. test

번호 제목 글쓴이 날짜 조회 수
319 spark 온라인 책자링크 (제목 : mastering-apache-spark) 총관리자 2016.05.25 48
318 spark-submit으로 spark application실행하는 다양한 방법 총관리자 2016.05.25 303
317 spark client프로그램 기동시 "Error initializing SparkContext"오류 발생할때 조치사항 총관리자 2016.05.27 539
316 Job이 끝난 log을 볼수 있도록 설정하기 총관리자 2016.05.30 403
315 Scala버젼 변경 혹은 상황에 맞게 Spark소스 컴파일하기 총관리자 2016.05.31 67
314 hive 2.0.1 설치및 mariadb로 metastore 설정 총관리자 2016.06.03 5184
313 impala 설치/설정 총관리자 2016.06.03 1029
312 Caused by: java.net.URISyntaxException: Relative path in absolute URI: ${system:java.io.tmpdir%7D/$%7Bsystem:user.name%7D오류발생시 조치사항 총관리자 2016.06.03 1141
311 beeline실행시 User: root is not allowed to impersonate오류 발생시 조치사항 총관리자 2016.06.03 759
310 ./spark-sql 실행시 "java.lang.NumberFormatException: For input string: "1s"오류발생시 조치사항 총관리자 2016.06.09 132
309 spark-sql실행시 The specified datastore driver ("com.mysql.jdbc.Driver") was not found in the CLASSPATH오류 발생시 조치사항 총관리자 2016.06.09 445
308 spark-sql실행시 Caused by: java.lang.NumberFormatException: For input string: "0s" 오류발생시 조치사항 총관리자 2016.06.09 2802
307 spark-sql실행시 ERROR log: Got exception: java.lang.NumberFormatException For input string: "2000ms" 오류발생시 조치사항 총관리자 2016.06.09 167
306 avro 사용하기(avsc 스키마 파일 컴파일 방법, consumer, producer샘플소스) 총관리자 2016.07.08 1270
305 kafka로 부터 메세지를 stream으로 받아 처리하는 spark샘플소스(spark의 producer와 consumer를 sbt로 컴파일 하고 서버에서 spark-submit하는 방법) 총관리자 2016.07.13 630
304 org.apache.hadoop.hbase.ClockOutOfSyncException: org.apache.hadoop.hbase.ClockOutOfSyncException 오류시 조치사항 총관리자 2016.07.14 62
303 Apache Spark와 Drools를 이용한 CEP구현 테스트 총관리자 2016.07.15 342
302 Journal Storage Directory /data/hadoop/journal/data/mycluster not formatted 오류시 조치사항 총관리자 2016.07.29 1518
301 hadoop클러스터를 구성하던 서버중 HA를 담당하는 서버의 hostname등이 변경되어 문제가 발생했을때 조치사항 총관리자 2016.07.29 362
300 start-all.sh로 spark데몬 기동시 "JAVA_HOME is not set"오류 발생시 조치사항 총관리자 2016.08.01 126

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로