메뉴 건너뛰기

Cloudera, BigData, Semantic IoT, Hadoop, NoSQL

Cloudera CDH/CDP 및 Hadoop EcoSystem, Semantic IoT등의 개발/운영 기술을 정리합니다. gooper@gooper.com로 문의 주세요.


1. hdd를 추가하고 mounting한다.

https://www.gooper.com/ss/index.php?mid=bigdata&category=2772&document_srl=2984 를 참조할것..


2. /app/hdd 폴더밑에 hadoop폴더를 job을 수행할 계정(예, hadoop)으로 생성한다

    (혹시 start-all.sh기동후 hadoop폴더 밑에 생성된 폴더가 root계정으로 생성되면.. 

    chown -R hadoop:hadoop hadoop을 실행하여 모두 hadoop계정으로 전환시켜준다.)


3. conf파일들의 경로를 수정함

   가. core-site.xml

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>

<property>

   <name>fs.default.name</name>

   <value>hdfs://master:9000</value>

</property>

<property>

   <name>hadoop.tmp.dir</name>

   <!-- value>/tmp/hadoop-${user.name}</value -->

   <!-- value>/home/${user.name}/work/tmp</value -->

   <value>/app/hdd/hadoop/tmp</value>

</property>

</configuration>


   나. hdfs-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
   <name>ds.replication</name>
   <value>2</value>
</property>
<property>
   <name>dfs.name.dir</name>
   <!-- value>/home/hadoop/work/name</value -->
   <!-- value>/home/${user.name}/work/name</value -->
   <value>/app/hdd/hadoop/name</value>
</property>
<property>
   <name>dfs.data.dir</name>
   <!-- value>/home/hadoop/work/data</value -->
   <!-- value>/home/${user.name}/work/data</value -->
   <value>/app/hdd/hadoop/data</value>
</property>
<property>
   <name>dfs.support.append</name>
   <value>true</value>
</property>
<property>
   <name>dfs.permissions</name>
   <value>true</value>
</property>
</configuration>

   다. mapred-site.xml

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>

<property>

   <name>mapred.job.tracker</name>

   <value>hdfs://master:9001</value>

</property>

<property>

   <name>mapred.system.dir</name>

   <!-- value>/home/hadoop/work/mapred/system</value -->

   <!-- value>/home/${user.name}/work/mapred/system</value -->

   <value>/app/hdd/hadoop/mapred/system</value>

</property>

   <property>

      <name>hadoop.proxyuser.hadoop.groups</name>

      <!-- value>*</value -->

      <value>root,hadoop</value>

   </property>

   <property>

      <name>hadoop.proxyuser.hadoop.hosts</name>

      <value>*</value>

      <!-- value>localhost</value -->

   </property>

<property>

  <name>mapreduce.jobtracker.staging.root.dir</name>

  <!-- value>/home/hadoop/work/tmp/mapred/staging</value -->

  <value>/user</value>

</property>

</configuration>


4. namenode를 format

   hadoop namenode -format


5. 데몬을 모두 기동함

   start-all.sh


6. hdfs상에 /user밑으로 hadoop계정을 생성한다.

   hadoop fs -mkdir /user/hadoop을 생성함


7. test

번호 제목 날짜 조회 수
30 scan의 startrow, stoprow지정하는 방법 2015.04.08 4867
29 SASL configuration failed: javax.security.auth.login.LoginException: java.lang.NullPointerException 오류 해결방법 2015.04.02 3677
28 root가 localhost에서 mysql로 접근하지 못하는 경우의 해결방법(패스워드) 2014.09.10 4504
» hadoop의 data디렉토리를 변경하는 방법 2014.08.24 4160
26 access=WRITE, inode="staging":ubuntu:supergroup:rwxr-xr-x 오류 2014.07.05 4371
25 org.apache.hadoop.security.AccessControlException: Permission denied: user=hadoop, access=WRITE, inode="":root:supergroup:rwxr-xr-x 오류 처리방법 2014.07.05 5363
24 banana pi에(lubuntu)에 hadoop설치하고 테스트하기 - 성공 file 2014.07.05 5175
23 hadoop및 ecosystem에서 사용되는 명령문 정리 2014.05.28 6417
22 hbase shell에서 컬럼값 검색하기(SingleColumnValueFilter이용) 2014.04.25 4947
21 column family삭제시 Column family 'delete' does not exist오류 발생하는 경우 2014.04.14 4551
20 hadoop설치시 오류 2013.12.18 4949
19 hbase에 필요한 jar들 2013.04.01 4778
18 Hbase Shell 명령 정리 2013.04.01 5895
17 HBASE Client API : 기본 기능 정리 file 2013.04.01 5827
16 하둡 분산 파일 시스템을 기반으로 색인하고 검색하기 2013.03.15 7610
15 HBase, BigTable, Cassandra Schema Design file 2013.03.15 5276
14 HBase shell로 작업하기 2013.03.15 8316
13 org.apache.hadoop.hbase.PleaseHoldException: Master is initializing 2013.03.15 5287
12 Cacti로 Hadoop 모니터링 하기 file 2013.03.12 4881
11 HBase 설치하기 – Fully-distributed 2013.03.12 5992
위로