메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


*출처 : http://cdecl.tistory.com/307


1. 다운로드

https://github.com/karthikj1/Hadoop-2.7.1-Windows-64-binaries/releases


2. 성치

가. 다운로드 받은 파일(hadoop-2.7.1.tar.gz)을 적절한 위치(예, C:devhadoop)에 복사하고 압축을 푼다.


3. 환경변수를 설정한다.

가. HADOOP_HOME=C:devhadoophadoop-2.7.1

나. JAVA_HOME=(필요시)

다. PATH=%PATH%;C:devhadoophadoop-2.7.1bin


4. Hadoop 설정

가. %HADOOP_HOME%etchadoopcore-site.xml
- Hadoop 인터페이스 서비스 URI 설정
- 외부로 서비스 노출 하고  싶다면 hdfs://0.0.0.0:9000 으로 세팅


<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>


나. %HADOOP_HOME%etchadoophdfs-site.xml
- dfs.replication 블록 복제, 파일 복제 개수를 지정
- namenode 와 datanode 의 경로를 지정 (옵션), 지정하지 않으면 /tmp 밑에 생성함
- file:/ 이 경로는 현재 드라이브 루트를 의미 (c: or d:)


<configuration>
 <property>
  <name>dfs.replication</name>
  <value>1</value>
 </property>
 <property>
  <name>dfs.namenode.name.dir</name>
  <value>file:/hadoop/data/dfs/namenode</value>
 </property>
 <property>
  <name>dfs.datanode.data.dir</name>
  <value>file:/hadoop/data/dfs/datanode</value>
 </property>
</configuration>


다. %HADOOP_HOME%etchadoopyarn-site.xml

- yarn 설정 및 hadoop 어플리케이션 classpath 설정


<configuration>
    <property>
       <name>yarn.nodemanager.aux-services</name>
       <value>mapreduce_shuffle</value>
    </property>
    <property>
       <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
       <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
    <property>
       <name>yarn.application.classpath</name>
       <value>
            %HADOOP_HOME%etchadoop,
            %HADOOP_HOME%sharehadoopcommon*,
            %HADOOP_HOME%sharehadoopcommonlib*,
            %HADOOP_HOME%sharehadoopmapreduce*,
            %HADOOP_HOME%sharehadoopmapreducelib*,
            %HADOOP_HOME%sharehadoophdfs*,
            %HADOOP_HOME%sharehadoophdfslib*,        
            %HADOOP_HOME%sharehadoopyarn*,
            %HADOOP_HOME%sharehadoopyarnlib*
       </value>
    </property>
</configuration>


라. %HADOOP_HOME%etchadoopmapred-site.xml
- 맵리듀스 런타임 프레임웍 설정


<configuration>
    <property>
       <name>mapreduce.framework.name</name>
       <value>yarn</value>
    </property>
</configuration>


5. Namenode를 format한다.

%HADOOP_HOME%binhdfs namenode -format


6. HDFS, YARN 데몬 실행

%HADOOP_HOME%sbinstart-dfs
%HADOOP_HOME%sbinstart-yarn

--> console창이 각각 2개씩 총 4개가 실행되면서 각각의 서비스 시작됨


7. 서비스 확인

- http://localhost:8042 - Resource Manager and Node Manager :
- http://localhost:50070 - Namenode

* http://localhost:9000 - Service URI


8. test

가. hdfs dfs -mkdir -p /user/gooper/data

나. hdfs dfs -ls /

다. hdfs dfs -put c:tmpdata* /user/gooper/data

라. hdfs dfs -ls /user/gooper/data

번호 제목 글쓴이 날짜 조회 수
571 TransmitData() to failed: Network error: Recv() got EOF from remote (error 108) 오류 현상 총관리자 2019.02.15 140
570 [Oozie]Disk I/O error: Failed to open HDFS file dhfs://..../tb_aaa/....OPYING 총관리자 2019.02.15 152
569 kafka에서 메세지 중복 consume이 발생할 수 있는 상황 총관리자 2018.10.23 152
568 [sentry]role부여후 테이블명이 변경되어 오류가 발생할때 조치방법 총관리자 2018.10.16 123
567 hive metastore ERD file 총관리자 2018.09.20 382
566 Error: java.lang.RuntimeException: java.lang.OutOfMemoryError 오류가 발생하는 경우 총관리자 2018.09.20 105
565 physical memory used되면서 mapper가 kill되는 경우 오류 발생시 조치 총관리자 2018.09.20 1021
564 impala,hive및 hdfs만 접근가능하고 파일을 이용한 테이블생성가능하도록 hue 권한설정설정 총관리자 2018.09.17 258
563 cloudera(python 2.7.5)에서 anaconda3로 설치한 외부 python(3.6.6)을 이용하여 pyspark를 사용하는 설정 총관리자 2018.09.14 760
562 ntp시간 맞추기 총관리자 2018.09.12 189
561 ubuntu 커널 업그레이드 방법 총관리자 2018.09.02 1016
560 oracle to hive data type정리표 총관리자 2018.08.22 318
559 postgresql-9.4에서 FATAL: remaining connection slots are reserved for non-replication superuser connections가 나올때 조치 총관리자 2018.08.16 696
558 sentry설정 방법및 활성화시 설정이 필요한 파일및 설정값, 계정생성 방법 총관리자 2018.08.16 377
557 컬럼및 라인의 구분자를 지정하여 sqoop으로 데이타를 가져오고 hive테이블을 생성하는 명령문 총관리자 2018.08.03 186
556 sqoop으로 mariadb에 접근해서 hive 테이블로 자동으로 생성하기 총관리자 2018.08.03 450
555 Last transaction was partial에 따른 Unable to load database on disk오류 발생시 조치사항 총관리자 2018.08.03 1099
554 RHEL 7.4에 zeppelin 0.7.4 설치 총관리자 2018.07.31 136
553 conda를 이용한 jupyterhub(v0.9)및 jupyter설치 (v4.4.0) 총관리자 2018.07.30 213
552 anaconda3 (v5.2) 설치및 머신러닝 관련 라이브러리 설치 절차 총관리자 2018.07.27 217

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로