메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


Hadoop 메이븐 (maven) 설치 및 이클립스 연동하기

구퍼 2013.03.06 09:42 조회 수 : 2280

이번에 하둡 프로젝트를 하게 되면서 이클립스 메이븐 (maven) 을 사용하게 되었다.

메이븐 설치 방법은 어렵지 않으나

한 사이트에 깔끔하게 정리된곳을 찾기 힘들어 포스팅 해본다.

그전에 하둡 설치가 안되어있다면..

Hadoop(하둡) 설치 및 시작 따라하기

메이븐 다운로드 및 설치하기

메이븐은 다음 사이트에서 다운로드 받을 수 있다.

http://maven.apache.org/download.html

다운로드 페이지에서 Maven 3.0.4 (Binary zip) - apache-maven-3.0.4-bin.zip 을 다운 받는다. (현재 최신버전)

다운받은 zip 파일을 원하는 경로로 이동하여 압축해제 한다.

환경변수 등록 및 확인

다음으로 maven을 환경변수에 등록하여야 한다.

컴퓨터 - 속성 - 고급시스템설정 - 고급탭 - 환경변수 를 클릭하여 환경변수 창으로 이동한다.

시스템 변수 - 새로만들기 를 클릭하여

위 그림과 같이 변수 이름과 변수 값을 입력한다.

변수 이름 : MAVEN_HOME

변수 값 : C:apache-maven-3.0.4 (압축해제한 경로)

시스템 변수 Path를 선택하여 메이븐 경로를 다음과 같이 등록한다.

%MAVEN_HOME%bin;

환경변수 등록이 완료 되었으면 커맨드창(cmd) 에서 'mvn -version'을 입력하여 메이븐이 정상적으로 실행되는지 확인한다.

이클립스 m2eclipse 플러그인 설치 및 연동

이클립스를 실행하여 상단메뉴의

'Help - Install New Software..' 를 클릭한다.

Work With 란에 http://m2eclipse.sonatype.org/sites/m2e 입력하여

검색된 Maven Intergration for Eclipse 를 선택하여 설치한다.

설치가 완료되면 이클립스가 재부팅 된다.

다시한번 'Help - Install New Software..' 를 클릭한다.

Work With 란에 http://m2eclipse.sonatype.org/sites/m2e-extras 입력하여

검색된 인스톨 항목중 'Maven Integration for Eclipse Extras'와 'Maven Integration for Eclipse WTP' 를 체크하여 설치한다.

설치가 완료되면 이클립스가 재부팅된다.

이클립스 상단메뉴의 'window - preference' 를 클릭한다.

'User Settings - Browse..' 버튼을 클릭하여

메이븐 경로의 하단폴더인 confsettings.xml 을 지정하고 Apply - OK 버튼을 차례로 눌려 적용한다.

이상으로 메이븐 설치 및 연동이 완료되었다.

이클립스 실행 시 경고창이 나올경우

이클립스 실행시 아래과 같은 경고창이 나올경우

Maven Integration for Eclipse JDK Warning
The Maven Integration requires that Eclipse be running in a JDK, because a number of Maven core plugins are using jars from the JDK.

Please make sure the -vm option in eclipse.ini is pointing to a JDK and verify that Installed JREs are also using JDK installs.

eclipse.ini에서 -vm옵션으로 JDK를 설정해주어야 한다.

이클립스 폴더내의 eclipse.ini 파일을 열고

위 그림처럼 다음 설정을 추가한다.

-vm
C:Program FilesJavajdk1.7.0_02bin

java가 설치된 곳의 jdkbin 경로로 설정하면된다.

번호 제목 글쓴이 날짜 조회 수
130 [Impala] alter table구문수행시 "WARNINGS: Impala does not have READ_WRITE access to path 'hdfs://nameservice1/DATA/Temp/DB/source/table01_ccd'" 발생시 조치 gooper 2024.04.26 0
129 [CDP7.1.7, Hive Replication]Hive Replication진행중 "The following columns have types incompatible with the existing columns in their respective positions " 오류 gooper 2023.12.27 7
128 [CDP7.1.7]Oozie job에서 ERROR: Kudu error(s) reported, first error: Timed out: Failed to write batch of 774 ops to tablet 8003f9a064bf4be5890a178439b2ba91가 발생하면서 쿼리가 실패하는 경우 gooper 2024.01.05 7
127 [CDP7.1.7]impala-shell수행시 간헐적으로 "-k requires a valid kerberos ticket but no valid kerberos ticket found." 오류 gooper 2023.11.16 11
126 임시 테이블에서 데이터를 읽어서 partitioned table에 입력하는 impala SQL문 예시 gooper 2023.11.10 16
125 [impala]insert into db명.table명 select a, b from db명.table명 쿼리 수행시 "Memory limit exceeded: Failed to allocate memory for Parquet page index"오류 조치 방법 gooper 2023.05.31 21
124 not leader of this config: current role FOLLOWER 오류 발생시 확인방법 총관리자 2022.01.17 23
123 kudu table와 impala(hive) table정보가 틀어져서 테이블을 읽지 못하는 경우(Error Loading Metadata) 조치방법 gooper 2023.11.10 25
122 [CDP7.1.7]Impala Query의 Memory Spilled 양은 ScratchFileUsedBytes값을 누적해서 구할 수 있다. gooper 2022.07.29 29
121 [Cloudera 6.3.4, Kudu]]Service Monitor에서 사용하는 metric중에 일부를 blacklist로 설정하여 모니터링 정보 수집 제외하는 방법 gooper 2022.07.08 31
120 Failed to write to server: (no server available): 총관리자 2022.01.17 32
119 AnalysisException: Incomplatible return type 'DECIMAL(38,0)' and 'DECIMAL(38,5)' of exprs가 발생시 조치 총관리자 2021.07.26 34
118 spark에서 hive table을 읽어 출력하는 예제 소스 총관리자 2017.03.09 35
117 [TLS/SSL]Kudu Tablet Server설정 총관리자 2022.05.13 35
116 spark에서 hive table을 읽어 출력하는 예제 소스 총관리자 2017.03.09 37
115 [KUDU] kudu tablet server여러가지 원인에 의해서 corrupted상태가 된 경우 복구방법 gooper 2023.03.28 37
114 [CDP7.1.7]impala-shell을 이용하여 kudu table에 insert/update수행시 발생하는 오류(Transport endpoint is not connected (error 107)) 발생시 확인할 내용 gooper 2023.11.30 41
113 spark 온라인 책자링크 (제목 : mastering-apache-spark) 총관리자 2016.05.25 48
112 [Impala jdbc]CDP7.1.7환경에서 java프로그램을 이용하여 kerberized impala cluster에 접근하여 SQL을 수행하는 방법 gooper 2023.08.22 54
111 [hive] hive.tbls테이블의 owner컬럼값은 hadoop.security.auth_to_local에 의해서 filtering된다. 총관리자 2022.04.14 55

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로