메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


Hadoop 메이븐 (maven) 설치 및 이클립스 연동하기

구퍼 2013.03.06 09:42 조회 수 : 2280

이번에 하둡 프로젝트를 하게 되면서 이클립스 메이븐 (maven) 을 사용하게 되었다.

메이븐 설치 방법은 어렵지 않으나

한 사이트에 깔끔하게 정리된곳을 찾기 힘들어 포스팅 해본다.

그전에 하둡 설치가 안되어있다면..

Hadoop(하둡) 설치 및 시작 따라하기

메이븐 다운로드 및 설치하기

메이븐은 다음 사이트에서 다운로드 받을 수 있다.

http://maven.apache.org/download.html

다운로드 페이지에서 Maven 3.0.4 (Binary zip) - apache-maven-3.0.4-bin.zip 을 다운 받는다. (현재 최신버전)

다운받은 zip 파일을 원하는 경로로 이동하여 압축해제 한다.

환경변수 등록 및 확인

다음으로 maven을 환경변수에 등록하여야 한다.

컴퓨터 - 속성 - 고급시스템설정 - 고급탭 - 환경변수 를 클릭하여 환경변수 창으로 이동한다.

시스템 변수 - 새로만들기 를 클릭하여

위 그림과 같이 변수 이름과 변수 값을 입력한다.

변수 이름 : MAVEN_HOME

변수 값 : C:apache-maven-3.0.4 (압축해제한 경로)

시스템 변수 Path를 선택하여 메이븐 경로를 다음과 같이 등록한다.

%MAVEN_HOME%bin;

환경변수 등록이 완료 되었으면 커맨드창(cmd) 에서 'mvn -version'을 입력하여 메이븐이 정상적으로 실행되는지 확인한다.

이클립스 m2eclipse 플러그인 설치 및 연동

이클립스를 실행하여 상단메뉴의

'Help - Install New Software..' 를 클릭한다.

Work With 란에 http://m2eclipse.sonatype.org/sites/m2e 입력하여

검색된 Maven Intergration for Eclipse 를 선택하여 설치한다.

설치가 완료되면 이클립스가 재부팅 된다.

다시한번 'Help - Install New Software..' 를 클릭한다.

Work With 란에 http://m2eclipse.sonatype.org/sites/m2e-extras 입력하여

검색된 인스톨 항목중 'Maven Integration for Eclipse Extras'와 'Maven Integration for Eclipse WTP' 를 체크하여 설치한다.

설치가 완료되면 이클립스가 재부팅된다.

이클립스 상단메뉴의 'window - preference' 를 클릭한다.

'User Settings - Browse..' 버튼을 클릭하여

메이븐 경로의 하단폴더인 confsettings.xml 을 지정하고 Apply - OK 버튼을 차례로 눌려 적용한다.

이상으로 메이븐 설치 및 연동이 완료되었다.

이클립스 실행 시 경고창이 나올경우

이클립스 실행시 아래과 같은 경고창이 나올경우

Maven Integration for Eclipse JDK Warning
The Maven Integration requires that Eclipse be running in a JDK, because a number of Maven core plugins are using jars from the JDK.

Please make sure the -vm option in eclipse.ini is pointing to a JDK and verify that Installed JREs are also using JDK installs.

eclipse.ini에서 -vm옵션으로 JDK를 설정해주어야 한다.

이클립스 폴더내의 eclipse.ini 파일을 열고

위 그림처럼 다음 설정을 추가한다.

-vm
C:Program FilesJavajdk1.7.0_02bin

java가 설치된 곳의 jdkbin 경로로 설정하면된다.

번호 제목 글쓴이 날짜 조회 수
61 small file 한개 파일로 만들기(text file 혹은 parquet file의 테이블) gooper 2022.07.04 76
60 [Cloudera 6.3.4, Kudu]]Service Monitor에서 사용하는 metric중에 일부를 blacklist로 설정하여 모니터링 정보 수집 제외하는 방법 gooper 2022.07.08 31
59 [Kudu]Schema별 혹은 테이블별 사용량(Replica포함) 구하는 방법 gooper 2022.07.14 121
58 [CDP7.1.7]Impala Query의 Memory Spilled 양은 ScratchFileUsedBytes값을 누적해서 구할 수 있다. gooper 2022.07.29 29
57 [kerberos]Kerberos HA구성 참고 페이지 gooper 2022.08.31 15
56 Oracle 12c DB의 LOB타입 컬럼이 있는 테이블을 import할 때 주의 할 사항 gooper 2022.09.14 179
55 [Kerberos인증] /var/log/krb5kdc.log파일 기준으로 인증요청(AS), 티켓확인(TGS)이 진행되는 로그 기록 gooper 2022.09.21 36
54 [impala]쿼리 수행중 발생하는 오류(due to memory pressure: the memory usage of this transaction, Failed to write to server) gooper 2022.10.05 67
53 kerberos연동된 CDH 6.3.4에서 default realm값이 잘못된 상태에서 서비스 기동시 오류 gooper 2022.10.14 36
52 kudu의 내부 table명 변경하는 방법 gooper 2022.11.10 22
51 [oozie]oozie ssh action으로 패스워드 없이 다른 서버에 ssh로그인 하여 shellscript호출하는 설정하는 방법 gooper 2022.11.10 29
50 [Impala 3.2버젼]compute incremental stats db명.테이블명 수행시 ERROR: AnalysisException: Incremental stats size estimate exceeds 2000.00MB. 오류 발생원인및 조치방안 gooper 2022.11.30 697
49 [HA구성 이슈]oozie 2대를 L4로 HA구성했을때 발생하는 이슈 gooper 2023.01.17 17
48 [Kerberos]병렬 kinit 호출시 cache파일이 손상되어 Bad format in credentials cache 혹은 No credentials cache found 혹은 Internal credentials cache error 오류 발생시 gooper 2023.01.20 32
47 [Impala TLS/SSL이슈]RangerAdminRESTClient.java:151] Failed to get response, Error is: TrustManager is not specified gooper 2023.02.02 106
46 [ftgo_application]Unable to infer base url오류 발생시 조치방법 gooper 2023.02.20 1371
45 ./gradlew :composeDown 및 ./gradlew :composeUp 를 성공했을때의 메세지 gooper 2023.02.20 6
44 호출 url현황 gooper 2023.02.21 6
43 [Hive canary]Hive에 Metastore canary red alert및 hive log파일에 Duplicate entry '123456' for key 'NOTIFICATION_LOG_EVENT_ID'가 발생시 조치사항 gooper 2023.03.10 67
42 hive의 메타정보 테이블을 MariaDB로 사용하는 경우 table comment나 column comment에 한글 입력시 깨지는 경우 utf8로 바꾸는 방법. gooper 2023.03.10 93

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로