메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


이클립스에서 생성한 jar 파일 hadoop 으로 실행하기

이클립스로 (maven) 생성한 jar 파일을 hadoop 으로 실행해보자

hadoop 설치 및 프로젝트 jar 생성은 이전 포스팅을 참고하시길

Hadoop(하둡) 설치 및 시작 따라하기

메이븐 (maven) 설치 및 이클립스 연동하기 쉬운설명

Hadoop (하둡) wordcount 예제 소스

그럼 바로 시작 고고~

jar파일 실행 준비

'ExWordCount.jar' 파일을 하둡으로 실행해 보도록 하겠다.

먼저 실행을 위한 준비작업을 해야한다.

알FTP 를 이용하여(등 다른방법 알아서^^;) ExWordCount.jar 파일을 하둡이 설치된 리눅스 단으로 복사한다.

이동 방법은 굳이 설명하지 않겠다.

필요하신분은 받으시라고 올려둔다.

직접 만들어서 실행해 보는데 의미가 있긴하지만..

ExWordCount.jar

패키지명 : kr.bigmark.wordcount

프로젝트명 : WordCount

PuTTY 를 이용하여 하둡폴더가 설치된 곳으로 이동하여 ExWordCount.jar 파일이 잘있는지 확인한다.(안녕?)

위 그림에 'ExWordCount.jar 파일이 직접 생성한 jar 파일이다.

ExWordCount 를 실행하기 전에

wordcount 에 필요한 파일들을 먼저 만들어 보겠다.

# vi test01

test hadoop hadoop mywork goodjob

# vi test02

hadoop easy hadoop puhaha test

이렇게 두개의 파일을 만들고

input 폴더를 생성하여 안에 test01, test02 를 넣어준다.

# mkdir input/

# mv test01 input/

# mv test02 input/

# ls input/

입력하여 'input' 폴더안에 test01, test02 파일이 정상적으로 들어있는지 확인하자

jar 파일 실행 및 결과확인

준비가 모두 완료되었으면 실행을 해보자

# hadoop jar ExWordCount.jar kr.bigmark.wordcount.WordCount input/ output/

(hadoop jar jar파일명 패키지명.프로젝트명 입력폴더 출력폴더) 순으로 입력한다.

실행이 완료되면 출력폴더인 'output' 폴더에 _SUCCESS, part-00000 파일이 생성되어 있을 것이다.

그럼 결과를 확인해보자.

# cat output/*

결과를 보면 input 폴더에 있는 파일들의 wordcount (단어갯수) 를 파악하여 출력하는 것을 확인할 수 있다.

번호 제목 글쓴이 날짜 조회 수
299 console명령과 API비교 총관리자 2015.12.21 120
298 HBase 설정 최적화하기(VCNC) file 총관리자 2017.07.18 120
297 producer / consumer구현시 설정 옵션 설명 총관리자 2016.10.19 121
296 [Kudu]Schema별 혹은 테이블별 사용량(Replica포함) 구하는 방법 gooper 2022.07.14 121
295 [TLS]pkcs12형식의 인증서 생성및 jks형식 인증서 생성 커맨드 예시 총관리자 2022.03.15 123
294 start-all.sh로 spark데몬 기동시 "JAVA_HOME is not set"오류 발생시 조치사항 총관리자 2016.08.01 126
293 streaming작업시 입력된 값에 대한 사본을 만들게 되는데 이것이 실패했을때 발생하는 경고메세지 총관리자 2017.04.03 126
292 JavaStreamingContext를 이용하여 스트림으로 들어오는 문자열 카운트 소스 총관리자 2017.03.30 128
291 hadoop nfs gateway설정 (Cloudera 6.3.4, CentOS 7.4 환경에서) 총관리자 2022.01.07 128
290 like검색한 결과를 기준으로 집계를 수행하는 java 소스 총관리자 2016.12.19 129
289 ./spark-sql 실행시 "java.lang.NumberFormatException: For input string: "1s"오류발생시 조치사항 총관리자 2016.06.09 132
288 [oozie] oozie shell action에서 shellscript수행결과의 2개 변수를 decision 액션에서 사용하기 총관리자 2020.06.05 133
287 scala application 샘플소스(SparkSession이용) 총관리자 2018.03.07 135
286 Spark Streaming으로 유실 없는 스트림 처리 인프라 구축하기 총관리자 2016.03.11 137
285 SQL문장과 Mongo에서 사용하는 명령어를 비교한 것입니다. 총관리자 2015.09.30 141
284 Cluster Install -> Provide Login Credentials에서 root가 아닌 다른 사용자를 지정하는 경우 "Exhausted available authentication methods"오류 발생시 조치방법 총관리자 2018.05.22 142
283 서버중 slave,worker,regionserver만 재기동해야 할때 필요한 기동스크립트및 사용방법 총관리자 2017.02.03 143
282 mongodb에서 큰데이타 sort시 오류발생에 대한 해결방법 총관리자 2015.12.22 145
281 Apache Toree설치(Jupyter에서 Scala, PySpark, SparkR, SQL을 사용할 수 있도록 하는 Kernel) 총관리자 2018.04.17 146
280 Cloudera의 API를 이용하여 impala의 실행되었던 쿼리 확인하는 예시 총관리자 2018.05.03 148

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로