Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다.
문의사항은 gooper@gooper.com로 메일을
보내주세요.
kinit -kt /var/lib/keytab/hdfs.keytab hdfs
hdfs fsck / -list-corruptfileblocks
수행결과 :
Connecting to namenode via http://namenode01.gooper.com:9870/fsck?ugi=hadoop&listcorruptfileblocks=1&path=%2F
The list of corrupt files under path '/' are:
blk_1073743651 /test/hdfs/test_terasort/pat-r-00196
The filesystem under path '/' has 1 CORRUPT files
조치하는 2가지 방법
### 1. /lost+found 디렉터리로 corrupt 파일 이동
$ hdfs fsck / -move
### 2. corrupt 파일 삭제
$ hdfs fsck / -delete
댓글 0
번호 | 제목 | 글쓴이 | 날짜 | 조회 수 |
---|---|---|---|---|
681 | dual table만들기 | 총관리자 | 2014.05.16 | 826 |
680 | 특정파일이 생성되어야 action이 실행되는 oozie job만들기(coordinator.xml) | 총관리자 | 2014.05.20 | 984 |
679 | source의 type을 spooldir로 하는 경우 해당 경로에 파일이 들어오면 파일단위로 전송함 | 총관리자 | 2014.05.20 | 687 |
678 | hive에서 insert overwrite directory.. 로 하면 default column구분자는 'SOH'혹은 't'가 됨 | 총관리자 | 2014.05.20 | 999 |
677 | import 혹은 export할때 hive파일의 default 구분자는 --input-fields-terminated-by " |