메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


  1. 기존에 banana pi에 외장하드, SDcard가 장착되고 SDcard를 통해서 부팅중인 경우에 변경하는 방법임
  2. banana pi를 부팅한다.
  3. mkdir /mnt/root 로 root폴더를 만든다
  4. mkdir /mnt/root2 로 root2폴더를 만든다
  5. mount /dev/mmcblk0p2 /mnt/root 로 마운트를 시킨다
  6. mount /dev/sda1 /mnt/root2로 마운트 시킨다
  7. cp -arf /mnt/root/* /mnt/root2/로 복사하려는 내용을 모두 복사한다
  8. halt구문으로 banana pi를 끈다
  9. SDCard를 꺼내서 windows컴퓨터에서 넣는다.
  10. Windows탐색기에서 여러파일들(script.bin, uEnv.txt, uImage)을 볼수 있는다. 그중에서 uEnv.txt파일을 열어서 수정한다
  11. uEnv.txt내용중 root=/dev/mmcblk0p2을 /dev/sda1로 바꾸고 저장한다.
aload_script=fatload $device $partition 0x43000000 /script.bin;
aload_kernel=fatload $device $partition 0x48000000 /uImage;bootm 0x48000000
uenvcmd=run aload_script aload_kernel
bootargs=console=ttyS0,115200 console=tty0 disp.screen0_output_mode=EDID:1280x720p60 hdmi.audio=EDID:0 root=/dev/mmcblk0p2 rootfstype=ext4 elevator=deadline rootwait

 

  1. SDCard를 다시 banana pi에 다시 장착한다.
  2. 부팅한다.

 

-------------------------------------------------------------------------------------------------------------------------------------

참고적으로 hadoop의 home디렉토리를 /home/hadoop 이외의 경로로 변경했다면 /home/hadoop위치로 변경해주고 해야 한다.

  1. root로 ssh접속이 가능하도록 /etc/ssh/sshd_config파일을 수정한다(root로 실행한다)
  • vi /etc/ssh/sshd_config
  • PermitRootLogin without-password에서 without-password를 yes로 변경
  • service ssh restart로 ssh를 다시 기동해준다.
  • root로 ssh로그인한다
  • usermod /home/hadoop hadoop으로 hadoop의 home디렉토리를 변경한다.
  1. 나머지는 "부팅을 외장하드에서 하도록 변경하는 방법" 따른다.
  2. root로 로그인하지 않으면 아래와 같은 오류가 발생한다.

        root@master:/root# usermod -d /home/hadoop hadoop   
        usermod: user hadoop is currently used by process 1293 

번호 제목 글쓴이 날짜 조회 수
740 [CDP7.1.7] oozie sqoop action으로 import혹은 export수행시 발생한 오류에 대한 자세한 로그 확인 하는 방법 gooper 2024.04.19 0
739 [Impala] alter table구문수행시 "WARNINGS: Impala does not have READ_WRITE access to path 'hdfs://nameservice1/DATA/Temp/DB/source/table01_ccd'" 발생시 조치 gooper 2024.04.26 0
738 [CDP7.1.7, Replication]Encryption Zone내 HDFS파일을 비Encryption Zone으로 HDFS Replication시 User hdfs가 아닌 hadoop으로 수행하는 방법 gooper 2024.01.15 1
737 [CDP7.1.7]Hive Replication수행중 Specified catalog.database.table does not exist : hive.db명.table명 오류 발생시 조치방법 gooper 2024.04.05 1
736 [CDP7.1.7][Replication]Table does not match version in getMetastore(). Table view original text mismatch gooper 2024.01.02 2
735 ./gradlew :composeDown 및 ./gradlew :composeUp 를 성공했을때의 메세지 gooper 2023.02.20 6
734 호출 url현황 gooper 2023.02.21 6
733 [vue storefrontui]외부 API통합하기 참고 문서 총관리자 2022.02.09 7
732 [Cloudera Agent] Metadata-Plugin throttling_logger INFO (713 skipped) Unable to send data to nav server. Will try again. gooper 2022.05.16 7
731 [CDP7.1.7, Hive Replication]Hive Replication진행중 "The following columns have types incompatible with the existing columns in their respective positions " 오류 gooper 2023.12.27 7
730 [CDP7.1.7]Oozie job에서 ERROR: Kudu error(s) reported, first error: Timed out: Failed to write batch of 774 ops to tablet 8003f9a064bf4be5890a178439b2ba91가 발생하면서 쿼리가 실패하는 경우 gooper 2024.01.05 7
729 eclipse editor 설정방법 총관리자 2022.02.01 9
728 주문히스토리 조회 총관리자 2022.04.30 10
727 [bitbucket] 2022년 3월 2일 부터 git 작업시 기존에 사용하던 비빌번호를 사용할 수 없도록 변경되었다. 총관리자 2022.04.30 10
726 oozie의 sqoop action수행시 ooize:launcher의 applicationId를 이용하여 oozie:action의 applicationId및 관련 로그를 찾는 방법 gooper 2023.07.26 10
725 주문 생성 데이터 예시 총관리자 2022.04.30 11
724 [EncryptionZone]User:testuser not allowed to do "DECRYPT_EEK" on 'testkey' gooper 2023.06.29 11
723 [CDP7.1.7]Encryption Zone내부/외부 간 데이터 이동(mv,cp)및 CTAS, INSERT SQL시 오류(can't be moved into an encryption zone, can't be moved from an encryption zone) gooper 2023.11.14 11
722 [CDP7.1.7]impala-shell수행시 간헐적으로 "-k requires a valid kerberos ticket but no valid kerberos ticket found." 오류 gooper 2023.11.16 11
721 [Encryption Zone]Encryption Zone에 생성된 table을 select할때 HDFS /tmp/zone1에 대한 권한이 없는 경우 gooper 2023.06.29 12

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로