메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


Encryption Zone에 있는 HDFS파일을 이용하여 생성한 table에 Hue에서 hadoop계정으로 insert문을 수행시 "Failed to open HDFS file for writing hdfs://nameservice1/DATA/test_table/_impala_insert_staging/data.0.txt Error(255): Unknown error 255. Root cause: RemoteException: java.util.concurrent.ExecutionException: org.apache.hadoop.security.authorize.AuthorizationException: User:hdfs not allowed to do 'DECRYPT_EEK' ON 'testkey' at " 오류가 발생할 수 있는데 이는 hdfs가 HDFS내의 해당 파일에 접근하여 Encryption File을 생성할 수 없어서 발생한다. 

이때는 Ranger에 keyadmin으로 로그인하여 cm_kms항목의 Policy Name이 all - keyname인 정책의 User에 hdfs를 추가하고 Permissions에 Get Metadata, Generate EEK, Decrypt EEK를 지정해주면 해

결된다. 


* Hue에서 hadoop으로 로그인해서 insert문을 수행했는데도 내부적으로는 hdfs로 접근하는거 같음. 왜냐하면 "User:hdfs not allowed to do 'DECRYPT_EEK' ON 'testkey' at " 처럼 hdfs가 접근하는 User로 표시되기 때문이다. 

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로