메뉴 건너뛰기

Bigdata, Semantic IoT, Hadoop, NoSQL

Bigdata, Hadoop ecosystem, Semantic IoT등의 프로젝트를 진행중에 습득한 내용을 정리하는 곳입니다.
필요한 분을 위해서 공개하고 있습니다. 문의사항은 gooper@gooper.com로 메일을 보내주세요.


ipython 실행후 import tensorflow as tf하고 엔터하면  
아래의 오류시 pip install pandas==0.22를 실행한다.

--------------------오류내용-------------------------------
AttributeError                            Traceback (most recent call last)
<ipython-input-1-64156d691fe5> in <module>()
----> 1 import tensorflow as tf

/usr/anaconda3/lib/python3.6/site-packages/tensorflow/__init__.py in <module>()
     20
     21 # pylint: disable=g-bad-import-order
---> 22 from tensorflow.python import pywrap_tensorflow  # pylint: disable=unused-import
     23 from . import app
     24 from . import bitwise

/usr/anaconda3/lib/python3.6/site-packages/tensorflow/python/__init__.py in <module>()
     80 from tensorflow.python import data
     81 from tensorflow.python import keras
---> 82 from tensorflow.python.estimator import estimator_lib as estimator
     83 from tensorflow.python.feature_column import feature_column_lib as feature_column
     84 from tensorflow.python.layers import layers

/usr/anaconda3/lib/python3.6/site-packages/tensorflow/python/estimator/estimator_lib.py in <module>()
     39 from tensorflow.python.estimator.exporter import FinalExporter
     40 from tensorflow.python.estimator.exporter import LatestExporter
---> 41 from tensorflow.python.estimator.inputs import inputs
     42 from tensorflow.python.estimator.keras import model_to_estimator
     43 from tensorflow.python.estimator.model_fn import EstimatorSpec

/usr/anaconda3/lib/python3.6/site-packages/tensorflow/python/estimator/inputs/inputs.py in <module>()
     21 # pylint: disable=unused-import,line-too-long
     22 from tensorflow.python.estimator.inputs.numpy_io import numpy_input_fn
---> 23 from tensorflow.python.estimator.inputs.pandas_io import pandas_input_fn
     24
     25 # pylint: enable=unused-import,line-too-long

/usr/anaconda3/lib/python3.6/site-packages/tensorflow/python/estimator/inputs/pandas_io.py in <module>()
     27   # pylint: disable=g-import-not-at-top
     28   # pylint: disable=unused-import
---> 29   import pandas as pd
     30   HAS_PANDAS = True
     31 except IOError:

/usr/anaconda3/lib/python3.6/site-packages/pandas/__init__.py in <module>()
     40 import pandas.core.config_init
     41
---> 42 from pandas.core.api import *
     43 from pandas.core.sparse.api import *
     44 from pandas.tseries.api import *

/usr/anaconda3/lib/python3.6/site-packages/pandas/core/api.py in <module>()
      8 from pandas.core.dtypes.missing import isna, isnull, notna, notnull
      9 from pandas.core.arrays import Categorical
---> 10 from pandas.core.groupby.groupby import Grouper
     11 from pandas.io.formats.format import set_eng_float_format
     12 from pandas.core.index import (Index, CategoricalIndex, Int64Index,

/usr/anaconda3/lib/python3.6/site-packages/pandas/core/groupby/__init__.py in <module>()
      1 # flake8: noqa
----> 2 from pandas.core.groupby.groupby import (
      3     Grouper, GroupBy, SeriesGroupBy, DataFrameGroupBy
      4 )

/usr/anaconda3/lib/python3.6/site-packages/pandas/core/groupby/groupby.py in <module>()
     47                                CategoricalIndex, _ensure_index)
     48 from pandas.core.arrays import ExtensionArray, Categorical
---> 49 from pandas.core.frame import DataFrame
     50 from pandas.core.generic import NDFrame, _shared_docs
     51 from pandas.core.internals import BlockManager, make_block

/usr/anaconda3/lib/python3.6/site-packages/pandas/core/frame.py in <module>()
     72                                    create_block_manager_from_arrays,
     73                                    create_block_manager_from_blocks)
---> 74 from pandas.core.series import Series
     75 from pandas.core.arrays import Categorical, ExtensionArray
     76 import pandas.core.algorithms as algorithms

/usr/anaconda3/lib/python3.6/site-packages/pandas/core/series.py in <module>()
     65 from pandas.compat.numpy import function as nv
     66
---> 67 import pandas.core.ops as ops
     68 import pandas.core.algorithms as algorithms
     69

AttributeError: module 'pandas' has no attribute 'core'
번호 제목 글쓴이 날짜 조회 수
361 linux에서 특정 포트를 사용하는 프로세스 확인하기 총관리자 2017.04.26 351
360 Hbase API를 이용하여 scan시 페이징을 고려하여 목록을 가져올때 사용할 수 있는 로직의 예시를 보여줌 총관리자 2017.04.26 239
359 Spark에서 KafkaUtils.createStream()를 이용하여 이용하여 kafka topic에 접근하여 객채로 저장된 값을 가져오고 처리하는 예제 소스 총관리자 2017.04.26 292
358 Kafka의 API중 Consumer.createJavaConsumerConnector()를 이용하고 다수의 thread를 생성하여 Kafka broker의 topic에 접근하여 데이타를 가져오고 처리하는 예제 소스 총관리자 2017.04.26 226
357 fuseki webUI를 통해서 전체 카운트를 하면 급격하게 메모리를 소모해 버리는 문제가 있음 file 총관리자 2017.04.28 162
356 Ubuntu 16.04 LTS에 4대에 Hadoop 2.8.0설치 총관리자 2017.05.01 521
355 Ubuntu 16.04 LTS에 MariaDB 10.1설치 및 포트변경 및 원격접속 허용 총관리자 2017.05.01 1081
354 test2 총관리자 2017.05.01 153
353 test333 총관리자 2017.05.01 189
352 test333444 총관리자 2017.05.01 113
351 Cleaning up the staging area file시 'cannot access' 혹은 'Directory is not writable' 발생시 조치사항 총관리자 2017.05.02 336
350 hadoop에서 yarn jar ..를 이용하여 appliction을 실행하여 정상적으로 수행되었으나 yarn UI의 어플리케이션 목록에 나타나지 않는 문제 총관리자 2017.05.02 24
349 hadoop에서 yarn jar ..를 이용하여 appliction을 실행하여 정상적으로 수행되었으나 yarn UI의 어플리케이션 목록에 나타나지 않는 문제 총관리자 2017.05.02 51
348 hadoop에서 yarn jar ..를 이용하여 appliction을 실행하여 정상적으로 수행되었으나 yarn UI의 어플리케이션 목록에 나타나지 않는 문제 총관리자 2017.05.02 117
347 hadoop에서 yarn jar ..를 이용하여 appliction을 실행하여 정상적(?)으로 수행되었으나 yarn UI의 어플리케이션 목록에 나타나지 않는 문제 총관리자 2017.05.02 77
346 우분투에서 패키지 설치시 E: Sub-process /usr/bin/dpkg returned an error code 발생시 조치 총관리자 2017.05.02 252
345 Ubuntu 16.04 LTS에 Hive 2.1.1설치하면서 "Version information not found in metastore"발생하는 오류원인및 조치사항 총관리자 2017.05.03 471
344 Hive MetaStore Server기동시 Could not create "increment"/"table" value-generation container SEQUENCE_TABLE since autoCreate flags do not allow it. 오류발생시 조치사항 총관리자 2017.05.03 349
343 Mysql DB 생성 및 권한. 특정아이피, 대역에 대한 접근 허용 총관리자 2017.05.04 60
342 mapreduce appliction을 실행시 "is running beyond virtual memory limits" 오류 발생시 조치사항 총관리자 2017.05.04 16899

A personal place to organize information learned during the development of such Hadoop, Hive, Hbase, Semantic IoT, etc.
We are open to the required minutes. Please send inquiries to gooper@gooper.com.

위로