这可能是一个愚蠢的问题,但我尚未在 Pandas 文档或其他地方找到答案。在here之前也问过同样的问题。但是唯一的答案就是看 Pandas 文档,正如我所说,它并不能为这个问题提供答案。

我希望能够用几个数据集构建一个hdf文件。关闭此hdf之后,我希望能够列出其中包含的每个数据集。例如:

import pandas as pd
import numpy as np

store = pd.HDFStore('test.h5')
df1 = pd.DataFrame(np.random.randn(10,2), columns=list('AB')
df2 = pd.DataFrame(np.random.randn(10,2), columns=list('AB')
store['df1'] = df1
store['df2'] = df2
print(store)

返回值:
<class 'pandas.io.pytables.HDFStore'>
File path: test.h5
/df1           frame          (shape->[10,2])
/df2           frame          (shape->[10,2])

但是,如果您使用store.close()关闭hdf,然后尝试使用pd.read_hdf()读取它,则会返回以下错误:
ValueError: key must be provided when HDF contains multiple datasets.

有没有办法返回所有这些数据集的列表?

在此先感谢您的帮助!

最佳答案

就在这里。

store = pd.HDFStore('test.h5')
print(store)

<class 'pandas.io.pytables.HDFStore'>
File path: test.h5
/df1           frame          (shape->[10,2])
/df2           frame          (shape->[10,2])

关于python - 返回带有 Pandas 的hdf文件中所有数据集的列表,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/35636896/

10-13 01:22