新版Pandas使用以下界面加载Excel文件:

read_excel('path_to_file.xls', 'Sheet1', index_col=None, na_values=['NA'])

但如果我不知道有哪些床单呢?

例如,我正在工作的excel文件,如下表

数据1,数据2…,数据N, foo, bar

但我不知道先验的N。

有没有办法从熊猫的excel文档中获得表的列表?


当前回答

这是我发现的最快的方法,灵感来自@divingTobi的答案。所有基于xlrd、openpyxl或pandas的答案对我来说都很慢,因为它们都先加载整个文件。

from zipfile import ZipFile
from bs4 import BeautifulSoup  # you also need to install "lxml" for the XML parser

with ZipFile(file) as zipped_file:
    summary = zipped_file.open(r'xl/workbook.xml').read()
soup = BeautifulSoup(summary, "xml")
sheets = [sheet.get("name") for sheet in soup.find_all("sheet")]

其他回答

import pandas as pd

path = "\\DB\\Expense\\reconcile\\"

file_name = "202209-v01.xlsx"

df = pd.read_excel(path + file_name, None)
print(df)

sheet_names = list(df.keys())

# print last sheet name
print(sheet_names[len(sheet_names)-1])

last_month = df.get(sheet_names[len(sheet_names)-1])
print(last_month)

我尝试过xlrd、pandas、openpyxl和其他类似的库,所有这些库似乎都需要指数级的时间,因为它们读取整个文件时,文件大小会增加。上面提到的其他解决方案,他们使用“on_demand”不适合我。如果您只想最初获得表名,下面的函数适用于xlsx文件。

def get_sheet_details(file_path):
    sheets = []
    file_name = os.path.splitext(os.path.split(file_path)[-1])[0]
    # Make a temporary directory with the file name
    directory_to_extract_to = os.path.join(settings.MEDIA_ROOT, file_name)
    os.mkdir(directory_to_extract_to)

    # Extract the xlsx file as it is just a zip file
    zip_ref = zipfile.ZipFile(file_path, 'r')
    zip_ref.extractall(directory_to_extract_to)
    zip_ref.close()

    # Open the workbook.xml which is very light and only has meta data, get sheets from it
    path_to_workbook = os.path.join(directory_to_extract_to, 'xl', 'workbook.xml')
    with open(path_to_workbook, 'r') as f:
        xml = f.read()
        dictionary = xmltodict.parse(xml)
        for sheet in dictionary['workbook']['sheets']['sheet']:
            sheet_details = {
                'id': sheet['@sheetId'],
                'name': sheet['@name']
            }
            sheets.append(sheet_details)

    # Delete the extracted files directory
    shutil.rmtree(directory_to_extract_to)
    return sheets

由于所有xlsx基本上都是压缩文件,我们提取底层xml数据并直接从工作簿中读取表名,这与库函数相比只需几分之一秒的时间。

基准测试:(在一个6mb的xlsx文件上,有4张纸) 熊猫,xlrd: 12秒 Openpyxl: 24秒 建议方法:0.4秒

因为我的要求只是读取表名,读取整个时间的不必要开销让我很困扰,所以我选择了这种方法。

这是我发现的最快的方法,灵感来自@divingTobi的答案。所有基于xlrd、openpyxl或pandas的答案对我来说都很慢,因为它们都先加载整个文件。

from zipfile import ZipFile
from bs4 import BeautifulSoup  # you also need to install "lxml" for the XML parser

with ZipFile(file) as zipped_file:
    summary = zipped_file.open(r'xl/workbook.xml').read()
soup = BeautifulSoup(summary, "xml")
sheets = [sheet.get("name") for sheet in soup.find_all("sheet")]

如果你:

关注业绩 在执行时不需要文件中的数据。 想要使用传统的库还是使用自己的解决方案

下面是一个~10Mb的xlsx, xlsb文件的基准测试。

xls, xlsx

from openpyxl import load_workbook

def get_sheetnames_xlsx(filepath):
    wb = load_workbook(filepath, read_only=True, keep_links=False)
    return wb.sheetnames

基准测试:~ 14倍的速度提升

# get_sheetnames_xlsx vs pd.read_excel
225 ms ± 6.21 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)
3.25 s ± 140 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)

xlsb

from pyxlsb import open_workbook

def get_sheetnames_xlsb(filepath):
  with open_workbook(filepath) as wb:
     return wb.sheets

基准测试:~ 56倍的速度提升

# get_sheetnames_xlsb vs pd.read_excel
96.4 ms ± 1.61 ms per loop (mean ± std. dev. of 7 runs, 10 loops each)
5.36 s ± 162 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)

注:

这是一个很好的资源 http://www.python-excel.org/ XLRD从2020年起不再维持

from openpyxl import load_workbook

sheets = load_workbook(excel_file, read_only=True).sheetnames

对于我正在使用的5MB Excel文件,没有read_only标志的load_workbook花了8.24秒。对于read_only标志,只需要39.6 ms。如果您仍然希望使用Excel库而不使用xml解决方案,那么这比解析整个文件的方法要快得多。