输入/输出#

酸洗#

read_pickle \(文件路径或_缓冲区[, ...] )

从文件中加载腌制Pandas对象(或任何对象)。

DataFrame.to_pickle \(路径[, compression, ...] )

Pickle(序列化)对象到文件。

平面文件#

read_table \(文件路径或_缓冲区[, sep, ...] )

将通用分隔文件读入DataFrame。

read_csv \(文件路径或_缓冲区[, sep, ...] )

将逗号分隔值(CSV)文件读入DataFrame。

DataFrame.to_csv \([path_or_buf, sep, na_rep, ...] )

将对象写入逗号分隔值(CSV)文件。

read_fwf \(文件路径或_缓冲区[, colspecs, ...] )

将固定宽度的格式化行表读入DataFrame。

剪贴板#

read_clipboard \([sep] )

从剪贴板读取文本并传递给Read_CSV。

DataFrame.to_clipboard \([excel, sep] )

将对象复制到系统剪贴板。

Excel#

read_excel \(IO[, sheet_name, header, names, ...] )

将Excel文件读入Pandas数据帧。

DataFrame.to_excel \(EXCEL_编写器[, ...] )

将对象写入Excel工作表。

ExcelFile.parse \([sheet_name, header, names, ...] )

将指定的工作表解析为DataFrame。

Styler.to_excel \(EXCEL_编写器[, sheet_name, ...] )

将Styler写入Excel工作表。

ExcelWriter \(路径[, engine, date_format, ...] )

用于将DataFrame对象写入Excel工作表的类。

JSON#

read_json \([path_or_buf, orient, typ, dtype, ...] )

将JSON字符串转换为Pandas对象。

json_normalize \(数据[, record_path, meta, ...] )

将半结构化的JSON数据标准化为平面表。

DataFrame.to_json \([path_or_buf, orient, ...] )

将对象转换为JSON字符串。

build_table_schema \(数据[, index, ...] )

从以下位置创建表架构 data

HTML#

read_html \(IO[, match, flavor, header, ...] )

将HTML表读取到 listDataFrame 对象。

DataFrame.to_html \([buf, columns, col_space, ...] )

将DataFrame呈现为HTML表。

Styler.to_html \([buf, table_uuid, ...] )

将Styler写入HTML-CSS格式的文件、缓冲区或字符串。

XML#

read_xml \(路径_或_缓冲区[, xpath, ...] )

将XML文档读取到 DataFrame 对象。

DataFrame.to_xml \([path_or_buffer, index, ...] )

将DataFrame呈现为XML文档。

Latex#

DataFrame.to_latex \([buf, columns, ...] )

将对象呈现到LaTeX表格、长表或嵌套表。

Styler.to_latex \([buf, column_format, ...] )

将Styler写入LaTeX格式的文件、缓冲区或字符串。

HDFStore:PyTables(HDF5)#

read_hdf \(路径_或_buf[, key, mode, errors, ...] )

从商店里读出来,如果我们打开了就把它关了。

HDFStore.put \(键,值[, format, index, ...] )

将对象存储在HDFStore中。

HDFStore.append \(键,值[, format, axes, ...] )

追加到文件中的表。

HDFStore.get \(密钥)

检索存储在文件中的Pandas对象。

HDFStore.select \(密钥[, where, start, stop, ...] )

检索存储在文件中的Pandas对象,可根据WHERE标准进行选择。

HDFStore.info \()

打印商店的详细信息。

HDFStore.keys \([include] )

返回与存储在HDFStore中的对象对应的键的列表。

HDFStore.groups \()

返回所有顶级节点的列表。

HDFStore.walk \([where] )

遍历Pandas对象的PYTABLE组层次。

警告

可以存储的子类 DataFrameSeries 到HDF5,但子类的类型在存储时会丢失。

羽毛#

read_feather \(路径[, columns, use_threads, ...] )

从文件路径加载羽化格式的对象。

DataFrame.to_feather \(路径, ** Kwargs)

将DataFrame写入二进制羽化格式。

镶木#

read_parquet \(路径[, engine, columns, ...] )

从文件路径加载一个地块对象,返回一个DataFrame。

DataFrame.to_parquet \([path, engine, ...] )

将DataFrame写入二进制拼图格式。

ORC#

read_orc \(路径[, columns] )

从文件路径加载ORC对象,返回DataFrame。

SAS#

read_sas \(文件路径或_缓冲区[, format, ...] )

读取存储为XPORT或SAS7BDAT格式文件的SAS文件。

SPSS#

read_spss \(路径[, usecols, convert_categoricals] )

从文件路径加载SPSS文件,返回DataFrame。

SQL#

read_sql_table \(表_名称,连接[, schema, ...] )

将SQL数据库表读入DataFrame。

read_sql_query \(SQL,CON[, index_col, ...] )

将SQL查询读入DataFrame。

read_sql \(SQL,CON[, index_col, ...] )

将SQL查询或数据库表读入DataFrame。

DataFrame.to_sql \(名称,控制 [, schema, ...] )

将存储在DataFrame中的记录写入SQL数据库。

谷歌BigQuery#

read_gbq \(查询[, project_id, index_col, ...] )

从Google BigQuery加载数据。

STATA#

read_stata \(文件路径或_缓冲区[, ...] )

将Stata文件读入DataFrame。

DataFrame.to_stata \(路径[, convert_dates, ...] )

将DataFrame对象导出为Stata DTA格式。

StataReader.data_label 

返回Stata文件的数据标签。

StataReader.value_labels \()

返回一个DICT,将每个变量名关联到一个DICT,将每个值关联到相应的标签。

StataReader.variable_labels \()

将变量标签作为字典返回,将每个变量名与相应的标签相关联。

StataWriter.write_file \()

将DataFrame对象导出为Stata DTA格式。