这篇“Python数据处理pandas读写操作IO工具CSV怎么使用”文章的知识点大部分人都不太理解,所以小编给大家总结了以下内容,内容详细,步骤清晰,具有一定的借鉴价值,希望大家阅读完这篇文章能有所收获,下面我们一起来看看这篇“Python数据处理pandas读写操作IO工具CSV怎么使用”文章吧。
前言
pandas 的 IO API 是一组顶层的 reader 函数,比如 pandas.read_csv(),会返回一个 pandas 对象。
而相应的 writer 函数是对象方法,如 DataFrame.to_csv()。
注意:后面会用到 StringIO,请确保导入
# python3
from io import StringIO
# python2
from StringIO import StringIO
1 CSV 和文本文件
读取文本文件的主要函数是 read_csv()
1 参数解析
read_csv() 接受以下常用参数:
1.1 基础
filepath_or_buffer: 变量
sep: str,默认 ,,对于 read_table 是 \t
文件分隔符,如果设置为 None,则 C 引擎无法自动检测分隔符,而 Python 引擎可以通过内置的嗅探器工具自动检测分隔符。
此外,如果设置的字符长度大于 1,且不是 '\s+',那么该字符串会被解析为正则表达式,且强制使用 Python 解析引擎。
例如 '\\r\\t',但是正则表达式容易忽略文本中的引用数据。
delimiter: str, 默认为 None
1.2 列、索引、名称
header: int 或 list, 默认为 'infer'
names: array-like, 默认为 None
index_col: int, str, sequence of int/str, False, 默认为 None
usecols: 列表或函数, 默认为 None
只读取指定的列。如果是列表,则所有元素都必须是位置(即文件列中的整数索引)或字符串,这些字符串必须与 names 参数提供的或从文档标题行推断出的列名相对应。
列表中的顺序会被忽略,即 usecols=[0, 1] 等价于 [1, 0]
如果是可调用函数,将会根据列名计算,返回可调用函数计算为 True 的名称
In [1]: import pandas as pd
In [2]: from io import StringIO
In [3]: data = "col1,col2,col3\na,b,1\na,b,2\nc,d,3"
In [4]: pd.read_csv(StringIO(data))
Out[4]:
col1 col2 col3
0 a b 1
1 a b 2
2 c d 3
In [5]: pd.read_csv(StringIO(data), usecols=lambda x: x.upper() in ["COL1", "COL3"])
Out[5]:
col1 col3
0 a 1
1 a 2
2 c 3
使用此参数可以大大加快解析时间并降低内存使用
squeeze: boolean, 默认为 False
prefix: str, 默认为 None
mangle_dupe_cols: boolean, 默认为 True
1.3 常规解析配置
dtype: 类型名或类型字典(column -> type), 默认为 None
engine: {'c', 'python'}
converters: dict, 默认为 None
true_values: list, 默认为 None
false_values: list, 默认为 None
skipinitialspace: boolean, 默认为 False
skiprows: 整数或整数列表, 默认为 None
In [6]: data = "col1,col2,col3\na,b,1\na,b,2\nc,d,3"
In [7]: pd.read_csv(StringIO(data))
Out[7]:
col1 col2 col3
0 a b 1
1 a b 2
2 c d 3
In [8]: pd.read_csv(StringIO(data), skiprows=lambda x: x % 2 != 0)
Out[8]:
col1 col2 col3
0 a b 2
skipfooter: int, 默认为 0
nrows: int, 默认为 None
memory_map: boolean, 默认为 False
1.4 NA 和缺失数据处理
na_values: scalar, str, list-like, dict, 默认为 None
keep_default_na: boolean, 默认为 True
解析数据时是否包含默认的 NaN 值。根据是否传入 na_values,其行为如下
keep_default_na=True, 且指定了 na_values, na_values 将会与默认的 NaN 一起被解析
keep_default_na=True, 且未指定 na_values, 只解析默认的 NaN
keep_default_na=False, 且指定了 na_values, 只解析 na_values 指定的 NaN
keep_default_na=False, 且未指定 na_values, 字符串不会被解析为 NaN
注意:如果 na_filter=False,那么 keep_default_na 和 na_values 参数将被忽略
na_filter: boolean, 默认为 True
skip_blank_lines: boolean, 默认为 True
1.5 日期时间处理
parse_dates: 布尔值、列表或嵌套列表、字典, 默认为 False.
如果为 True -> 尝试解析索引
如果为 [1, 2, 3] -> 尝试将 1, 2, 3 列解析为分隔的日期
如果为 [[1, 3]] -> 将 1, 3 列解析为单个日期列
如果为 {'foo': [1, 3]} -> 将 1, 3 列作为日期并设置列名为 foo
infer_datetime_format: 布尔值, 默认为 False
date_parser: 函数, 默认为 None
dayfirst: 布尔值, 默认为 False
cache_dates: 布尔值, 默认为 True
1.6 迭代
iterator: boolean, 默认为 False
1.7 引用、压缩和文件格式
compression: {'infer', 'gzip', 'bz2', 'zip', 'xz', None, dict}, 默认为 'infer'
用于对磁盘数据进行即时解压缩。如果为 "infer",则如果 filepath_or_buffer 是文件路径且以 ".gz",".bz2",".zip" 或 ".xz" 结尾,则分别使用 gzip,bz2,zip 或 xz 解压,否则不进行解压缩。
如果使用 "zip",则 ZIP 文件必须仅包含一个要读取的数据文件。设置为 None 表示不解压
也可以使用字典的方式,键为 method 的值从 {'zip', 'gzip', 'bz2'} 中选择。例如
compression={'method': 'gzip', 'compresslevel': 1, 'mtime': 1}thousandsstr, 默认为 None
decimal: str, 默认为 '.'
float_precision: string, 默认为 None
quotechar: str (长度为 1)
comment: str, 默认为 None
encoding: str, 默认为 None
1.8 错误处理
error_bad_linesboolean, 默认为 True
warn_bad_linesboolean, 默认为 True
2. 指定数据列的类型
您可以指示整个 DataFrame 或各列的数据类型
In [9]: import numpy as np
In [10]: data = "a,b,c,d\n1,2,3,4\n5,6,7,8\n9,10,11"
In [11]: print(data)
a,b,c,d
1,2,3,4
5,6,7,8
9,10,11
In [12]: df = pd.read_csv(StringIO(data), dtype=object)
In [13]: df
Out[13]:
a b c d
0 1 2 3 4
1 5 6 7 8
2 9 10 11 NaN
In [14]: df["a"][0]
Out[14]: '1'
In [15]: df = pd.read_csv(StringIO(data), dtype={"b": object, "c": np.float64, "d": "Int64"})
In [16]: df.dtypes
Out[16]:
a int64
b object
c float64
d Int64
dtype: object你可以使用 read_csv() 的 converters 参数,统一某列的数据类型
In [17]: data = "col_1\n1\n2\n'A'\n4.22"
In [18]: df = pd.read_csv(StringIO(data), converters={"col_1": str})
In [19]: df
Out[19]:
col_1
0 1
1 2
2 'A'
3 4.22
In [20]: df["col_1"].apply(type).value_counts()
Out[20]:
<class 'str'> 4
Name: col_1, dtype: int64或者,您可以在读取数据后使用 to_numeric() 函数强制转换类型
In [21]: df2 = pd.read_csv(StringIO(data))
In [22]: df2["col_1"] = pd.to_numeric(df2["col_1"], errors="coerce")
In [23]: df2
Out[23]:
col_1
0 1.00
1 2.00
2 NaN
3 4.22
In [24]: df2["col_1"].apply(type).value_counts()
Out[24]:
<class 'float'> 4
Name: col_1, dtype: int64
它将所有有效的数值转换为浮点数,而将无效的解析为 NaN
最后,如何处理包含混合类型的列取决于你的具体需要。在上面的例子中,如果您只想要将异常的数据转换为 NaN,那么 to_numeric() 可能是您的最佳选择。
然而,如果您想要强制转换所有数据,而无论类型如何,那么使用 read_csv() 的 converters 参数会更好
注意
在某些情况下,读取包含混合类型列的异常数据将导致数据集不一致。
如果您依赖 pandas 来推断列的类型,解析引擎将继续推断数据块的类型,而不是一次推断整个数据集。
In [25]: col_1 = list(range(500000)) + ["a", "b"] + list(range(500000))
In [26]: df = pd.DataFrame({"col_1": col_1})
In [27]: df.to_csv("foo.csv")
In [28]: mixed_df = pd.read_csv("foo.csv")
In [29]: mixed_df["col_1"].apply(type).value_counts()
Out[29]:
<class 'int'> 737858
<class 'str'> 262144
Name: col_1, dtype: int64
In [30]: mixed_df["col_1"].dtype
Out[30]: dtype('O')这就导致 mixed_df 对于列的某些块包含 int 类型,而对于其他块则包含 str,这是由于读取的数据是混合类型。
以上就是关于“Python数据处理pandas读写操作IO工具CSV怎么使用”这篇文章的内容,相信大家都有了一定的了解,希望小编分享的内容对大家有帮助,若想了解更多相关的知识内容,请关注天达云行业资讯频道。