- type of encoding to read csv files in pandas
- 2 Answers 2
- Кодирование данных в utf-8 до использования pandas.read_csv? [Дубликат]
- 4 ответа
- Чтение csv файла в Python при помощи Pandas.
- Чтение csv файла в Python при помощи Pandas.
- Чтение csv файла в Python при помощи Pandas.
- Открываем файл .csv в Python при помощи Pandas
- А теперь обо всем с подробностями да на живом примере!
- 1. Определим путь к файлу
- 2. Импортируем Pandas
- 3. Загрузим данные из csv-файла в переменную data
- 4. Вывод данных из прочитанного файла на экран
- 5. Настраиваем аргументы функции read_csv()
- 1) Работаем с именами столбцов:
- 2) Читаем только часть файла:
- 3) Устанавливаем вид разделителя:
- pandas.read_csv¶
type of encoding to read csv files in pandas
Alright, So I’m writing a code where I read a CSV file using pandas.read_csv , the problem is with the encoding, I was using utf-8-sig encoding and this is working. However, this gives me an error with other CSV files. I found out that some files need other types of encoding such as cp1252 . The problem is that I can’t restrict the user to a specific CSV type that matches my encoding. So is there any solution for this? for example is there a universal encoding type that works for all CSV’s? or can I pass an array of all the possible encoders?
2 Answers 2
A CSV file is a text file. If it contains only ASCII characters, no problem nowadays, most encodings can correctly handle plain ASCII characters. The problem arises with non ASCII characters. Exemple
character | Latin1 code | cp850 code | UTF-8 codes |
---|---|---|---|
é | ‘\xe9’ | ‘\x82’ | ‘\xc3\xa9’ |
è | ‘\xe8’ | ‘\x8a’ | ‘\xc3\xa8’ |
ö | ‘\xf6’ | ‘\x94’ | ‘\xc3\xb6’ |
Things are even worse, because single bytes character sets can represent at most 256 characters while UTF-8 can represent all. For example beside the normal quote character ‘ , unicode contains left ‘ or right ’ versions of it, none of them being represented in Latin1 nor CP850.
Long Story short, there is nothing like an universal encoding. But certain encodings, for example Latin1 have a specificity: they can decode any byte. So if you declare a Latin1 encoding, no UnicodeDecodeError will be raised. Simply if the file was UTF-8 encoded, a é will look like é . And the right single quote would be ‘â\x80\x99’ but will appear as â on an Latin1 system and as ’ on a cp1252 one.
As you spoke of CP1252, it is a Windows variant of Latin1, but it does not share the property of being able to decode any byte.
The common way is to ask people sending you CSV file to use the same encoding and try to decode with that encoding. Then you have two workarounds for badly encoded files. First is the one proposed by CygnusX: try a sequence of encodings terminated with Latin1, for example encodings = [«utf-8-sig», «utf-8», «cp1252», «latin1»] (BTW Latin1 is an alias for ISO-8859-1 so no need to test both).
The second one is to open the file with errors=’replace’ : any offending byte will be replaced with a replacement character. At least all ASCII characters will be correct:
Кодирование данных в utf-8 до использования pandas.read_csv? [Дубликат]
4 ответа
read_csv принимает параметр encoding для работы с файлами в разных форматах. В основном я использую read_csv(‘file’, encoding = «ISO-8859-1») или, альтернативно, encoding = «utf-8» для чтения, и вообще utf-8 для to_csv .
Вы также можете использовать псевдоним ‘latin1’ вместо ‘ISO-8859-1’ .
Борясь с этим некоторое время и думал, что я опубликую по этому вопросу, поскольку это первый результат поиска. Добавление тега encoding = ‘iso-8859-1 «в pandas read_csv не сработало, и не было никакой другой кодировки, продолжавшей давать UnicodeDecodeError.
Если вы передаете дескриптор файла в pd.read_csv (), вам нужно поместить атрибут encoding = в файл открытым, а не в read_csv. Очевидное в ретроспективе, но тонкая ошибка для отслеживания.
Самый простой из всех решений:
- Откройте файл csv в Sublime text editor .
- Сохраните файл в формате utf-8.
В возвышенном виде щелкните Файл -> Сохранить с кодировкой -> UTF-8
Затем вы можете прочитать свой файл, как обычно:
Если есть много файлов, вы можете пропустить возвышенный шаг.
Просто прочитайте файл, используя
и другие различные типы кодирования:
Pandas позволяет указывать кодировку, но не позволяет игнорировать ошибки, чтобы не автоматически заменять оскорбительные байты. Таким образом, нет одного размера, соответствующего всем методам, но по-разному в зависимости от фактического варианта использования.
- Вы знаете кодировку, и в файле нет ошибки кодирования , Отлично: вам нужно просто указать кодировку:
- Вы не хотите беспокоиться о вопросах кодирования и хотите, чтобы этот проклятый файл загружался, независимо от того, содержат ли какие-то текстовые поля мусор. Хорошо, вам нужно использовать кодировку Latin1 , потому что она принимает любой возможный байт как вход (и преобразует его в символ Юникода того же кода):
- Вы знаете, что большая часть файла написанный с определенным кодированием, но также содержит ошибки кодирования. Пример реального мира — это файл UTF8, который был отредактирован с помощью редактора un utf8 и который содержит некоторые строки с другой кодировкой. Pandas не предусматривает специальной обработки ошибок, но функция Python open имеет (предполагая Python3), а read_csv принимает файл, подобный объекту. Типичными параметрами ошибок, которые следует использовать здесь, являются ‘ignore’ , которые просто подавляют оскорбительные байты или (ИМХО лучше) ‘backslashreplace’ , который заменяет оскорбительные байты их защитой от обратного сбрасывания Python:
Чтение csv файла в Python при помощи Pandas.
Чтение csv файла в Python при помощи Pandas.
Чтение csv файла в Python при помощи Pandas.
Файлы с расширением «.CSV» — верные хранители табличных данных, ставшие популярными не случайно: с ними довольно просто работать, кроме того, большинство программ для обработки табличных данных могут использовать формат «.CSV». А в любимом для большинства специалистов по Data Science языке Python, существует целая библиотека, упрощающая работу с табличными данными. Имя этой библиотеки Pandas! Реализуем чтение csv файла в Python при помощи Pandas на примере ниже. Но прежде..
— Краткий ликбез для тех, кто спешит —
Открываем файл .csv в Python при помощи Pandas
Если Вы желаете вывести данные без наименований столбцов, или же с другими особыми пожеланиями, переходите к разделу этой статьи «Настраиваем аргументы функции read_csv()».
А теперь обо всем с подробностями да на живом примере!
Если после ликбеза у Вас остались вопросы, предлагаю подробно рассмотреть процесс открытия csv файла на примере базы данных проектов из Kikstarter-a. Увлеченный пользователь сайта Kaggle собрал информацию о размещенных на Kikstarter-е проектах, включающую в себя название проекта, необходимую сумму, успешность проекта и т. д. Предлагаю взглянуть на эту базу данных при помощи Python. Для начала скачаем файл с данными за 2018 год. Сделать это можно по ссылке https://www.kaggle.com/kemical/kickstarter-projects. На фото ниже показано, где нужно нажать для осуществления загрузки. Необходимый для загрузки файл называется «ks-projects-201801.csv»:
Файл загружен! Переходим к написанию кода. Кстати, работать будем как настоящие профессионалы по четкому плану:
- Определим путь к файлу
- Импортируем Pandas
- Загрузим данные из csv файла в переменную data
- Выведем часть данных на экран, чтобы убедиться в том, что файл был успешно прочитан
- Реализуем самые смелые пожелания в рамках вида прочитанных данных (удалим названия колонок, оставим названия колонок и т.д.)
Итак, следуя плану, приступим к реализации первого пункта:
1. Определим путь к файлу
После загрузки файла на компьютер, необходимо определить путь к этому файлу. Предлагаю воспользоваться универсальным способом и указать путь к файлу относительно рабочей директории. Кстати, давайте уточним путь к Вашей рабочей директории! Для этого исполним код:
Теперь путь к рабочей директории находится в переменной work_path. Поэтому вывести на экран адрес рабочего каталога, в котором по умолчанию хранятся скрипты, можно при помощи строки:
Предлагаю создать в рабочей директории папку «datasets» и загрузить в нее .csv файл со скачанными данными (предварительно распакуйте скачанный архив так, чтобы файл ‘ks-projects-201801.csv’ находился непосредственно в папке «datasets»). В этом случае путь к .csv файлу будет выглядеть так:
2. Импортируем Pandas
1. Прежде всего, импортируем библиотеку Pandas в проект. Сделать это можно, добавив строку «import pandas as pd» в начале скрипта:
Теперь обращаться к функциям из Pandas будем, предваряя название функции префиксом «pd.».
3. Загрузим данные из csv-файла в переменную data
Для того, чтобы осуществить чтение csv файла в Python, вызовем функцию read_csv() из библиотеки Pandas и передадим в качестве аргумента адрес, по которому располагается csv файл:
После прочтения csv файла в Python все содержимое файла хранится в переменной data. Предлагаю убедиться в том, что файл был успешно прочитан и вывести данные на экран.
4. Вывод данных из прочитанного файла на экран
Предлагаю вывести 10 первых строк на экран. Для этого вызовем функцию head() и передадим ей в качестве аргументов желаемое для вывода число строк:
Взгляните на результат работы функции head(10):
data.head(10)
Кстати, если стройные ряды строк или столбцов в выводе нарушило многоточие (как на следующем изображении), исправить это поможет статья «Как вывести всю таблицу в Pandas «.
Давайте рассмотрим выведенную таблицу. По умолчанию, строки пронумерованы, каждый столбец таблицы имеет заголовок. Установив значения аргументов функции read_csv() желаемым образом, вы можете прочитать csv-файл без заголовков, пропустить некоторые строки, а также определить вид разделителя. Давайте рассмотрим, как это сделать.
5. Настраиваем аргументы функции read_csv()
Рассмотрим некоторые из аргументов функции read_csv(), которые могут Вам помочь в работе:
1) Работаем с именами столбцов:
Параметр header содержит номер строки, в которой прописаны имена столбцов. Обычно это нулевая строка, и по-умолчанию параметр header имеет нулевое значение, т. е. header=0.
Строка: data = pd.read_csv(data_path, header=0) равносильна строке: data = pd.read_csv(data_path)
Давайте изменим значение header на header=2. В итоге вторая строка станет заголовком, и далее файл будет прочитан начиная с 3-й строки (т.е. 3-я строка сместится на нулевую позицию). Для сравнения рассмотрим, как выглядит одна и та же таблица при header=0 и header=2:
header = 0
Иногда бывает так, что в исходном файле отсутствуют названия столбцов. В данном случае, чтобы строка с информативными данными не превратилась в заголовки столбцов, нужно определить значение header как None:
У рассматриваемой выше таблицы, нулевая строка содержит заголовки столбцов, поэтому значение header=None только «спутает всю малину»:
2) Читаем только часть файла:
Аргумент nrows позволяет считать заданное количество строк. Например, если nnows=3, то функция read_csv() прочитает только 3 строки:
Аргумент sciprows позволяет пропустить указанное количество строк при чтении. Например:
- Если skiprows = 5, чтение файла начнется с 5 строки, при этом имена колонок, если не указано другое, также будут прочитаны.
- Если skiprows = [3, 5, 8], то строки под номерами 3, 5, 8 не будут прочитаны,
- При skiprows = range(4, 7) из чтения будут исключены строки 4,5,6.
3) Устанавливаем вид разделителя:
Чтобы задать вид разделителя, нужно в функции read_csv() определить аргумент sep. Например, требуется прочитать файл вида:
В представленном выше файле данные разделены символом «|». Поэтому, для прочтения этого файла в функции read_csv нужно определить аргумент sep = «|»:
Мы рассмотрели только некоторые возможные аргументы функции read_csv(), которая используется для csv файла в Python. С полным списком аргументов можно ознакомиться в официальной документации.
pandas.read_csv¶
AnyStr]], sep=’,’, delimiter=None, header=’infer’, names=None, index_col=None, usecols=None, squeeze=False, prefix=None, mangle_dupe_cols=True, dtype=None, engine=None, converters=None, true_values=None, false_values=None, skipinitialspace=False, skiprows=None, skipfooter=0, nrows=None, na_values=None, keep_default_na=True, na_filter=True, verbose=False, skip_blank_lines=True, parse_dates=False, infer_datetime_format=False, keep_date_col=False, date_parser=None, dayfirst=False, cache_dates=True, iterator=False, chunksize=None, compression=’infer’, thousands=None, decimal=b’.’, lineterminator=None, quotechar='»‘, quoting=0, doublequote=True, escapechar=None, comment=None, encoding=None, dialect=None, tupleize_cols=None, error_bad_lines=True, warn_bad_lines=True, delim_whitespace=False, low_memory=True, memory_map=False, float_precision=None ) [source] ¶
Read a comma-separated values (csv) file into DataFrame.
Also supports optionally iterating or breaking of the file into chunks.
Additional help can be found in the online docs for IO Tools.
Parameters: | filepath_or_buffer : str, path object, or file-like object Any valid string path is acceptable. The string could be a URL. Valid URL schemes include http, ftp, s3, and file. For file URLs, a host is expected. A local file could be: file://localhost/path/to/table.csv. If you want to pass in a path object, pandas accepts either pathlib.Path or py._path.local.LocalPath . By file-like object, we refer to objects with a read() method, such as a file handler (e.g. via builtin open function) or StringIO . sep : str, default ‘,’ Delimiter to use. If sep is None, the C engine cannot automatically detect the separator, but the Python parsing engine can, meaning the latter will be used and automatically detect the separator by Python’s builtin sniffer tool, csv.Sniffer . In addition, separators longer than 1 character and different from ‘\s+’ will be interpreted as regular expressions and will also force the use of the Python parsing engine. Note that regex delimiters are prone to ignoring quoted data. Regex example: ‘\r\t’ . delimiter : str, default None header : int, list of int, default ‘infer’ Row number(s) to use as the column names, and the start of the data. Default behavior is to infer the column names: if no names are passed the behavior is identical to header=0 and column names are inferred from the first line of the file, if column names are passed explicitly then the behavior is identical to header=None . Explicitly pass header=0 to be able to replace existing names. The header can be a list of integers that specify row locations for a multi-index on the columns e.g. [0,1,3]. Intervening rows that are not specified will be skipped (e.g. 2 in this example is skipped). Note that this parameter ignores commented lines and empty lines if skip_blank_lines=True , so header=0 denotes the first line of data rather than the first line of the file. names : array-like, optional List of column names to use. If file contains no header row, then you should explicitly pass header=None . Duplicates in this list will cause a UserWarning to be issued. index_col : int, str, sequence of int / str, or False, default None Column(s) to use as the row labels of the DataFrame , either given as string name or column index. If a sequence of int / str is given, a MultiIndex is used. Note: index_col=False can be used to force pandas to not use the first column as the index, e.g. when you have a malformed file with delimiters at the end of each line. usecols : list-like or callable, optional Return a subset of the columns. If list-like, all elements must either be positional (i.e. integer indices into the document columns) or strings that correspond to column names provided either by the user in names or inferred from the document header row(s). For example, a valid list-like usecols parameter would be [0, 1, 2] or [‘foo’, ‘bar’, ‘baz’] . Element order is ignored, so usecols=[0, 1] is the same as [1, 0] . To instantiate a DataFrame from data with element order preserved use pd.read_csv(data, usecols=[‘foo’, ‘bar’])[[‘foo’, ‘bar’]] for columns in [‘foo’, ‘bar’] order or pd.read_csv(data, usecols=[‘foo’, ‘bar’])[[‘bar’, ‘foo’]] for [‘bar’, ‘foo’] order. If callable, the callable function will be evaluated against the column names, returning names where the callable function evaluates to True. An example of a valid callable argument would be lambda x: x.upper() in [‘AAA’, ‘BBB’, ‘DDD’] . Using this parameter results in much faster parsing time and lower memory usage. squeeze : bool, default False If the parsed data only contains one column then return a Series. prefix : str, optional Prefix to add to column numbers when no header, e.g. ‘X’ for X0, X1, … mangle_dupe_cols : bool, default True Duplicate columns will be specified as ‘X’, ‘X.1’, …’X.N’, rather than ‘X’…’X’. Passing in False will cause data to be overwritten if there are duplicate names in the columns. dtype : Type name or dict of column -> type, optional Data type for data or columns. E.g. <‘a’: np.float64, ‘b’: np.int32, ‘c’: ‘Int64’>Use str or object together with suitable na_values settings to preserve and not interpret dtype. If converters are specified, they will be applied INSTEAD of dtype conversion. engine : <‘c’, ‘python’>, optional Parser engine to use. The C engine is faster while the python engine is currently more feature-complete. converters : dict, optional Dict of functions for converting values in certain columns. Keys can either be integers or column labels. true_values : list, optional Values to consider as True. false_values : list, optional Values to consider as False. skipinitialspace : bool, default False Skip spaces after delimiter. skiprows : list-like, int or callable, optional Line numbers to skip (0-indexed) or number of lines to skip (int) at the start of the file. If callable, the callable function will be evaluated against the row indices, returning True if the row should be skipped and False otherwise. An example of a valid callable argument would be lambda x: x in [0, 2] . skipfooter : int, default 0 Number of lines at bottom of file to skip (Unsupported with engine=’c’). nrows : int, optional Number of rows of file to read. Useful for reading pieces of large files. na_values : scalar, str, list-like, or dict, optional Additional strings to recognize as NA/NaN. If dict passed, specific per-column NA values. By default the following values are interpreted as NaN: ‘’, ‘#N/A’, ‘#N/A N/A’, ‘#NA’, ‘-1.#IND’, ‘-1.#QNAN’, ‘-NaN’, ‘-nan’, ‘1.#IND’, ‘1.#QNAN’, ‘N/A’, ‘NA’, ‘NULL’, ‘NaN’, ‘n/a’, ‘nan’, ‘null’. keep_default_na : bool, default True Whether or not to include the default NaN values when parsing the data. Depending on whether na_values is passed in, the behavior is as follows:
Note that if na_filter is passed in as False, the keep_default_na and na_values parameters will be ignored. na_filter : bool, default True Detect missing value markers (empty strings and the value of na_values). In data without any NAs, passing na_filter=False can improve the performance of reading a large file. verbose : bool, default False Indicate number of NA values placed in non-numeric columns. skip_blank_lines : bool, default True If True, skip over blank lines rather than interpreting as NaN values. parse_dates : bool or list of int or names or list of lists or dict, default False The behavior is as follows:
If a column or index cannot be represented as an array of datetimes, say because of an unparseable value or a mixture of timezones, the column or index will be returned unaltered as an object data type. For non-standard datetime parsing, use pd.to_datetime after pd.read_csv . To parse an index or column with a mixture of timezones, specify date_parser to be a partially-applied pandas.to_datetime() with utc=True . See Parsing a CSV with mixed Timezones for more. Note: A fast-path exists for iso8601-formatted dates. infer_datetime_format : bool, default False If True and parse_dates is enabled, pandas will attempt to infer the format of the datetime strings in the columns, and if it can be inferred, switch to a faster method of parsing them. In some cases this can increase the parsing speed by 5-10x. keep_date_col : bool, default False If True and parse_dates specifies combining multiple columns then keep the original columns. date_parser : function, optional Function to use for converting a sequence of string columns to an array of datetime instances. The default uses dateutil.parser.parser to do the conversion. Pandas will try to call date_parser in three different ways, advancing to the next if an exception occurs: 1) Pass one or more arrays (as defined by parse_dates ) as arguments; 2) concatenate (row-wise) the string values from the columns defined by parse_dates into a single array and pass that; and 3) call date_parser once for each row using one or more strings (corresponding to the columns defined by parse_dates ) as arguments. dayfirst : bool, default False DD/MM format dates, international and European format. cache_dates : boolean, default True If True, use a cache of unique, converted dates to apply the datetime conversion. May produce significant speed-up when parsing duplicate date strings, especially ones with timezone offsets. New in version 0.25.0. Return TextFileReader object for iteration or getting chunks with get_chunk() . chunksize : int, optional Return TextFileReader object for iteration. See the IO Tools docs for more information on iterator and chunksize . For on-the-fly decompression of on-disk data. If ‘infer’ and filepath_or_buffer is path-like, then detect compression from the following extensions: ‘.gz’, ‘.bz2’, ‘.zip’, or ‘.xz’ (otherwise no decompression). If using ‘zip’, the ZIP file must contain only one data file to be read in. Set to None for no decompression. New in version 0.18.1: support for ‘zip’ and ‘xz’ compression. decimal : str, default ‘.’ Character to recognize as decimal point (e.g. use ‘,’ for European data). lineterminator : str (length 1), optional Character to break file into lines. Only valid with C parser. quotechar : str (length 1), optional The character used to denote the start and end of a quoted item. Quoted items can include the delimiter and it will be ignored. quoting : int or csv.QUOTE_* instance, default 0 Control field quoting behavior per csv.QUOTE_* constants. Use one of QUOTE_MINIMAL (0), QUOTE_ALL (1), QUOTE_NONNUMERIC (2) or QUOTE_NONE (3). doublequote : bool, default True When quotechar is specified and quoting is not QUOTE_NONE , indicate whether or not to interpret two consecutive quotechar elements INSIDE a field as a single quotechar element. escapechar : str (length 1), optional One-character string used to escape other characters. comment : str, optional Indicates remainder of line should not be parsed. If found at the beginning of a line, the line will be ignored altogether. This parameter must be a single character. Like empty lines (as long as skip_blank_lines=True ), fully commented lines are ignored by the parameter header but not by skiprows . For example, if comment=’#’ , parsing #empty\na,b,c\n1,2,3 with header=0 will result in ‘a,b,c’ being treated as the header. encoding : str, optional Encoding to use for UTF when reading/writing (ex. ‘utf-8’). List of Python standard encodings . dialect : str or csv.Dialect, optional If provided, this parameter will override values (default or not) for the following parameters: delimiter , doublequote , escapechar , skipinitialspace , quotechar , and quoting . If it is necessary to override values, a ParserWarning will be issued. See csv.Dialect documentation for more details. tupleize_cols : bool, default False Leave a list of tuples on columns as is (default is to convert to a MultiIndex on the columns). Deprecated since version 0.21.0: This argument will be removed and will always convert to MultiIndex Lines with too many fields (e.g. a csv line with too many commas) will by default cause an exception to be raised, and no DataFrame will be returned. If False, then these “bad lines” will dropped from the DataFrame that is returned. warn_bad_lines : bool, default True If error_bad_lines is False, and warn_bad_lines is True, a warning for each “bad line” will be output. delim_whitespace : bool, default False Specifies whether or not whitespace (e.g. ‘ ‘ or ‘ ‘ ) will be used as the sep. Equivalent to setting sep=’\s+’ . If this option is set to True, nothing should be passed in for the delimiter parameter. New in version 0.18.1: support for the Python parser. Internally process the file in chunks, resulting in lower memory use while parsing, but possibly mixed type inference. To ensure no mixed types either set False, or specify the type with the dtype parameter. Note that the entire file is read into a single DataFrame regardless, use the chunksize or iterator parameter to return the data in chunks. (Only valid with C parser). memory_map : bool, default False If a filepath is provided for filepath_or_buffer , map the file object directly onto memory and access the data directly from there. Using this option can improve performance because there is no longer any I/O overhead. float_precision : str, optional Specifies which converter the C engine should use for floating-point values. The options are None for the ordinary converter, high for the high-precision converter, and round_trip for the round-trip converter. |
---|---|
Returns: | DataFrame or TextParser A comma-separated values (csv) file is returned as two-dimensional data structure with labeled axes. to_csv Write DataFrame to a comma-separated values (csv) file. read_csv Read a comma-separated values (csv) file into DataFrame. read_fwf Read a table of fixed-width formatted lines into DataFrame. |