HOME 首頁(yè)
SERVICE 服務(wù)產(chǎn)品
XINMEITI 新媒體代運(yùn)營(yíng)
CASE 服務(wù)案例
NEWS 熱點(diǎn)資訊
ABOUT 關(guān)于我們
CONTACT 聯(lián)系我們
創(chuàng)意嶺
讓品牌有溫度、有情感
專注品牌策劃15年

    pd.readcsv參數(shù)(pd.read_csv參數(shù))

    發(fā)布時(shí)間:2023-03-13 05:17:18     稿源: 創(chuàng)意嶺    閱讀: 141        問(wèn)大家

    大家好!今天讓創(chuàng)意嶺的小編來(lái)大家介紹下關(guān)于pd.readcsv參數(shù)的問(wèn)題,以下是小編對(duì)此問(wèn)題的歸納整理,讓我們一起來(lái)看看吧。

    ChatGPT國(guó)內(nèi)免費(fèi)在線使用,一鍵生成原創(chuàng)文章、方案、文案、工作計(jì)劃、工作報(bào)告、論文、代碼、作文、做題和對(duì)話答疑等等

    只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁(yè)版、PC客戶端

    官網(wǎng):https://ai.de1919.com

    本文目錄:

    pd.readcsv參數(shù)(pd.read_csv參數(shù))

    一、python 讀取CSV 文件

    讀取一個(gè)CSV 文件

    最全的

    一個(gè)簡(jiǎn)化版本

    filepath_or_buffer : str,pathlib。str, pathlib.Path, py._path.local.LocalPath or any object with a read() method (such as a file handle or StringIO)

    可以是URL,可用URL類型包括:http, ftp, s3和文件。對(duì)于多文件正在準(zhǔn)備中

    本地文件讀取實(shí)例:://localhost/path/to/table.csv

    **sep **: str, default ‘,’

    指定分隔符。如果不指定參數(shù),則會(huì)嘗試使用逗號(hào)分隔。分隔符長(zhǎng)于一個(gè)字符并且不是‘s+’,將使用python的語(yǔ)法分析器。并且忽略數(shù)據(jù)中的逗號(hào)。正則表達(dá)式例子:'rt'

    **delimiter **: str, default None

    定界符,備選分隔符(如果指定該參數(shù),則sep參數(shù)失效)

    delim_whitespace : boolean, default False.

    指定空格(例如’ ‘或者’ ‘)是否作為分隔符使用,等效于設(shè)定sep='s+'。如果這個(gè)參數(shù)設(shè)定為Ture那么delimiter 參數(shù)失效。

    在新版本0.18.1支持

    header : int or list of ints, default ‘infer’

    指定行數(shù)用來(lái)作為列名,數(shù)據(jù)開(kāi)始行數(shù)。如果文件中沒(méi)有列名,則默認(rèn)為0,否則設(shè)置為None。如果明確設(shè)定header=0 就會(huì)替換掉原來(lái)存在列名。header參數(shù)可以是一個(gè)list例如:[0,1,3],這個(gè)list表示將文件中的這些行作為列標(biāo)題(意味著每一列有多個(gè)標(biāo)題),介于中間的行將被忽略掉。

    注意:如果skip_blank_lines=True 那么header參數(shù)忽略注釋行和空行,所以header=0表示第一行數(shù)據(jù)而不是文件的第一行。

    **names **: array-like, default None

    用于結(jié)果的列名列表,如果數(shù)據(jù)文件中沒(méi)有列標(biāo)題行,就需要執(zhí)行header=None。默認(rèn)列表中不能出現(xiàn)重復(fù),除非設(shè)定參數(shù)mangle_dupe_cols=True。

    index_col : int or sequence or False, default None

    用作行索引的列編號(hào)或者列名,如果給定一個(gè)序列則有多個(gè)行索引。

    如果文件不規(guī)則,行尾有分隔符,則可以設(shè)定index_col=False 來(lái)是的pandas不適用第一列作為行索引。

    usecols : array-like, default None

    返回一個(gè)數(shù)據(jù)子集,該列表中的值必須可以對(duì)應(yīng)到文件中的位置(數(shù)字可以對(duì)應(yīng)到指定的列)或者是字符傳為文件中的列名。例如:usecols有效參數(shù)可能是 [0,1,2]或者是 [‘foo’, ‘bar’, ‘baz’]。使用這個(gè)參數(shù)可以加快加載速度并降低內(nèi)存消耗。

    as_recarray : boolean, default False

    不贊成使用:該參數(shù)會(huì)在未來(lái)版本移除。請(qǐng)使用pd.read_csv(...).to_records()替代。

    返回一個(gè)Numpy的recarray來(lái)替代DataFrame。如果該參數(shù)設(shè)定為True。將會(huì)優(yōu)先squeeze參數(shù)使用。并且行索引將不再可用,索引列也將被忽略。

    **squeeze **: boolean, default False

    如果文件值包含一列,則返回一個(gè)Series

    **prefix **: str, default None

    在沒(méi)有列標(biāo)題時(shí),給列添加前綴。例如:添加‘X’ 成為 X0, X1, ...

    **mangle_dupe_cols **: boolean, default True

    重復(fù)的列,將‘X’...’X’表示為‘X.0’...’X.N’。如果設(shè)定為false則會(huì)將所有重名列覆蓋。

    dtype : Type name or dict of column -> type, default None

    每列數(shù)據(jù)的數(shù)據(jù)類型。例如 {‘a(chǎn)’: np.float64, ‘b’: np.int32}

    **engine **: {‘c’, ‘python’}, optional

    Parser engine to use. The C engine is faster while the python engine is currently more feature-complete.

    使用的分析引擎。可以選擇C或者是python。C引擎快但是Python引擎功能更加完備。

    converters : dict, default None

    列轉(zhuǎn)換函數(shù)的字典。key可以是列名或者列的序號(hào)。

    true_values : list, default None

    Values to consider as True

    false_values : list, default None

    Values to consider as False

    **skipinitialspace **: boolean, default False

    忽略分隔符后的空白(默認(rèn)為False,即不忽略).

    skiprows : list-like or integer, default None

    需要忽略的行數(shù)(從文件開(kāi)始處算起),或需要跳過(guò)的行號(hào)列表(從0開(kāi)始)。

    skipfooter : int, default 0

    從文件尾部開(kāi)始忽略。 (c引擎不支持)

    skip_footer : int, default 0

    不推薦使用:建議使用skipfooter ,功能一樣。

    nrows : int, default None

    需要讀取的行數(shù)(從文件頭開(kāi)始算起)。

    na_values : scalar, str, list-like, or dict, default None

    一組用于替換NA/NaN的值。如果傳參,需要制定特定列的空值。默認(rèn)為‘1.#IND’, ‘1.#QNAN’, ‘N/A’, ‘NA’, ‘NULL’, ‘NaN’, ‘nan’`.

    **keep_default_na **: bool, default True

    如果指定na_values參數(shù),并且keep_default_na=False,那么默認(rèn)的NaN將被覆蓋,否則添加。

    **na_filter **: boolean, default True

    是否檢查丟失值(空字符串或者是空值)。對(duì)于大文件來(lái)說(shuō)數(shù)據(jù)集中沒(méi)有空值,設(shè)定na_filter=False可以提升讀取速度。

    verbose : boolean, default False

    是否打印各種解析器的輸出信息,例如:“非數(shù)值列中缺失值的數(shù)量”等。

    skip_blank_lines : boolean, default True

    如果為True,則跳過(guò)空行;否則記為NaN。

    **parse_dates **: boolean or list of ints or names or list of lists or dict, default False

    infer_datetime_format : boolean, default False

    如果設(shè)定為True并且parse_dates 可用,那么pandas將嘗試轉(zhuǎn)換為日期類型,如果可以轉(zhuǎn)換,轉(zhuǎn)換方法并解析。在某些情況下會(huì)快5~10倍。

    **keep_date_col **: boolean, default False

    如果連接多列解析日期,則保持參與連接的列。默認(rèn)為False。

    date_parser : function, default None

    用于解析日期的函數(shù),默認(rèn)使用dateutil.parser.parser來(lái)做轉(zhuǎn)換。Pandas嘗試使用三種不同的方式解析,如果遇到問(wèn)題則使用下一種方式。

    1.使用一個(gè)或者多個(gè)arrays(由parse_dates指定)作為參數(shù);

    2.連接指定多列字符串作為一個(gè)列作為參數(shù);

    3.每行調(diào)用一次date_parser函數(shù)來(lái)解析一個(gè)或者多個(gè)字符串(由parse_dates指定)作為參數(shù)。

    **dayfirst **: boolean, default False

    DD/MM格式的日期類型

    **iterator **: boolean, default False

    返回一個(gè)TextFileReader 對(duì)象,以便逐塊處理文件。

    chunksize : int, default None

    文件塊的大小, See IO Tools docs for more information on iterator and chunksize.

    compression : {‘infer’, ‘gzip’, ‘bz2’, ‘zip’, ‘xz’, None}, default ‘infer’

    直接使用磁盤上的壓縮文件。如果使用infer參數(shù),則使用 gzip, bz2, zip或者解壓文件名中以‘.gz’, ‘.bz2’, ‘.zip’, or ‘xz’這些為后綴的文件,否則不解壓。如果使用zip,那么ZIP包中國(guó)必須只包含一個(gè)文件。設(shè)置為None則不解壓。

    新版本0.18.1版本支持zip和xz解壓

    thousands : str, default None

    千分位分割符,如“,”或者“."

    decimal : str, default ‘.’

    字符中的小數(shù)點(diǎn) (例如:歐洲數(shù)據(jù)使用’,‘).

    float_precision : string, default None

    Specifies which converter the C engine should use for floating-point values. The options are None for the ordinary converter, high for the high-precision converter, and round_trip for the round-trip converter.

    指定

    **lineterminator **: str (length 1), default None

    行分割符,只在C解析器下使用。

    **quotechar **: str (length 1), optional

    引號(hào),用作標(biāo)識(shí)開(kāi)始和解釋的字符,引號(hào)內(nèi)的分割符將被忽略。

    quoting : int or csv.QUOTE_* instance, default 0

    控制csv中的引號(hào)常量??蛇x QUOTE_MINIMAL (0), QUOTE_ALL (1), QUOTE_NONNUMERIC (2) or QUOTE_NONE (3)

    doublequote : boolean, default True

    雙引號(hào),當(dāng)單引號(hào)已經(jīng)被定義,并且quoting 參數(shù)不是QUOTE_NONE的時(shí)候,使用雙引號(hào)表示引號(hào)內(nèi)的元素作為一個(gè)元素使用。

    escapechar : str (length 1), default None

    當(dāng)quoting 為QUOTE_NONE時(shí),指定一個(gè)字符使的不受分隔符限值。

    comment : str, default None

    標(biāo)識(shí)著多余的行不被解析。如果該字符出現(xiàn)在行首,這一行將被全部忽略。這個(gè)參數(shù)只能是一個(gè)字符,空行(就像skip_blank_lines=True)注釋行被header和skiprows忽略一樣。例如如果指定comment='#' 解析‘#emptyna,b,cn1,2,3’ 以header=0 那么返回結(jié)果將是以’a,b,c'作為header。

    encoding : str, default None

    指定字符集類型,通常指定為'utf-8'. List of Python standard encodings

    dialect : str or csv.Dialect instance, default None

    如果沒(méi)有指定特定的語(yǔ)言,如果sep大于一個(gè)字符則忽略。具體查看csv.Dialect 文檔

    tupleize_cols : boolean, default False

    Leave a list of tuples on columns as is (default is to convert to a Multi Index on the columns)

    error_bad_lines : boolean, default True

    如果一行包含太多的列,那么默認(rèn)不會(huì)返回DataFrame ,如果設(shè)置成false,那么會(huì)將改行剔除(只能在C解析器下使用)。

    warn_bad_lines : boolean, default True

    如果error_bad_lines =False,并且warn_bad_lines =True 那么所有的“bad lines”將會(huì)被輸出(只能在C解析器下使用)。

    **low_memory **: boolean, default True

    分塊加載到內(nèi)存,再低內(nèi)存消耗中解析。但是可能出現(xiàn)類型混淆。確保類型不被混淆需要設(shè)置為False?;蛘呤褂胐type 參數(shù)指定類型。注意使用chunksize 或者iterator 參數(shù)分塊讀入會(huì)將整個(gè)文件讀入到一個(gè)Dataframe,而忽略類型(只能在C解析器中有效)

    **buffer_lines **: int, default None

    不推薦使用,這個(gè)參數(shù)將會(huì)在未來(lái)版本移除,因?yàn)樗闹翟诮馕銎髦胁煌扑]使用

    compact_ints : boolean, default False

    不推薦使用,這個(gè)參數(shù)將會(huì)在未來(lái)版本移除

    如果設(shè)置compact_ints=True ,那么任何有整數(shù)類型構(gòu)成的列將被按照最小的整數(shù)類型存儲(chǔ),是否有符號(hào)將取決于use_unsigned 參數(shù)

    use_unsigned : boolean, default False

    不推薦使用:這個(gè)參數(shù)將會(huì)在未來(lái)版本移除

    如果整數(shù)列被壓縮(i.e. compact_ints=True),指定被壓縮的列是有符號(hào)還是無(wú)符號(hào)的。

    memory_map : boolean, default False

    如果使用的文件在內(nèi)存內(nèi),那么直接map文件使用。使用這種方式可以避免文件再次進(jìn)行IO操作。

    ref:

    http://pandas.pydata.org/pandas-docs/stable/generated/pandas.read_csv.html

    二、python關(guān)于pd.read_csv()的Permission denied錯(cuò)誤

    是因?yàn)樵趫?zhí)行pd.read_csv()函數(shù)時(shí),該csv文件是打開(kāi)狀態(tài)。程序中不能再打開(kāi)這個(gè)文件,把桌面的該csv文件關(guān)閉即可。

    三、python里pd.read_csv方法 formart后面是什么意思?

    第二句肯定是抄錯(cuò)了

    '.format(date.strftime('%Y%m%d') 這句沒(méi)起到任何作用 刪了是一樣的效果

    四、量化(一) 使用csv格式用二維數(shù)組Dataframe讀取數(shù)據(jù)

    1.首先用股票交易軟件導(dǎo)出成交明細(xì),導(dǎo)出格式為.xls

    2.用excel打開(kāi)后,另存為csv格式 用記事本打開(kāi)即可

      格式如下 用逗號(hào)分隔

    時(shí)間,成交價(jià),手?jǐn)?shù),筆數(shù)

    09:15:03,15.3500,0,0

    09:15:12,15.4000,0,0

    09:17:00,15.4100,0,0

    09:17:09,15.4000,0,0

    09:17:36,15.4100,0,0

    09:17:45,15.4000,0,0

    09:17:54,15.4100,0,0

    09:25:03,15.4100,"8,147,900","2,015"

    09:30:03,15.3000,"761,900",371

    09:30:06,15.3200,"1,690,900",935

    3.使用二維數(shù)組Dataframe讀取

    用pd.read_csv()方法讀取

    df_csvload = pd.read_csv( path, header = 1 , names=range(2,8),    index_col=0 , encoding='gb2312' )  #header 1第1行作為列索引    

    #header = None 就是沒(méi)有定義列索引,系統(tǒng)會(huì)自動(dòng)添加一個(gè)列索引0開(kāi)始的

    # names指定列索引名稱 2到7結(jié)束 

    #index_col指定數(shù)據(jù)中哪一列作為行索引   encoding設(shè)置編碼格式

    print(df_csvload )

    以上就是關(guān)于pd.readcsv參數(shù)相關(guān)問(wèn)題的回答。希望能幫到你,如有更多相關(guān)問(wèn)題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會(huì)為您講解更多精彩的知識(shí)和內(nèi)容。


    推薦閱讀:

    市場(chǎng)營(yíng)銷學(xué)第12版全球版(市場(chǎng)營(yíng)銷學(xué)第12版全球版pdf)

    個(gè)人1P是什么意思(個(gè)人pdp是什么)

    西方現(xiàn)代景觀設(shè)計(jì)(西方現(xiàn)代景觀設(shè)計(jì)的理論與實(shí)踐pdf)

    改寫論文的軟件(改寫論文的軟件有哪些)

    品牌vi設(shè)計(jì)手冊(cè)