资讯

精准传达 • 有效沟通

从品牌网站建设到网络营销策划,从策略到执行的一站式服务

Pandas怎么读取大文件

这篇文章主要介绍Pandas怎么读取大文件,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!

成都创新互联公司专注于铁岭网站建设服务及定制,我们拥有丰富的企业做网站经验。 热诚为您提供铁岭营销型网站建设,铁岭网站制作、铁岭网页设计、铁岭网站官网定制、小程序设计服务,打造铁岭网络公司原创品牌,更为您提供铁岭网站排名全网营销落地服务。

如何利用pandas来读取大文件,4个技巧:

  • 如何利用read_csv函数读取没有表头的文件

  • get_chunk()方法来分块读取数据

  • concat()方法将数据库进行叠加(垂直方向)

  • 若数据量过大,采取随机抽放(是否放回)

Pandas怎么读取大文件

filepath = open("taobao.csv",errors="ignore")  # 指定文件路径
reader = pd.read_csv(filepath, 
                     header=None, 
                     names=["user_id","item_id","cat_id","type","time"],  # 指定列属性名称
                     iterator=True)

# loop,chunkSize,chunks = True, 10000000, []  # 连续赋值语句
loop = True
chunkSize = 10000000
chunks = []

while loop:  # loop一直为True,执行循环
    try:
        chunk = reader.get_chunk(chunkSize)
        chunks.append(chunk)
    except StopIteration:
        loop = False
        print("Iteration is stopped.")
        
# 如果考虑数据量过大,只抽取部分的数据来进行分析,采取不放回抽样的方式
# pd.concat(chunks, ignore_index=True).sample(frac=0.05, replace=False)  不放回抽样、记录不重复

df = pd.concat(chunks, ignore_index=True)

以上是“Pandas怎么读取大文件”这篇文章的所有内容,感谢各位的阅读!希望分享的内容对大家有帮助,更多相关知识,欢迎关注创新互联行业资讯频道!


网页标题:Pandas怎么读取大文件
转载源于:http://cdkjz.cn/article/gjgpsh.html
多年建站经验

多一份参考,总有益处

联系快上网,免费获得专属《策划方案》及报价

咨询相关问题或预约面谈,可以通过以下方式与我们联系

业务热线:400-028-6601 / 大客户专线   成都:13518219792   座机:028-86922220