Python 或 pandas 怎么读取 1g 的大 json 文件?

2019 年 8 月 7 日
 habin

json 格式是:

{

"AAPP":["0","0","0","0","0"],

"AAPP_TD":["0","0","0","0","0"],

"ABC1_ECM":["1","1","1","1","1"],

...,

"ROWKEY":"30072019B20020051"}

7260 次点击
所在节点    Python
19 条回复
habin
2019 年 8 月 7 日
提取其中需要的键值对进 pandas,比如"ABC1_ECM":["1","1","1","1","1"] 中的 ABC1_ECM 作为表头,列表作为数据
faketemp
2019 年 8 月 7 日
如果要一次性装载 1G 大小的 json 在内存中分析 感觉会很卡很慢
试过用 python 加载 200M 左右的文本文件约 1000 万行数据,用传说中的大数据清洗工具 flashtext 替换一个字词超过半个钟(不知道是不是姿势不太对),只能放弃

不知道大文本 /大数据清洗到底该用什么趁手工具或者库?
JCZ2MkKb5S8ZX9pq
2019 年 8 月 7 日
这么大的话,我会选择先搞进 mongodb,顺便把常用的索引也做了。
Orenoid
2019 年 8 月 7 日
这个大小就不应该用 json 存吧。。格式固定的话,自己逐行读取解析吧
mystorp
2019 年 8 月 7 日
使用 json stream parser 如果是 node,可以看看这个库:JSONStream。其它语言的自己搜索下
IanPeverell
2019 年 8 月 7 日
先存到 mongo 或者 redis 里然后再读吧
CCColby
2019 年 8 月 7 日
按照行读,设置 chunk size ?然后 for 处理咯
SbloodyS
2019 年 8 月 7 日
1G 不大,开多几个进程切片就好了,想快就开 spark
shuson
2019 年 8 月 7 日
用 hive,create external table
然后用 spark sql 读
flyingghost
2019 年 8 月 7 日
这么规整的文件,是否可以考虑尝试当做 csv 来读? read_csv 的 sep 参数支持正则的。
F281M6Dh8DXpD1g2
2019 年 8 月 7 日
pyspark 读完写入数据库
轻轻松松
JunoNin
2019 年 8 月 7 日
这么大,来看看别人怎么说
gam2046
2019 年 8 月 7 日
分情况,内存状况是否允许一次性载入内存

- 允许:一把梭,小文件怎么搞,这个一样搞,无非费点内存
- 不允许:使用 Stream API 读取,避免一次性载入内存
smallgoogle
2019 年 8 月 7 日
真心太大了。还先想想把它导入数据库把。
gamexg
2019 年 8 月 7 日
流式解析,流式写入即可

python 不熟悉,关键字 python stream json 搜索到的库:

https://github.com/danielyule/naya

http://explique.me/Ijson/
arrow8899
2019 年 8 月 7 日
同楼上,可以通过 stream 来解析;
不过我好奇这文件怎么来的,而且用 Json 来传输这么大的数据损耗太严重了,用其他二进制格式的话,数据大小可以减小好几倍;再分析下数据的规律,其实还有很大的压缩空间。
momocraft
2019 年 8 月 7 日
这个 json 的 py 内存表示 可能比 json 字符串本身大不少
necomancer
2019 年 8 月 10 日
pandas 不是有 read_json 函数么……没用过,但是印象里 pandas 的解析器大多是 C 版的,效率应该不差。
feelyou
2019 年 8 月 30 日
我这里有个 96g 的 json。。。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://study.congcong.us/t/589822

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX