请问一下,数据处理需求频繁变更时,如何提高数据处理的效率?

22次阅读

共计 206 个字符,预计需要花费 1 分钟才能阅读完成。

请问一下,数据处理需求频繁变更时,各位是怎么做的?

公司会产生很多 json 格式的数据,任务是需要对这些 json 数据进行数据处理,提取 / 重组其中的一些 key: value,按照甲方的要求生成特定的数据集 (也是 json 格式 )。

之前一直是编写 python 脚本直接处理数据,但是费时费力,甲方有时候一些小要求,代码就需要改动很多。有没有什么办法可以更加标准化 / 便捷的做这件事?比如能否利用某些数据库去完成这个任务?

非常感谢🙏

正文完
 0