未分類 5 2 月 2021 每天 20 多 g 数据,如何最快处理完成啊? 每天 20 多 g 数据,如何最快处理完成啊? 資深大佬 : fourstone 6 每天 20 多 g 数据,如何最快处理完成啊? 默认后缀都是随机 大佬有話說 (13) 資深大佬 : wzzzx 问问题能不能描述清楚啊大哥 資深大佬 : alazysun 什么东西,没看懂 資深大佬 : Mithril shift+del,只需要一秒写个定时任务也可以 資深大佬 : Keyes 20 多 G 的话要看数据在哪了,如果在硬盘上就得这样处理,如果可以读到内存里,就可以那样处理是最合理的,至于默认的随机后缀,我记得有一个开源项目就是专门搞这个的,速度好像还挺快(我记不清了),你可以去找一下 資深大佬 : sutking rm -rf ? 資深大佬 : renmu123 先这样,再那样,最后再这样一下就可以了 資深大佬 : pjntt 流式日志处理 資深大佬 : felixcode 对他们念一遍金刚经 資深大佬 : dzyou2007 咋处理?需求不说清楚谁也没法回答。 資深大佬 : pckillers 朗读并背诵全部数据,然后 shift del 資深大佬 : vcode 这样就可以了 資深大佬 : sadfQED2 @renmu123 不不不,你这样不行,你要先那样,然后再这样,最后这样就可以了 資深大佬 : unixeno 啪的一下,很快啊,就处理完了