未分類 6 5 月 2020 几万条数据批量写入消息队列哪种支持好 几万条数据批量写入消息队列哪种支持好 資深大佬 : jugelizi 14 一次性发送短信 写到消息队列一条条发送 那么写入时一条条写进去 用哪种消息队列合适啊 大佬有話說 (22) 資深大佬 : areless 我用 redis 或者共享内存加外部脚本,在 nginx 形成一个漏桶模型写入负载~~~因为我不相信会持续几万条。分摊到时间也就几分钟 資深大佬 : kuafou 丢 kafka 里没有任何压力 資深大佬 : rockyou12 才几万条……扔 kafka 它感觉都没有 資深大佬 : hncqp kafka 資深大佬 : misaka19000 redis or kafka 資深大佬 : Mmiracle110 kafka rocketmq 都行吧 資深大佬 : watzds 这么点哪种会有压力啊 資深大佬 : niubee1 这个 tinny 级别的数据量, 随便啥都能行 資深大佬 : billlee 几万条批量写入用 mysql 存都没有压力(当然不推荐这样搞) 資深大佬 : cominghome 主这个问题其实可以引申为“不要过早优化”。因为大部分被关注的框架、中间件性能方面都不会有很严重的问题,你只需要考虑易用和后续支持就可以了。几万条的数据给 rocketmq 这种 warm up 可能都做不到(当然,我不知道 rocketmq 有没有 warm up 这个过程) 資深大佬 : wangyzj 任何都行 資深大佬 : L1shen rabbitmq 資深大佬 : binbinyouliiii kafka:”开始了吗?” 程序:”已经结束了” 資深大佬 : hspeed18 搞笑,几万条有个鸡儿的压力 資深大佬 : xcstream 放在数组里 循环吧(滑稽) 資深大佬 : Lonely 市面上常用的随便一款都行吧 資深大佬 : zxlzy 才几万条数据,你随便哪个都行啊。 資深大佬 : RedBeanIce @binbinyouliiii 原谅我笑了 資深大佬 : Aresxue 才几万条。。。别引入中间件了,直接用个线程池得了 資深大佬 : feelinglucky 数据库不大,我估计主是对可靠性的诉求更多一点吧? 資深大佬 : raysonlu 你是担心大量写进去导致崩溃还是什么?分享一个案例,几万条数据写入 redis 队列,写入请求一下子就完成没问题,但即时查询队列时,部分数据依然查不到,等个一两分钟就好了,疑似 redis 接收了请求和再一一写入。 主 資深大佬 : jugelizi @raysonlu 我就是想 redis 有个管道可以批量写入 其他的队列没找到