0%

关于分布式、集群等概念粗谈

随着软件使用人数的增加,现在对后端处理性能的要求越来越高,动辄高并发qps需求就是2k+。前几天用自己的1h2g小服务器简单的跑了个压力测试,发现仅仅能到400qps,用r9000p跑就能跑到2k+。因此有感,升级服务器来提高处理量所带来的开支远大于压榨程序员、使用多台便宜的次级服务器来运行分布式的开支。

最近分布式、docker、k8s、kafka等技术的应用深入,越搞机制越复杂,机制越复杂不可靠,越不可靠越要搞更多机制去弥补,最后就是拿一大堆性能消耗导致的硬件需求暴涨、复杂度骤增导致的维护难度暴涨来换取效率和可靠性。

什么分布式,分库分表,集群之类的,都是因为电脑性能跟不上不得已才作为弥补出来的东西。但确实没办法。这么搞本质是因为硬件水平跟不上需求,所以只能通过架构来绕开硬件限制。

站在企业的角度考虑确实符合降本增效的理念,省下了升级服务器的成本,还增加了服务性能。高并发易拓展和稳定性一致性本来就是互相矛盾的需求,都不过是技术的选择服务于利润最大化罢了。

总的来说,在当下硬件的性能及价格尚未达到合适的水平时,使用分布式此类的中间件确实是一个非常合适的过度,用于协调A与B之间数据产生与处理速度不协调,希望在有朝一日硬件的处理水平能完全应对需求,那样就能变成粹的深挖纵向,而不必优先考虑横向吧。