第(2/3)页 他跳过了自己的数据,工行的数据他知道,三轮内部测试的水平,正常发挥,没有意外。 他直接看微光的。 便利店:100%,11.2mS。 餐厅:100%,11.3mS。 交通票务:100%,11.1mS。 场馆消费:100%,11.5mS。 高并发:100%,11.7mS。 五个数字。 11.2,11.3,11.1,11.5,11.7。 他把这五个数字看了三遍。 不对。 不是说数字有问题,是数字太对了。 11毫秒出头,五个场景,每个场景的复杂度不同,便利店是最简单的,只有一笔交易,餐厅包含商品明细和优惠计算,交通票务包含购票验票退票三个流程,场馆消费包含会员积分和跨商户结算,高并发是5000笔同时。 复杂度相差三到五倍。 但响应时间几乎没有变化。 11.2到11.7,波动只有0.5毫秒。 工行的187mS也很稳,但工行稳是因为加密验证的开销是固定的,不管场景多复杂,三层加密的时间就是那么长,换句话说,工行的187mS里有112mS是固定开销,只有75mS是变量,变量部分会随场景复杂度变化,但被固定开销压住了。 微光没有那个固定开销。 微光的11.3mS里,全部都是变量。 但变量部分也几乎不变。 这意味着什么? 他在脑子里过了一遍。 如果一个系统的响应时间不受场景复杂度的影响,只有两种可能。 第一种:它在所有场景中都只执行最基本的操作,不做额外的安全校验和数据完整性检查。 第二种:它的架构设计从根本上跟传统方案不一样,传统方案是串行的,每个步骤必须等上一个步骤完成才能开始,不一样的方案是并行的,所有步骤同时启动,互不等待,最后汇总。 他之前一直以为是第一种。 微光快是因为省了安全校验,互联网公司的做法,一层验证,一次校验,代价是薄。 但如果是第一种,高并发场景下响应时间应该明显上升,因为5000笔同时涌入,即便省了加密开销,排队等待的时间也会把响应拉长。 11.7mS。 5000并发。 第(2/3)页