支付平台产品架构图 支付平台产品部_微软

支付平台产品架构图 支付平台产品部_p2p_02

移动支付团队

支付平台产品架构图 支付平台产品部_quartz_03

支付前置和支付SDK控制着收银台的入口逻辑和服务稳定,是历次大促备战的重点。由于是入口和网关类服务,下游业务依赖极为复杂,各系统的风吹草动都会造成不可预料的风险,和下游服务精诚合作是任务达成的关键,考虑到用户交互体验的最优,服务RT在业务高峰的时候不能超过1秒,备战阶段我们就给自己提出了 tp99 500ms的目标,

  • 一方面对自身的系统进行了调优,全面实现了依赖调用的异步化
  • 另一方面加强下游系统的管控能力,下游系统的联动配合,大力支持是最重要的,我们以tp99 50ms tp999 100毫秒的指标,和下游系统一起进行梳理和调优,在大家的理解和支持下,双11封网前一起达成预期
  •   为不时之需我们做好各种最坏的打算,开关,降级的梳理,以及全方位演练,均按照预期进行和完成,不留下任何遗憾

From聂学贤:移动支付团队成立的时间比较短,去年618是移动研发团队第一次参与大促。当时我们还建议商城那边先少给我们些量,参与备战的核心是怎么把自己给降级掉。经过一年多的业务和系统梳理,移动端在今年的618时商城移动收银台入口量已大大增加。618后双十一前业务仍在快速发展,如提升京东支付占比策略的实施,京东闪付接入移动收银台,银行合作营销资源位引导用户绑卡等。618我们的系统备战很充分,双十一的备战我们在618的基础上添加了很多的业务逻辑,因为新版收银台在商城APP上的成功,m站和app内嵌的m站也在双十一前切新版收银台,带来了更多的入口流量。

双十一前我们梳理了系统依赖的各个接口。对收银台入口访问的接口涉及用户账号的数据先做预热,双十一期间只有平常不活跃的用户才会调用到底层接口,极大的降低了对底层系统的压力。只有开通了小金库的用户才会调用小金库接口查询小金库余额等信息。白条有些例外,未开白条的用户有可能会引导白条快捷,双十一期间白条也有白条快捷降级方案,我们也采取了一个方案遇到流量高峰时可以使开通白条的用户才去查询白条,也降低了对白条系统的压力。

同时我们梳理了调用支付营销的逻辑,支付营销有券接口和京东闪付开通、未开通文案、营销资源位、营销后返等接口,双十一确保用户的券接口可用的情况下,对营销文案以及后返文案接口降级。双十一我们取得了很好的成绩,商城移动收银台入口量已达到分钟级几十万了。

  

线下支付和支付创新团队

支付平台产品架构图 支付平台产品部_支付平台产品架构图_04

支付平台产品架构图 支付平台产品部_微软_05

新产品闪付和鹊桥首次参加双11备战,小伙伴们都非常紧张,业务梳理,机房,带宽各种隐患都一一列出,针对性的一一跟进,银联侧也非常给力,并发能力,带宽升级都一定程度的提升。

From高荣桓:闪付是新业务、新系统,是第一次接受大促的考验,所以大家备战时都激情满满,事无巨细,全链路性能分析、流程优化、上下游梳理监控、整个链路压力测试...无论是前期没白没黑的紧张备战,还是双十一当天通宵不回家的彻夜值守,作为金融一枚普通攻城狮,我和同事们用实际行动诠释着“战在一起”。

From刘华卫:  2017年的双十一,是我在京东的第3个双十一,却是支付创新部打造的全新系统(京东闪付和鹊桥系统)的第1个双十一。全体同事连续两天两夜完成系统压测和调优。京东闪付系统不仅涉及内部多系统联调(C端收单系统、金石、渠道),还涉及非京东体系的银联系统;然而多系统多环境并没有影响整体效率,大家共同讨论,以优化系统性能瓶颈、确定降级方案、完成系统扩容等,共同高效高质的保障了京东闪付系统稳定承受了高于平时10倍左右的峰值压力。另,鹊桥系统承担了京东支付笔笔消息实时提醒的职责,通过京东APP、金融APP、短信、【京东支付】微信服务号四个渠道向用户推送支付成功消息等,全方位触达用户;凌晨交易量剧增时,出现部分消息积压,第一时间启动降级方案,迅速完成存量消息推送,让用户在双十一期间买的开心,花的放心。

在此感谢银联、C端交易、金石、渠道、测试的同学们积极配合,也祝京东支付更上一层楼。

 

支付支撑团队

支付平台产品架构图 支付平台产品部_微软_06

猎户(用户标签)服务是营销等各个系统的核心依赖,服务的稳定性和高并发自不必说。双11当晚的高并发下,大促当天系统表现如丝般顺滑

支付平台产品架构图 支付平台产品部_quartz_07

From李春光:多机房自动分流,SOA系统支撑,多中心存储,数据压缩后的本地化缓存查询,异常系统自动降级,备份机制自动生效...,这就是我们的系统在双11洪峰来到时所做的工作。机房网络出现问题怎么办? 数据库宕机能否自动降级?mq是否一定准确可靠?单缓存方案保险吗...这就是我们平时的努力。双11系统的备战之路就是对系统的架构,稳定性的备战之路。系统从单点到多中心,从强依赖到可降级,每一次双11都使我们的系统朝着架构更好,系统性能更优的方案在走,在改进,在升级。双11提升了我们整体的能力,也提升了我们每个人的能力,相信未来我们能做得更好,我们的系统会更稳定,我们的系统决策更加智能。

From 张立新:对于链路上的每一个系统来说,不仅仅是一次大考,更像一场战役,既考验准备是否充分,也考验运维能力。通过不断的优化与重构系统更为健壮,我们要保持一颗平常心,不止是在双11,更应体现在平时,这样才能做到处变不惊,才能实现卓越运维。这次双十一,对所有的系统进行了梳理,对可能遇到的问题都做了讨论和预案,并对相关系统都做了压测,对每个系统的性能做到心中有数,对超预期的地方都做好了降级。

 

质量管理团队

支付平台产品架构图 支付平台产品部_支付平台产品架构图_08

质量于产品就犹如生命于个体,这句话在支付产品部体现得更加淋漓尽致。为了保证在大促期间各核心支付系统的功能稳定,质量管理团队从需求到上线的各个环节都做了全程掌控,既保证了线上的安全变更,也保证了支付产品的高效迭代。你们的细致、专业、负责,为线上服务以及每一次大促的稳定保驾护航。

From 王利鹏:支付系统已经有两年没挂了,而我是从2016年开始参与618的备战压测。从方案制定到压测执行,就犹如导演操纵着万马千军,模拟线上的每一次洪流请求,真的很享受。宝剑锋从磨砺出,配合着每一次架构进化、参数调优、容量扩充…支付系统的性能节节提升。领导对性能指标的极致追求、团队内部的齐心协力以及兄弟团队的积极配合,有了这些铺垫,从容面对的结果,那是必须的。我们渴望挑战,我们需要提升。2018大促,We are ready for you!

From Gordon:每一次大促,对自己都是一次升华,在这个过程中,看到的不仅仅是一次次创造的纪录与奇迹,而是所有的人,战在一起,勇往直前,为了一个目标不断前进的勇气与执着。相信在未来,支付业务一定会创造一个新的奇迹,我们会一起拥抱胜利的果实,从而撑起我们的那一份骄傲。

  

产 品 团 队

为了给用户提供最优、最顺畅的支付体验,大促前与技术同学们梳理所有可降级环节,评估业务降级对于用户体验的影响,整合产出最优的降级策略,达成产品体验和系统稳定的双赢,充分展现了产品技术好基友,好朋友的深沉情感,晒图看看...

支付平台产品架构图 支付平台产品部_p2p_09