用技术撑起一整台春晚,这次百度挡住了208亿次的流量冲击( 五 )

依赖于百度早已成熟的网络架构 , 这个架构也经历了百度自有业务规模快速增长和To B业务多样需求的考验 , 拥有良好的高可扩展性和灵活性 , 从而也能够快速调配服务器 , 支撑快速接入带宽资源 。

其二 , 具体以春晚红包的场景来看 , 这是一个典型大流量高并发的场景 。 高并发考验的是一个技术架构能否在多个流程、业务里轮流执行 。 举个例子来说 , 当数以亿计的用户一起来访问同一个 App , 并在不同的功能里切换时 , 是否也能像平时那样流畅自如?

今年春晚期间共发了 4 轮红包 , 每轮活动 , 用户的任务都不相同 , 有的去摇一摇、有的去feed流中搜索、还有进入小程序或小度商城 。 涉及百度数十个产品、百多种用户场景 。 再加上新增的AI玩法 , 这会给百度APP带来高并发、大流量 , 给百度云的服务器、带宽等基础设施带来巨大冲击 。

应对这类技术挑战都会从用户登陆应用开始 , 然后在应对访问洪峰和资源管理上做优化 。

百度在这方面也展示了系统的弹性能力 。 当遇到流量洪峰时 , 系统会智能化调度 , 根据用户任务的不同 , 层层计算 , 匹配适应的容量 , 满足每秒亿级的服务请求 , 整个过程 , 就像有一个多层漏斗化解流量洪峰 。 而用户所感知到的 , 则是和平时没有差别的抢红包体验 。

推荐阅读