揭秘百度云如何保障互动次数高达208亿次的春晚抢红包不宕机( 四 )

猪年春晚 , 百度提供了4轮9亿的红包 。 每轮活动 , 用户的任务都不相同 , 有的去摇一摇、有的去feed流中搜索、还有进入小程序或小度商城 。 涉及百度数十个产品、百多种用户场景 。 再加上新增的AI玩法 , 这会给百度APP带来高并发、大流量 , 给百度云的服务器、带宽等基础设施带来巨大冲击 。

实际上 , 春晚抢红包对百度来说主要存在三大挑战:短期的机器资源和网络带宽资源需求量巨大;临时用户登录量极大;瞬间出现巨大流量峰值 。

但百度整个系统在除夕夜显示出了良好的弹性 , 全自动自如扩容缩容 。 数万台机器支持快速扩展 , 快速响应数亿网民的需求 。 当遇到流量洪峰时 , 系统会智能化调度 , 根据用户任务的不同 , 层层计算 , 匹配适应的容量 , 满足每秒亿级的服务请求 , 整个过程 , 就像有一个多层漏斗化解流量洪峰 , 优雅调控确保用户流程体验 。

在春节期间 , 中国网络还存在一个特殊的迁徙现象 。 很多网民会从一线城市回到三四线城市 。 这使得流量结构发生变化 。 百度春晚技术保障项目管理团队根据往年春节用户迁移路线 , 提前规划好了不同地区的所需要的网络资源 。 百度云的智能调度系统 , 能够分钟感知不同地区资源紧张程度 , 并进行相应的资源调度和补给 。

推荐阅读