现在的位置: 首页 > 自动控制 > 工业·编程 > 正文

廖念波:腾讯技术十七年

2015-11-12 14:48 工业·编程 ⁄ 共 2175字 ⁄ 字号 暂无评论

关于腾讯早期的技术架构,有一个流传很广的说法:腾讯联合创始人、前CTO张志东,在早期为QQ设计了前后端架构,这个架构沿用了很长时间,支撑着当时的QQ业务从无到有,直到后来上亿用户同时在线。

不过,传说总有夸大的部分,真正的架构需要不断的演变。QQ在2010年3月5日同时在线人数突破1亿,2011年腾讯高级技术总监icezhuang分享了让很多人印象深刻的演讲《1.4亿在线背后的故事》,讲述了QQ架构是如何支撑它从0到1亿的。2014年时任腾讯技术副总监分享了QQ面向移动时代的架构演变。

事实表明,QQ的后台架构至少做了三次大的改变:

十万级(同时在线人数):简单的存储服务和接入服务器的架构。只能支持一些简单的业务。后面又增加了长连接服务器,为无法直连的客户端进行实时宽带数据中转。

百万级:QQ在2001年达成百万级在线。第一代架构在达到百万级在线时面临瓶颈,于是进行了一次大的演变,将上面的单台服务器扩展成集群,添加了状态同步服务器,在接入服务器之间同步状态。后来,QQ发布了其最重要的业务之一QQ群,又增加了群相关的服务器和集群。这两个阶段的关注点主要是高性能以及7X24小时连续提供服务。

千万级:2005年QQ达成千万级在线。第二代架构在这个数量级面前同样难以支撑,例如,状态同步服务器根本存不下所有人的状态,只能继续进行改造。它们将状态同步服务器改造为集群,并将业务进行分离。然而,此时它们的服务器越来越多,并且都在一个IDC,一旦IDC出现问题,整个业务都将停摆。针对这个,它们进行了机房规划和容灾改造,开始推动灰度发布,提升运维自动化能力。这个阶段的关注点在高可用性以及高可运维性。

亿级:2010年QQ在线突破1亿,并且持续提升,这是因为移动互联网来临,开启了24小时在线时代。持续的打补丁已经难以支撑亿级在线,老架构以及众多补丁让系统缺乏灵活性,比如,要将昵称长度增加一般,按当时的速度需要两个月。因此只能重新设计实现整个架构。新的架构分为存储系统和通信系统,分别历时数年完成,足以支撑5-10亿同时在线人数,同时保持业务的灵活性。值得一提的是这个架构是基于云计算的架构,这也为后面的腾讯云打下了基础。

QQ是腾讯最早也是最核心的业务,它的架构演变也可以看做是腾讯技术发展和成长的一个缩影。除此之外,QQ空间作为国内最大的SNS、支撑QQ整个账号体系的Basic数据库也分享了它们的架构演变过程。从这些演讲中,我们可以看到如“大系统小做”、“灰度发布”这些理念逐渐清晰,成为腾讯独特的技术哲学,后来,它们将这些提炼出来,形成了腾讯的海量之道。

腾讯的海量之道2014年腾讯云技术专家在QCon上分享了腾讯的海量之道,将腾讯多年在技术研发的经验提炼出了一些关键词:

小步快跑:对用户的需求快速反应,或者快速求证对用户猜想是否正确。它一个典型例子就是微信,微信1.0的时候只有聊天功能,界面还很简陋,但随着快速迭代,响应用户需求,现在的微信已经成为一个平台。小步快跑在技术上要求初始设计可扩展,自动化部署,轻松上线以及快速沉淀的能力。

灰度发布:是指一种平滑过渡的发布流程。腾讯现在的灰度发布流程一般按照公司内部员工>忠诚度高的核心用户>10%活跃用户>50%活跃用户>所有用户,这样的人群来进行。要使用灰度发布,一般在最开始进行架构设计的时候就需要考虑进去。

大系统小做:其实就是模块拆分,将一个大的系统尽量拆分成功能单一的模块,在架构设计上尽量使用插件式设计,高度解耦。腾讯QQ乃至到后来的腾讯云都是依凭这个思想,小到代码中一个类的设计,大到涉及数个集群的云服务,都按照模块来划分。

边运营边重构边生活:世界上没有完美的系统,总是会出现问题,重要的是提供持续服务的能力。另外必须重视技术负债,在研发的过程中也要不断的重构。

快速沉淀:其实就是将业务和解决方案服务化,将解决一个复杂问题的方法沉淀下来给后人使用。腾讯还将业务逻辑也进行服务化,比如将摇一摇、漂流瓶等都做成服务供微信、QQ等开发团队调用。

有损服务:重点接口重点保障,次要接口有损保障,并提供紧急时刻的降级能力,同时在前端设计即使降级也能保证用户体验。

当然,多年的经验并不仅仅凭几个关键词就能完整总结,我们还可以从其它地方看到一些端倪,比如15年春节时的微信红包。

据事后统计,春晚微信总共摇动110亿次,峰值请求达到1400万次/秒,微信技术专家在ArchSummit全球架构师峰会上分享了微信春晚红包如何应对100亿次请求。

到了微信时代,腾讯应对海量请求基本上已经驾轻就熟,在分享中我们可以看到上面这些理念的应用,当然由于这并非产品而是一次热点策划,因此在细节上有所不同。此时微信服务器分布在三个数据中心,有着强大的容灾能力,带宽1Tb/s以上,微信本身已可以支持全国14亿以上人同时在线,但是,数量级每上升一个级别,其难度也相应上升。这次红包活动的架构设计和优化思路仍然值得学习。

腾讯虽以产品出色著称,但无人忽视其技术实力,是因为十七年如一日的持续服务,以及微信春晚红包这样让人直观感受到的应用场景,出色的产品背后也需要强大的技术支撑。随着腾讯这次走向海外公开分享,相信腾讯的技术影响力将辐射到全球,让整个世界见识中国的技术力量。

作者:腾讯社交事业群的高级技术总监廖念波 来源:infoq

给我留言

留言无头像?