春晚紅包就像是一只推門的手,門外是未知,門內(nèi)是創(chuàng)新。
2015年,微信成為央視春晚的座上賓,全民“搖一搖”的紅包雨,讓電子紅包成為春節(jié)的新習(xí)俗;
2016年,支付寶成為春晚紅包的合作方,往年討論的是有什么新節(jié)目,那一年的話題是敬業(yè)福和“咻一咻”。
2019年,百度“承包”起豬年春晚的紅包,全球觀眾參與互動紅包次數(shù)達208億次,百度系A(chǔ)pp成為今年紅包大戰(zhàn)的最大贏家。
今年的春晚也是百度云的一次大練兵,此前從未經(jīng)歷過如此大規(guī)模的流量峰值,簡單的“搶紅包”背后存在三個技術(shù)挑戰(zhàn):如何處理極大的臨時用戶登錄量,如何應(yīng)對瞬時出現(xiàn)的流量峰值,以及如何解決短期的巨大資源需求?
在四個多小時的春晚過程中,一些第三方應(yīng)用商店紛紛崩潰,百度App沒有出現(xiàn)宕機現(xiàn)象,成為第一個扛住春晚紅包沖擊的互聯(lián)網(wǎng)公司,百度云近乎完美的結(jié)束了這場戰(zhàn)役。
搶紅包的“絲滑”體驗
在海量業(yè)務(wù)并發(fā)的場景里,任何小問題都可能成為大隱患,原生的技術(shù)難點無疑是運維的深淵。
不同于往年的是,百度還推出了AI新玩法,語音搜一搜、與明星同框拜年等,多樣性的玩法也在考驗百度云的AI能力。所幸,在整個春晚的過程中,百度系A(chǔ)pp的體驗足以用“絲滑”來形容:
晚上8點40分,主持人喊出“搶紅包開始”的口令時,參與“搖一搖”得紅包的用戶數(shù)迅速過億,3億元紅包隨后被搶光。僅在第一輪“搖一搖”紅包中,參與紅包互動就多達92億次。
為了應(yīng)對第一波流量高峰,百度春晚技術(shù)保障部門對登錄時的內(nèi)容加載進行了優(yōu)化。對于搶紅包活動中的出現(xiàn)的瞬間流量洪峰,后臺會自動檢測變化,快速計算資源需求,智能調(diào)度增加系統(tǒng)容量,進行合理的帶寬分配。除此之外,百度云在20天的項目籌備期內(nèi)將短信承接能力至少提升了數(shù)十倍。還與運營商合作,在云上部署了一鍵登錄功能,減輕大量用戶在第一輪對登錄系統(tǒng)的壓力。
晚上21點18分,第二輪小視頻紅包開始,互動次數(shù)隨即增加到115億次,對服務(wù)器帶寬有著極為苛刻的考驗。
為了保證小視頻紅包的用戶體驗,百度進行了兩手準備:一是技術(shù)上的優(yōu)化,對視頻、圖片進行極致壓縮,盡可能降低帶寬壓力;二是提前規(guī)劃布局和建設(shè)網(wǎng)絡(luò)資源,比如IDC和CDN在三個禮拜的時間內(nèi)完成了相當(dāng)于2018年全年的建設(shè)量。此外通過智能調(diào)度系統(tǒng),分鐘感知不同地區(qū)資源緊張程度,進行相應(yīng)的資源調(diào)度和補給。
晚上22點40分,第三輪的搜索的得紅包正式啟動,此輪互動還加入了語音搜索的互動玩法。截至23:00,全球觀眾參與百度APP紅包互動次數(shù)累計增加到137億次。
晚上23點30分,最后一輪搖一搖得紅包活動開啟,用戶積極性較第一輪有所削弱,依然有超過70億次互動產(chǎn)生。
最終統(tǒng)計數(shù)據(jù)顯示,除夕當(dāng)天百度提供了4輪9億紅包,全球觀眾參與互動活動次數(shù)達208億次,APP的DAU峰值突破3億。
春晚紅包不宕機的背后是百度春晚技術(shù)保障部門提前一個多月的周密規(guī)劃和準備,每個風(fēng)險點都匹配了相應(yīng)的技術(shù)解決方案。
比如在擴容IT資源方面,提前規(guī)劃布局和建設(shè)網(wǎng)絡(luò)資源。而且在時間緊任務(wù)重的壓力下,北京順義華威機房在8小時內(nèi)完成了10000臺服務(wù)器的物理上架,16小時完成自動化上線交付業(yè)務(wù)使用,創(chuàng)造了業(yè)界服務(wù)器交付速度的新紀錄。在技術(shù)實力之外,體現(xiàn)了百度工程師們高效的執(zhí)行能力。
智能架構(gòu)戰(zhàn)勝“人肉”
從2015年央視春晚引入紅包的玩法開始,幾乎所有的互聯(lián)網(wǎng)巨頭都在搶奪紅包活動的承辦權(quán),但并非所有玩家都似百度這般“幸運”。
站在春晚紅包身后的“惡魔”正是宕機,以至于流傳著這樣一個說法:在春晚上投廣告的最低門檻是日活過億,否則服務(wù)器很可能會瞬間崩掉。
早在2015年微信和春晚的合作中,就出現(xiàn)了多次宕機的情況:當(dāng)晚九點左右微信出現(xiàn)了短暫的宕機,春晚過程中有1.2億個紅包送出,但也有不少網(wǎng)友在社交網(wǎng)絡(luò)上反映卡頓、消息無法接收、紅包發(fā)不出去等等。
2016年支付寶拿下春晚合作機會,除夕夜紅包活動的總參與人數(shù)達到3245億次,達到2015年春晚互動次數(shù)的29.5倍,同樣也出現(xiàn)了宕機時刻。
到了2018年,春晚宕機事件已經(jīng)多次告警,合作方淘寶也提前推導(dǎo)了各自極端情況,并且在2017年雙11的基礎(chǔ)上擴容三倍。結(jié)果卻是,不少網(wǎng)友吐槽無法登錄注冊、綁定親情號失敗、不能組團搶紅包等,經(jīng)歷過數(shù)次雙11挑戰(zhàn)的阿里云,也倒在了春晚的流量高峰面前。后來公布的數(shù)據(jù)顯示,春晚當(dāng)晚的流量峰值是2017年雙11的15倍。
宕機的頻繁發(fā)生,并非是騰訊、阿里沒有“一級警備”,相反往往要投入幾百人的技術(shù)保障團隊。春晚紅包是互聯(lián)網(wǎng)巨頭們爭奪的對象,也是云計算的春節(jié)戰(zhàn)場,所謂的宕機史,也是云計算的進化史。
坊間流傳最廣的無疑是阿里雙11的故事,早幾年的后臺保障也普遍被戲稱為“人肉”計算。比如2010年以前,互聯(lián)網(wǎng)公司普遍采用的是IOE系統(tǒng),IBM的小型機配合Oracle數(shù)據(jù)庫和EMC的存儲設(shè)備。為了一場雙11大考,從年初準備到年尾,可憐最后可能連及格的分數(shù)都沒有。
一位經(jīng)歷過雙11的程序員,形象的還原了那個運維全靠吼、擴容全靠“殺掉”非關(guān)鍵系統(tǒng)的年代:“雙11那一天,每個人看自己服務(wù)器的系統(tǒng)水位,出現(xiàn)問題吼一嗓子,哪里有空閑的資源調(diào)過來,后來容量不夠,又把一些非關(guān)鍵系統(tǒng)殺掉。”
再來看百度云在今年春晚的保障,系統(tǒng)隨時響應(yīng)每秒數(shù)千萬的請求,并支持快速擴展支持更多請求處理,智能取代了“人肉”。有百度技術(shù)人員打了一個形象的比方:“整個體系就像一個彈性容器,全自動自如擴容縮容。當(dāng)遇到流量洪峰時,系統(tǒng)會智能調(diào)度,快速接入帶寬資源,按照用戶任務(wù)的不同,匹配適應(yīng)的容量。”
同時在基礎(chǔ)設(shè)施層面,百度云的大放異彩與百度早已成熟的網(wǎng)絡(luò)架構(gòu)有關(guān)。過去十多年,百度網(wǎng)絡(luò)架構(gòu)經(jīng)歷了自有業(yè)務(wù)規(guī)模快速增長和To B業(yè)務(wù)多樣需求的考驗,具有很好的高可擴展性和靈活性,可以快速調(diào)配服務(wù)器,支撐快速接入帶寬資源,調(diào)度系統(tǒng)可以很好的支撐節(jié)點的快速擴容,極大的提升了保障服務(wù)的可用性和運維效率。
任何奇跡的出現(xiàn)都離不開背后的努力,春晚紅包也不例外。
AI To B 小試牛刀
每一場實戰(zhàn),都是對互聯(lián)網(wǎng)基礎(chǔ)設(shè)施的一個大考,也是技術(shù)迭代的跳板。
正如很多人的觀點,沒有“黑五”過剩的計算資源,就沒有亞馬遜押注云計算的決心,沒有雙11、618這樣的電商狂歡節(jié),或許中國云計算的爆發(fā)還需要多等幾年。同樣的例子也出現(xiàn)在云計算的春節(jié)戰(zhàn)場上,首次迎戰(zhàn)的百度云就交出了百分答卷,印證了百度躋身云計算一線陣營的地位,也讓百度的對話式搜索、自然語言處理等AI能力曝光在鎂光燈下。
我想,其中的受益者不會局限在百度系A(chǔ)pp,2018年9月份的百度云智峰會上,正式對外推出了兼具深度學(xué)習(xí)、對話式搜索、自然語言處理等全面AI能力的AI to B平臺,并通過云服務(wù)框架集成在AI、大數(shù)據(jù)、云計算方面的能力,幫助企業(yè)快速接入云端獲取AI能力。
中國互聯(lián)網(wǎng)上有很多流派,百度恰恰是技術(shù)派的典型代表,不宕機的春晚紅包,將百度的技術(shù)能力完美呈現(xiàn)。而在技術(shù)層面的較量背后,一場春晚紅包讓百度云的AI To B 小試牛刀,注定是整個行業(yè)的紅利。
申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機遇!