阿里中臺戰(zhàn)略思想與架構(gòu)實戰(zhàn)_第1頁
阿里中臺戰(zhàn)略思想與架構(gòu)實戰(zhàn)_第2頁
阿里中臺戰(zhàn)略思想與架構(gòu)實戰(zhàn)_第3頁
阿里中臺戰(zhàn)略思想與架構(gòu)實戰(zhàn)_第4頁
阿里中臺戰(zhàn)略思想與架構(gòu)實戰(zhàn)_第5頁
已閱讀5頁,還剩62頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

企業(yè)IT架構(gòu)轉(zhuǎn)型之道阿里中臺戰(zhàn)略思想與架構(gòu)實戰(zhàn)打造平臺穩(wěn)定性能力構(gòu)建業(yè)務(wù)中臺基礎(chǔ)數(shù)據(jù)拆分實現(xiàn)數(shù)據(jù)庫能力線性拓展共享服務(wù)體系搭建打造數(shù)字化運營能力共享服務(wù)中心建設(shè)原則異步化與緩存原則構(gòu)建業(yè)務(wù)中臺基礎(chǔ)成功啟示:口保持精簡團隊,

Cell細(xì)胞開發(fā)團隊:

一般2個-5個員工,最多不超過7個員工組成獨立的開發(fā)團隊,稱之為Cell(

細(xì)

)口顛覆組織結(jié)構(gòu),決策交給團隊:團隊自己決定做什么樣的產(chǎn)品,然后最快時間推出產(chǎn)品的公測版,

沒有管理角色的介入口不懼失敗,為失敗慶祝:團隊研發(fā)產(chǎn)品失敗后,不會受到懲罰,甚至?xí)e辦慶祝儀式,從失敗中

學(xué)到了東西口厚平臺,薄應(yīng)用:公司所構(gòu)建的“中臺”能力,才是支撐小團隊研發(fā)的核心口

阿里中臺戰(zhàn)略:2015年馬云帶領(lǐng)阿里高管拜訪公司之后,啟動了阿里巴巴的2018年中臺戰(zhàn)略。Supercell

的研發(fā)核心思維

Think

Small小團隊模式Supercell(超級細(xì)胞),芬蘭移動游戲巨頭。擁有《部落沖突》、《卡通農(nóng)場》、《海島奇兵》和《皇室戰(zhàn)爭》等全球熱門

游戲。2016年6月,騰訊收購Supercell84.3%

的股份,作價86億美元,整個公司估值102億美元。這不僅是騰訊歷史上,也

是近年全球手機游戲行業(yè)最大金額的并購。根據(jù)騰訊的公告,這家總部位于芬蘭的公司,目前員工總數(shù)僅有190人。按照102

億美元的估值,平均每個員工對應(yīng)的估值折合約3

.5億人民幣。SupercellCEO

IlkkaPaananen我的職責(zé)就是讓員工——所有資深游戲開發(fā)者在一個“小團隊”

或內(nèi)部叫"Cells(細(xì)

)"內(nèi)

工作,他們有權(quán)做決定,尤其是

擁有是否砍掉游戲項目的權(quán)利。淘寶天

貓大淘寶雖然組織架構(gòu)上共享業(yè)務(wù)事業(yè)部和淘

寶、天貓平級,但從對業(yè)務(wù)的理解和

業(yè)務(wù)貢獻(xiàn)的體現(xiàn)來說,淘寶和天貓相

對共享業(yè)務(wù)事業(yè)部擁有著更多的話語

權(quán),結(jié)果就是共享業(yè)務(wù)事業(yè)部在兩大

業(yè)務(wù)部門的業(yè)務(wù)需求下艱難生存著。阿里巴巴共享業(yè)務(wù)事業(yè)部的發(fā)展史2008年時集團成立了天貓4、然后集團希望是這樣的共享業(yè)務(wù)事業(yè)部2003年時成立了淘寶事業(yè)部3、后來好像是這樣的天貓?zhí)詫毘闪⑻熵埵聵I(yè)部淘寶的技術(shù)團隊同時支持著淘寶和

天貓的業(yè)務(wù)淘寶

天貓在2009年,共享業(yè)務(wù)事業(yè)部應(yīng)運而生共享業(yè)務(wù)事業(yè)部5、結(jié)局可能是這樣的2、后來是這樣的1、最初始這樣的阿里巴巴集團業(yè)務(wù)Ali

Express

1688

淘寶天貓聚

算阿里去啊口碑阿里媽媽菜鳥物流支撐恭亳業(yè)務(wù)事業(yè)部_i業(yè)務(wù)共享單元用戶中心

商品中心交易中心評價中心店鋪中心

搜索中心數(shù)據(jù)服務(wù)中心

營銷中心阿里巴巴共享業(yè)務(wù)事業(yè)部在業(yè)務(wù)架構(gòu)中的重要地位目前阿里巴巴集團前端超過25個業(yè)務(wù)單元(如淘寶、天貓、聚劃算、去啊等大家熟知的業(yè)務(wù))均不是獨立地構(gòu)建在阿里云的云平臺之上,在后端阿里云技術(shù)平臺和前

端業(yè)務(wù)間有了一個"共享業(yè)務(wù)事業(yè)部",將阿里巴巴集團前端業(yè)務(wù)中公共、通用的業(yè)務(wù)沉淀到了這個事業(yè)部,包含了用戶中心、商品中心、交易中心、評價等十幾個

中心,而共享業(yè)務(wù)事業(yè)部正是“厚平臺”的真實體現(xiàn),為阿里巴巴各種前端業(yè)務(wù)提供著相應(yīng)服務(wù)中心領(lǐng)域內(nèi)最為專業(yè)、穩(wěn)定的業(yè)務(wù)服務(wù)。監(jiān)控報警故障處理系統(tǒng)升級應(yīng)用發(fā)布安全防控業(yè)務(wù)監(jiān)控運維保障部真正的轉(zhuǎn)折來自2010年聚劃算的出現(xiàn),由于它強大的流量吸引威力,淘寶和天貓都競相與其業(yè)務(wù)對接。

集團要求三大電商平臺與聚劃算平臺進行業(yè)務(wù)對接,必須通過共享事業(yè)部!支撐分布式應(yīng)用服務(wù)平臺EDAS彈性計算服

關(guān)系型數(shù)據(jù)庫服務(wù)

開放存儲服務(wù)ECS

RDS/DRDS

務(wù)OSS分布式文件系統(tǒng)(盤古)任務(wù)調(diào)度(伏羲)大禹集群布署阿里云平遠(yuǎn)程過程調(diào)用(夸父)分布協(xié)同服務(wù)(

)開放緩存服務(wù)

OCS安全管理(鐘馗)開放數(shù)據(jù)處理服務(wù)

ODPS神農(nóng)集群監(jiān)控資源管理(伏羲)開源

用戶消息服務(wù)MQ臺回歸SOA

的本質(zhì)-服務(wù)重服務(wù)需要不斷的業(yè)務(wù)滋養(yǎng)共享服務(wù)體系是培育業(yè)務(wù)創(chuàng)新的土壤賦予業(yè)務(wù)快速創(chuàng)新和試錯能力為真正發(fā)揮大數(shù)據(jù)威力做好儲備改變組織陣型會帶來組織效能的提升構(gòu)建業(yè)務(wù)中臺的基礎(chǔ)

共享服務(wù)體系共享服務(wù)架構(gòu)的建設(shè)使得阿里巴巴擺脫了因為“"煙囪式”系統(tǒng)建設(shè)方式所帶來的種種發(fā)展桎梏,最終成為阿里巴巴業(yè)務(wù)中臺戰(zhàn)略的核心組成?;诠蚕矸?wù)體系建設(shè)的服務(wù)中心,原生就將相關(guān)業(yè)務(wù)領(lǐng)域的業(yè)務(wù)功能和數(shù)據(jù)做了很好的統(tǒng)一,阿里超過2000多個應(yīng)用,在核心業(yè)務(wù)層已經(jīng)

通過共享服務(wù)體系實現(xiàn)了統(tǒng)一和暢通,所以沒有類似ESB

的組件,避免了打通不同系統(tǒng)間實現(xiàn)業(yè)務(wù)交互帶來的集成和協(xié)作成本。訂單創(chuàng)建流程1交易中心交易管理前端$交易服務(wù)訂單創(chuàng)建流程1商品中心商品管理前端$商品服務(wù)支付中心支付管理前端$支付服務(wù)支付數(shù)據(jù)會員中心會員管理前端會員服務(wù)會員數(shù)據(jù)價值1:

回歸SOA的本質(zhì)-服務(wù)重淘寶網(wǎng)T服務(wù)交互個

個聚劃算-juhuasuan,com-

com全球最大的采的批發(fā)市場團購

訂單

檢查共享服務(wù)訂單創(chuàng)建流程訂單創(chuàng)建流程數(shù)據(jù)層交易

日志交易

創(chuàng)建交易

創(chuàng)建交易

創(chuàng)建其他

服務(wù)交易

創(chuàng)建庫存

檢查其他

服務(wù)其他

服務(wù)用戶

檢查其

務(wù)交易數(shù)據(jù)用商品數(shù)據(jù)服務(wù)交互服務(wù)交互服務(wù)交互價值2:

服務(wù)需要不斷的業(yè)務(wù)滋養(yǎng)服務(wù)不需要“業(yè)務(wù)穩(wěn)定”,而需要不停的滋養(yǎng),只有在滋養(yǎng)中才能從最初僅提供單薄業(yè)務(wù)功能的服務(wù)逐漸成

長為企業(yè)最為寶貴的IT資產(chǎn),而服務(wù)所需的滋養(yǎng)正是來自新的業(yè)務(wù)不斷進行服務(wù)的接入。專業(yè)帶來穩(wěn)定穩(wěn)定

數(shù)據(jù)線下線上數(shù)據(jù)

產(chǎn)品創(chuàng)新服務(wù)能力不斷能提升服務(wù)業(yè)務(wù)滋養(yǎng)開放實現(xiàn)對內(nèi)對

外的開放開放平臺支付平臺電商業(yè)務(wù)物流系統(tǒng)020服務(wù)滋養(yǎng)淘寶網(wǎng)T點共享業(yè)務(wù)事業(yè)部交易中心(TP)自動

發(fā)貨數(shù)據(jù)完整性價值3:

共享服務(wù)體系是培育業(yè)務(wù)創(chuàng)新的土壤各業(yè)務(wù)交易流程架構(gòu)師->交易中心中的業(yè)務(wù)人員及架構(gòu)師從來自不同業(yè)務(wù)的"點"->擴展到線和面的維度全面掌控交易的業(yè)務(wù)(領(lǐng)域業(yè)務(wù)專家)閑

魚以印的gmae

率!點天貓TnALLcon點聚劃算-juhusancom刪除

訂單訂單

拆分關(guān)閉訂單確認(rèn)

收貨訂單

查詢修改

價格創(chuàng)建

訂單全網(wǎng)規(guī)則安全校驗金培大的的批家Notify付款點點2com小前端團隊具備的特征:團隊協(xié)同效率最高

對戰(zhàn)機(商機)的把握更加敏銳

調(diào)整方向更加快捷一旦發(fā)現(xiàn)正確目標(biāo),全力投入擴大戰(zhàn)果戰(zhàn)場中的中臺陣型價值4:

賦予業(yè)務(wù)快速創(chuàng)新和試錯能力打造好的業(yè)務(wù)中臺,降低企業(yè)創(chuàng)新試錯成本,快速推向市場,市場的反饋決定業(yè)務(wù)投入。因

美軍擁有強大的導(dǎo)彈指揮系統(tǒng),強大的中后臺能力,支持小團隊快速判斷,引領(lǐng)進攻完成。二戰(zhàn)

美軍以軍為單位作戰(zhàn)越戰(zhàn)

美軍以營為單位作戰(zhàn)中東美軍以7人-11人極小班排作戰(zhàn)>用戶、商品、交易等在業(yè)務(wù)和

數(shù)據(jù)層融合>業(yè)務(wù)數(shù)據(jù)歸整和沉淀>高質(zhì)量的業(yè)務(wù)數(shù)據(jù)>優(yōu)秀數(shù)據(jù)科學(xué)家,可遇不可求

>靠企業(yè)自我培養(yǎng),共享服務(wù)體系培育懂業(yè)務(wù)的專家價值5:

為真正發(fā)揮數(shù)據(jù)威力做好儲備大數(shù)據(jù)項目的兩個凸顯問題共享服務(wù)體系的解決之道缺少能基于數(shù)據(jù)有業(yè)務(wù)建模能力的專家數(shù)據(jù)分布廣、格式不統(tǒng)一、不標(biāo)準(zhǔn)價值6:

改變組織陣型會帶來組織效能的提升·

針對每一個建設(shè)的服務(wù)中心,從組織架構(gòu)的形態(tài)上調(diào)整,不同角色人員(架構(gòu)師、

開發(fā)人員、

UED工程師等)組建了一個新的組織,每個組織對某一服務(wù)中心提供持

續(xù)的服務(wù)能力開發(fā)及運維。·

業(yè)務(wù)架構(gòu)師成為團隊最核心的角色,也是業(yè)務(wù)負(fù)責(zé)人,懂技術(shù)和業(yè)務(wù)。成為服務(wù)中

心業(yè)務(wù)發(fā)展的領(lǐng)路者,也是保障服務(wù)中心核心業(yè)務(wù)保持業(yè)務(wù)通用性和公共性的最重

要的捍衛(wèi)者。共享服務(wù)體系搭建一

個服務(wù)中心不單單是在企業(yè)的幾個應(yīng)用中發(fā)揮作用,它可能會給企業(yè)上百個不

同的應(yīng)用提供專業(yè)服務(wù),

旦這個服務(wù)中心出了問題,將會對企業(yè)的運營產(chǎn)生難

以估量的損失和影響,這樣就對這些服務(wù)中心的服務(wù)穩(wěn)定性、服務(wù)能力的擴展性、

服務(wù)需求的快速響應(yīng)能力提出了前所未有的更高要求。這就需要有

一套成熟、完

善的技術(shù)體系來支撐整個共享服務(wù)體系,使得企業(yè)在業(yè)務(wù)發(fā)展的過程中,對這些

共享服務(wù)的支撐能力不會有任何后顧之憂。項目團隊間協(xié)同成本高,業(yè)務(wù)響應(yīng)越來越慢業(yè)務(wù)復(fù)雜度已超出人的認(rèn)知負(fù)載錯誤難以隔離數(shù)據(jù)庫連接能力很難擴展應(yīng)用擴展成本高分布式服務(wù)框架的選擇構(gòu)建共享服務(wù)體系,必然需要采用一套服務(wù)化框架來支撐整個服務(wù)體系的運轉(zhuǎn)。淘寶從單一系統(tǒng)模式轉(zhuǎn)

變?yōu)榉?wù)化架構(gòu)的過程,“去中心化”服務(wù)架構(gòu)成為今天絕大多數(shù)互聯(lián)網(wǎng)平臺所采用的服務(wù)框架。2007年的淘寶500人技術(shù)團隊,淘寶網(wǎng)站幾百兆字節(jié)的WAR

包,功能模塊超過200個傳統(tǒng)架構(gòu)的弊端業(yè)務(wù)模用戶服務(wù)中心交易中心類目中心剝離商品中心店鋪中心淘寶平臺的服務(wù)化改造(

SOA+業(yè)務(wù)模塊逐步遷移

)2007年10月開始一系列基于SOA理念新一代服務(wù)化框架研發(fā)以及采用業(yè)務(wù)模塊逐步遷移的方式進行應(yīng)用框

架的改造工作。幾百兆字節(jié)WAR包

飛行中的飛機換發(fā)動機

上百個WAR包獨立部署的服務(wù)化架

構(gòu)千島湖項目五彩石項目歷時14個月拆分淘寶平臺塊淘寶平臺的服務(wù)化改造后的效果降低不同模塊開發(fā)團隊間的協(xié)同成本業(yè)務(wù)拆分后解放了對單數(shù)據(jù)庫集群連接數(shù)的能力依賴數(shù)據(jù)層也做了拆分,每一個核心服務(wù)中

心都擁有各自獨立的數(shù)據(jù)庫(分布式數(shù)據(jù)庫技術(shù))避免了個別模塊的錯誤給整體帶來的影響各個服務(wù)中心之間完全獨立部署大大降低系統(tǒng)間的耦合度以及整體復(fù)雜度

各個開發(fā)團隊可專注于各自的業(yè)務(wù)模塊做到針對性的業(yè)務(wù)能力擴容

減少不必要的資源浪費業(yè)務(wù)響應(yīng)更迅捷SOA

的主要特性:中心化與去中心化服務(wù)框架對比傳統(tǒng)軟件廠商提出的以ESB

(企業(yè)服務(wù)總線)實現(xiàn)SOA的方案是中心化服務(wù)框架;互聯(lián)網(wǎng)架構(gòu)和技術(shù)下,流行去中心化的服務(wù)框架。有一部分人認(rèn)為去中心化不是SOA架構(gòu)。中心化與去中心化是同一套體系SOA并沒有定義一定是基于ESB總線方式>

去中心化分布式服務(wù)框架同樣遵循SOA

架構(gòu)的特征定義去中心化是中心化服務(wù)框架的升級版本,兩套

系統(tǒng)解決企業(yè)根本訴求完全不同。ESB

模式中心化解決企業(yè)實現(xiàn)異構(gòu)系統(tǒng)之間的

交互。核心目的是讓企業(yè)客戶能基于這些SOA

的產(chǎn)品實現(xiàn)系統(tǒng)間的互聯(lián)互通。去中心化解決的問題是系統(tǒng)擴展性問題??诿嫦蚍?wù)的分布式計算

口服務(wù)間松散耦合口支持服務(wù)的組裝服務(wù)注冊和自動發(fā)現(xiàn)以服務(wù)契約方式定義服務(wù)交互方式服務(wù)調(diào)用者服務(wù)提供者服務(wù)提供者服務(wù)調(diào)用者服務(wù)調(diào)用者服務(wù)提供者中心化與去中心化服務(wù)框架對比服務(wù)調(diào)用方式的不同帶來業(yè)務(wù)的響應(yīng)和擴展成本在淘寶上點擊"立即下單"或“結(jié)算”按鈕進行下訂單的請求,后端調(diào)用了200多個服務(wù)。服務(wù)調(diào)用者服務(wù)調(diào)用者企業(yè)服務(wù)總線(ESB)服務(wù)提供者服務(wù)提供者分布式服務(wù)架構(gòu)中的服務(wù)交互方式經(jīng)過服務(wù)總線路由過的服務(wù)交互,共出現(xiàn)4次網(wǎng)絡(luò)會話創(chuàng)建和數(shù)據(jù)

傳輸,而去中心化服務(wù)架構(gòu)中服務(wù)交互,

一次服務(wù)的調(diào)用只有兩

次網(wǎng)絡(luò)會話創(chuàng)建和數(shù)據(jù)傳輸,在網(wǎng)絡(luò)上的開銷整整減少了一半。傳統(tǒng)企業(yè)服務(wù)總線下的服務(wù)交互方式(1)服務(wù)調(diào)用者->(2)ESB接受服務(wù)請求->(3)服務(wù)

提供者(服務(wù)處理)->(4)ESB

服務(wù)提供返回結(jié)果-

>(5)服務(wù)調(diào)用者(服務(wù)返回)中心化與去中心化服務(wù)框架對比雪崩效應(yīng)束縛了中心化服務(wù)框架的擴展能力當(dāng)10臺中一臺實例出現(xiàn)故障,服務(wù)壓力落到剩余

9

臺ESB

服務(wù)器,每臺負(fù)載水位將超過88%,出

問題的概率會大增。如果9臺中有一臺不堪重負(fù)

而罷工,瞬間被訪問洪流沖垮,雪崩效應(yīng)導(dǎo)致全

。服務(wù)器集群(假設(shè)10臺)企業(yè)服務(wù)總線

ESB

服務(wù)器企業(yè)服務(wù)總線

ESB

服務(wù)器去中心化服務(wù)框架則可以避免因為個別問題波及整個平

臺的業(yè)務(wù)受到影響,最多也只是部分服務(wù)出現(xiàn)問題,就

算出現(xiàn)問題也更容易定位問題和故障恢復(fù)。企業(yè)服務(wù)總線ESB服務(wù)器企業(yè)服務(wù)總線ESB

服務(wù)器企業(yè)服務(wù)總線

ESB

服務(wù)器企業(yè)服務(wù)總線

ESB

服務(wù)器企業(yè)服務(wù)總線

ESB

服務(wù)器ConfgServerCientlpocontosever

ServerPFap阿里巴巴分布式服務(wù)框架HSF(

HighSpeed

Framework

)HSF旨在為淘系的應(yīng)用提供一個分布式的服務(wù)框架,

HSF從分布式應(yīng)用層面以及統(tǒng)一的發(fā)布/調(diào)用方式層面為大

家提供支持,從而可以很容易的開發(fā)分布式的應(yīng)用以及提供或使用公用功能模塊,而不用考慮分布式領(lǐng)域中的

各種細(xì)節(jié)技術(shù),例如遠(yuǎn)程通訊、性能損耗、調(diào)用的透明化、同步/異步調(diào)用方式的實現(xiàn)等等問題。服務(wù)提供者HSF

應(yīng)

用HSF應(yīng)

用HSF應(yīng)

用1.獲取服務(wù)器列表4.服務(wù)訂閱2.返

服務(wù)器列表地址服務(wù)器HSF應(yīng)HSF

應(yīng)HSF應(yīng)1.獲取服務(wù)器列表MYSQL

服務(wù)器6.

規(guī)則推送Diamond

服務(wù)器5.返回服務(wù)提供服務(wù)器列表配置服務(wù)器3.服務(wù)注冊用用用7服務(wù)交互服務(wù)調(diào)用者2.

返回服務(wù)器列表規(guī)

送CientDiamondServer①服務(wù)調(diào)用②調(diào)用失?、圩詣又卦嚻渌?wù)提供者HSF應(yīng)

用配置服務(wù)器(基于內(nèi)存配置管理)阿里巴巴分布式服務(wù)框架HSF(High

Speed

Framework)按照服務(wù)注冊發(fā)布、服務(wù)訂閱、服務(wù)規(guī)則推送、最終服務(wù)提供者和服務(wù)調(diào)用者間的服務(wù)交互的順序說明了HSF

服務(wù)框架中每個組件在整個框架中所扮演的角色。HSF

服務(wù)框架實現(xiàn)服務(wù)高可用性原理示意圖服窮提供者服務(wù)調(diào)用者應(yīng)用應(yīng)用HSFHSF阿里巴巴分布式服務(wù)框架HSF(High

Speed

Framework)HSF

服務(wù)框架對服務(wù)能力線性擴展支持作為HSF

設(shè)

,最為重要的一個特性就是服務(wù)能力的可擴展性。也就是真正的做到某個服務(wù)的業(yè)務(wù)

處理能力能隨著服務(wù)器資源的增加得到線性的增長。當(dāng)服務(wù)面對較大的服務(wù)調(diào)用壓力或?qū)⒁媾R如天貓雙11大促、秒殺等活動前,已有的服務(wù)提供者各服務(wù)器水位(CPU

、

內(nèi)

存、10等)處于比較高的情況或現(xiàn)有服務(wù)能力滿足不了業(yè)務(wù)訪問量的要求時,則需要通過增加服務(wù)節(jié)點數(shù)量的方式提升該服務(wù)的

服務(wù)處理能力?;?/p>

HSF

框架的運行機制,新增加的服務(wù)提供者實例一旦應(yīng)用啟動完成后,可在幾秒內(nèi)開始進行服務(wù)請求的

處理(主要完成服務(wù)注冊發(fā)布、更新后服務(wù)列表推送到服務(wù)調(diào)用者端),從而達(dá)到分擔(dān)其他服務(wù)器實例壓力的作用,實現(xiàn)服務(wù)

能力整體水位恢復(fù)到正常的狀態(tài)微服務(wù)架構(gòu)典型特征·

分布式服務(wù)組成的系統(tǒng)·按照業(yè)務(wù)而不是技術(shù)來劃分組織·

做有生命的產(chǎn)品而不是項目·

智能化服務(wù)端點與傻瓜式服務(wù)編排·

自動化運維·

系統(tǒng)容錯·

服務(wù)快速演化微服務(wù)從本質(zhì)上來說,微服務(wù)是SOA的一種演變后的形態(tài),與SOA的方法和原則沒有本質(zhì)的差別。特征傳統(tǒng)SOA微服務(wù)分布式服務(wù)組成的系統(tǒng)中心化構(gòu)建服務(wù)架構(gòu);采用系統(tǒng)提供服務(wù)的方式多個分布式的服務(wù)組成按照業(yè)務(wù)而不是技術(shù)來劃分組

織以及做有生命的產(chǎn)品而不是

項目項目方式實施產(chǎn)品方式讓服務(wù)在業(yè)務(wù)發(fā)展過

程中快速演化智能化服務(wù)端點與傻瓜式服務(wù)編排所有核心能力都運行在ESB上更加強調(diào)能力向服務(wù)端的遷移自動化運維和系統(tǒng)容錯運維管控和平臺高可用性和穩(wěn)

定性提出更高要求微服務(wù)與傳統(tǒng)SOA特征差異共享服務(wù)中心建設(shè)原則用戶中心商品中心平臺交易中心平臺營銷中心平臺店鋪中心庫存中心庫存中心進入平臺化階段淘寶共享服務(wù)中心建設(shè)歷程服務(wù)和服務(wù)中心都是伴隨業(yè)務(wù)發(fā)展變化的,淘寶共享服務(wù)體系的發(fā)展從服務(wù)化到平臺化。用戶中心商品中心交易中心評價中心營銷中心店鋪中心庫存中心全面服務(wù)化階段用戶中心商品中心交易中心店鋪中心嘗試服務(wù)化階段服務(wù)中心中的服務(wù)形態(tài)多樣性有些人理解的服務(wù)中心是狹義的接口服務(wù),這比較片面化,接口是服務(wù)最主要的形式。

如果服務(wù)中心的服務(wù)完全拘泥于接口這種形式,那又大大局限了服務(wù)中心的服務(wù)能力。依賴于數(shù)據(jù)的服務(wù)對大數(shù)據(jù)的分析能力實時交易型的數(shù)據(jù)能力一定是通過接口服務(wù)對外暴露依賴于接口的服務(wù)上層應(yīng)用提供編程接口

RPC或WebAPI依賴于工具的服務(wù)一類用于提供定制的配置服務(wù)

一類是運營管理類的工具一個服務(wù)中心可以進一步劃分嗎?服務(wù)中心是根據(jù)業(yè)務(wù)和數(shù)據(jù)的完整性與獨立性來設(shè)立的,并不需要——對應(yīng)。往往需要多個子服務(wù)模

塊協(xié)作配合才能更好地實現(xiàn)服務(wù)中心對外服務(wù)效率的最大化。交易中心訂單服務(wù)

購物車服務(wù)會員數(shù)據(jù)

交易數(shù)據(jù)會員中心會員服務(wù)單個服務(wù)模塊

多個服務(wù)層替

霧數(shù)據(jù)基于分布式架構(gòu),要綜合評估業(yè)務(wù)層對服務(wù)中心在數(shù)據(jù)庫、業(yè)務(wù)以及運營方面的需求和技術(shù)上需要的投入。完整的業(yè)務(wù)模型,要有數(shù)據(jù)運營和業(yè)

務(wù)整合的價值。服務(wù)中心劃分原則-考量方面遵循面向?qū)ο蟮姆治龊驮O(shè)計方法高內(nèi)聚、低耦合原則數(shù)據(jù)完整性原則業(yè)務(wù)可運營性原則漸進性的建設(shè)原則服務(wù)中心劃分原則數(shù)據(jù)拆分實現(xiàn)數(shù)據(jù)庫能力線性擴展數(shù)據(jù)庫瓶頸阻礙業(yè)務(wù)的持續(xù)發(fā)展采用讀寫分離的方式,拓展了數(shù)據(jù)庫對數(shù)據(jù)讀的處理能力,主數(shù)據(jù)庫的寫入能力依然沒法擴展。單表數(shù)據(jù)量是有限的,當(dāng)達(dá)到一定數(shù)量后數(shù)據(jù)庫性能會出現(xiàn)顯著下降。寫數(shù)據(jù)復(fù)制主數(shù)據(jù)庫讀從數(shù)據(jù)庫從數(shù)據(jù)庫從數(shù)據(jù)庫…

…采用讀寫分離方式擴展數(shù)據(jù)庫讀寫能力用戶中心應(yīng)用UserlD%8=0水平分區(qū)用戶中心數(shù)據(jù)庫UserlD

%8=3用戶數(shù)據(jù)按用戶ID取模機型數(shù)據(jù)均衡拆分?jǐn)?shù)據(jù)庫水平分區(qū)實現(xiàn)數(shù)據(jù)拆分將同一個表中的不同數(shù)據(jù)才拆分到不同的數(shù)據(jù)庫中。以用戶中心為例,淘寶平臺用戶量接近6億,存到一個數(shù)據(jù)庫的單表是不可能的。UserlD%8=1UserlD%8=2數(shù)據(jù)庫分庫分表的實踐-Cobar分布式處理系統(tǒng)2006年阿里巴巴B2B團隊以開源方式研發(fā)了Cobar

關(guān)系型數(shù)據(jù)的分布式處理系統(tǒng)。解決了Oracle數(shù)據(jù)庫因為存儲數(shù)據(jù)變得越來越大帶來的擴展性問題。不支持跨庫情況下的連接、分頁、排序、子查詢操作SET

語句執(zhí)行會被忽略,處理事務(wù)和字符集設(shè)置除外>

分庫情況下,

insert語句必須包含拆分字段列名>

分庫情況下,

update語句不能更新拆分字段的值不支持SAVEPOINT操作>使用JDBC時,不支持rewriteBatchedStatements=true參數(shù)設(shè)置(默認(rèn)false)使用JDBC時,不支持useServerPrepStmts=true參數(shù)設(shè)置(默認(rèn)為false)使用JDBC時,BLOB、BINARY、VARBINARY字段不能使用setBlob()或setBinaryStream()方法設(shè)置參

數(shù)TDDL

其實主要可以劃分為3層架構(gòu),分別是Matrix層、Group層和Atom層。>Matrix

層用于實現(xiàn)分庫分表邏輯,底層持有多個Group實例。而Group層和Atom共同組成了動態(tài)數(shù)據(jù)

源>Group

層實現(xiàn)了數(shù)據(jù)庫的Master/Salve

模式的寫分離邏輯,底層持有多個Atom

實例。>Atom

層(TAtomDataSource)實現(xiàn)數(shù)據(jù)庫ip,port,password,connectionProperties等

動態(tài)推送,以及持有原子的數(shù)據(jù)源分離的JBOSS

數(shù)據(jù)源)Ibatis

SpringjdbctemplateTDDL

matrixds(TDataSource

)TDDLgroup

dsTDDLatomds(withjboss

ds

)JDBC

Driver數(shù)據(jù)庫分庫分表的實踐-TDDL2008年阿里巴巴內(nèi)部基于淘寶業(yè)務(wù)發(fā)展的需要,在Cobar的基礎(chǔ)上重新研發(fā)了分布式數(shù)據(jù)層框架TDDL(Taobao

DistributedDataLayer),針對分庫分表場景,提供了對各種業(yè)務(wù)場景的支持更加完善,開發(fā)人員體驗更好,

管控能力大幅提升。TDDL

架構(gòu)示意圖MySQLOracleSQL

和參數(shù)表名替換根據(jù)權(quán)重選AtomDS讀寫數(shù)控制、線程并發(fā)數(shù)控制數(shù)據(jù)庫分庫分表的實踐-TDDLTDDL

針對一次SQL

請求完整處理流程選

擇groupDS

執(zhí)行SQL合并處理多個結(jié)果集執(zhí)行SQL,

回結(jié)果集具有重試策略地在

AtomDS執(zhí)行SQL查詢或更新結(jié)果規(guī)則計算SQL解析ID

mo8/2=13IDmo8/2=25ID

met8/2=31I0

mo8/2=4淘寶人自定的TDDL優(yōu)點:1、

數(shù)據(jù)庫主備和動態(tài)切換;2、

帶權(quán)重的讀寫分離;3、

單線程讀重試;4、

集中式數(shù)據(jù)源信息管理和動態(tài)變更;5、

剝離的穩(wěn)定jboss

數(shù)據(jù)源;6

、

支持mysql

和oracle

數(shù)據(jù)庫;7

、

基于jdbc規(guī)范,很容易擴展支持實現(xiàn)jdbc規(guī)范的數(shù)據(jù)源;8、

無server,client-jar形式存在,應(yīng)用直連數(shù)據(jù)庫;9、

讀寫次數(shù),并發(fā)度流程控制,動態(tài)變更;10、

可分析的日志打印,日志流控,動態(tài)變更。數(shù)據(jù)庫分庫分表的實踐-TDDLselect.

….wherei

in[1,3,7]TDDL分庫分表查詢策略TAB3TAB4TAB_5

TAB_6TAB1TAB2TAB_7TAB_812468異步化與緩存原則庫存預(yù)減流水其它服務(wù)訂單日志支付生成業(yè)務(wù)流程異步化平臺進行服務(wù)化后,在平臺頁面上發(fā)起的業(yè)務(wù)請求勢必需要將后端不同的服務(wù)進行組合調(diào)用來實現(xiàn)業(yè)務(wù)請求的

處理。以淘寶的交易訂單為例,目前淘寶的訂單創(chuàng)建流程需要調(diào)用200個服務(wù)。如果按照順序執(zhí)行,需要超過4s淘寶交易流程按服務(wù)線性處理的示意圖缺點:從資源占用角度來說,順序調(diào)用方式會造成系統(tǒng)處理一次前端請求所花的時間較長,對服務(wù)器整體的系統(tǒng)吞吐量帶來巨大影響。淘寶交易流程異步化后的處理的示意圖平均時間控制在300ms,

體驗好,吞吐量幾何倍數(shù)提升消息中間件消息中間件交易

日志庫存

預(yù)減支付

生成其它100

多個服務(wù)訂單

生成庫存

檢查訂單生成庫存預(yù)減計算還款詳單扣占款給詳單對應(yīng)借款人賬號轉(zhuǎn)入錢更新還款詳單表發(fā)起還款請求計算還款金額借款人賬號占款解決平臺性能問題的核心是數(shù)據(jù)庫

事務(wù)的異步化。將大事務(wù)拆分成小

事務(wù),降低數(shù)據(jù)庫的資源被長時間

事務(wù)鎖占用而造成的數(shù)據(jù)庫瓶頸,

就能大大提升平臺的處理吞吐量和

事務(wù)操作的響應(yīng)時間?;谙⒎?wù)提供

的異步機制,將整

個還款流程進行異

步化的處理。整個平臺對還款的

處理能力相比之前

提升了20倍以上。數(shù)據(jù)庫事務(wù)異步化還款計劃處理(循環(huán))用戶還款流程HSF調(diào)用HSF提供者SocketSQLSocket

TDDL/TXCDS&RMTDDL/TXCDS&RM(TM)分庫分表saMySQL1

MySQL2MySQL3SocketTXC

也是阿里基于兩階段提交理論實現(xiàn)的分布式事務(wù)框架,支持分布式數(shù)據(jù)庫事務(wù)、多庫事務(wù)、消息事務(wù)、

服務(wù)鏈路調(diào)用事務(wù)及各種其他事務(wù)。和支付寶XTS

框架相比,主要區(qū)別有兩個:

是主事務(wù)和分支事務(wù)都是

臺TXC

服務(wù)器上的;二是事務(wù)回滾或補償代碼不需要開發(fā)人員編寫,平臺支持自動生成。阿里巴巴AliWareTXC事務(wù)服務(wù)事務(wù)發(fā)起者(Client)TXC

ServerHSF提供者TDDL/TXCDS&RM本地SQLMySQL4SQLsaGTS

是一款分布式事務(wù)中間件,由阿里巴巴中間件部門研發(fā),可以為微服務(wù)架

構(gòu)中的分布

式事務(wù)

供一

站式

決方

案。GTS包括客戶端

(GTSClient)

、資源管理器(GTSRM)和事

務(wù)

協(xié)

調(diào)

器(GTSServer)三個部分。GTSClient主

要用來

定事務(wù)

界,

成事務(wù)的發(fā)起

與結(jié)

束。GTSRM完成事務(wù)分支的創(chuàng)建、提交、回滾等操作。GTSServer主

要負(fù)責(zé)分

布式事務(wù)的

進,事務(wù)

生命周

期的管

。GTSClient微服務(wù)BGTS

RM數(shù)據(jù)庫微服務(wù)AGTS

RM數(shù)據(jù)庫微服務(wù)CGTS

RM數(shù)據(jù)庫GTS服務(wù)(事務(wù)協(xié)調(diào)器)s253業(yè)務(wù)應(yīng)用大促秒殺活動催生緩存技術(shù)的高度使用tair

是淘寶自己開發(fā)的一個分布式key/value

,tair

分為持久化和非持久化兩種使用方式,非持久化的tair

可以看成

是一個分布式緩存。持久化的

tair將數(shù)據(jù)存放于磁盤中,為了解決磁盤損壞導(dǎo)致數(shù)據(jù)丟失,tair

可以配置數(shù)據(jù)的備份數(shù)目,

tair自動將一份數(shù)據(jù)的不同備份放到不同的主機上,當(dāng)有主機發(fā)生異常,無法正常提供服務(wù)的時候,其余的備份會繼續(xù)提供服務(wù)。tair作為一個分布式系統(tǒng),是由一個中

心控制節(jié)點和一系列的服務(wù)節(jié)點組成.我們稱中心控制節(jié)點為config

server.

服務(wù)節(jié)點是data

server?!?/p>

configserver負(fù)責(zé)管理所有的dataserver,維護dataserver的

態(tài)信息?!?/p>

dataserver

對外提供各種數(shù)據(jù)服

務(wù),并以心跳的形式將自身狀況匯

給configserver。·configserver是控制點,而且是單

點,目前采用一主一備的形式來保

證其可靠性.所有的

data

server地位都是等價的。ClientData

ServerClientData

ServerClientData

ServerClient交換機Master

、Config

Server!SlaveData

Server本地緩存Detail庫存.IC庫存秒殺ICICDB比如庫存為10個,秒殺價格為1元的

手機則是典型的小庫存商品秒殺活動。因為商品會在極短的瞬間庫存會降到0

,所以只要處理好商品的庫存的扣減

,不要出現(xiàn)商品超賣的情況就能平穩(wěn)

地度過這次秒殺活動。小庫存商品秒殺典型架構(gòu)Tair消除

庫存普通商品Buy0.1加載初始庫存--

1

.

查看

·

2.購買用戶

IC

3.確

認(rèn)購買查詢秒殺商品/初始庫存信息ICDBTair秒殺商品實時庫存1.1獲取庫存一Detail緩存商品基本信息-3.1獲取庫存-

-2.1獲取庫存3.2更新庫存Buy

緩存商品基本信息將訂單交易創(chuàng)建環(huán)節(jié)中對于原本

商品數(shù)據(jù)庫的庫存信息操作替換

為緩存服務(wù)器中運行,充分展現(xiàn)

了緩存服務(wù)相比于傳統(tǒng)數(shù)據(jù)庫在

性能上的巨大優(yōu)勢。從趨勢來看

,緩存技術(shù)將會在互聯(lián)網(wǎng)應(yīng)用場

景中將扮演越來越重要角色。大庫存商品大促架構(gòu)打造數(shù)字化運營能力消息服務(wù)器發(fā)消息收

消息收消息

息商品優(yōu)惠服

務(wù)

調(diào)

務(wù)

調(diào)

服務(wù)調(diào)用

服務(wù)調(diào)用

服務(wù)調(diào)用庫存檢查存取DBC

JDBC數(shù)據(jù)庫

分布式緩存

分布式文件系

統(tǒng)業(yè)務(wù)服務(wù)帶來的問題復(fù)雜的服務(wù)調(diào)用關(guān)系以及每天海量的服務(wù)調(diào)用,而且所有服務(wù)都是以點對點的方式進行交互,導(dǎo)致出現(xiàn)問題時很

難定位,甚至出現(xiàn)問題沒人承認(rèn)。服務(wù)開發(fā)人員和業(yè)務(wù)架構(gòu)師對于分布式服務(wù)調(diào)用跟蹤方面的需求。淘寶平臺服務(wù)化后錯綜復(fù)雜的服務(wù)調(diào)用關(guān)系圖

圖淘寶訂單創(chuàng)建服務(wù)調(diào)用流程示意用戶信息讀緩

存無城客戶罐請

宗開致平食API

請求腳

頁請

本田務(wù)網(wǎng)用優(yōu)惠信息快遞優(yōu)惑用戶校驗訂單檢查訂單創(chuàng)建服務(wù)測行鷹眼平臺的架構(gòu)-核心實現(xiàn)思路如果把淘寶的分布式服務(wù)架構(gòu)比喻為遍布全國的高速公路網(wǎng)絡(luò),每一次的頁面請求可以認(rèn)為是一輛汽車在這個

高速公路網(wǎng)絡(luò)中穿行把高速上每一個收費站比喻為處理請求的服務(wù)。那么我們希望查看一輛汽車在高速上的行

走軌跡,如何實現(xiàn)?最簡單的方法就是在這輛車每次經(jīng)過收費站的時候記錄下車輛通過的時間和相關(guān)信息,并

將這些信息統(tǒng)一發(fā)送到服務(wù)器端保存起來。鷹眼平臺的核心實現(xiàn)思路就是通過一套分布式日志平臺實現(xiàn)對服務(wù)調(diào)用鏈路的跟蹤。[2013-05-0112:23:34]魯A123BC,

平度2,516,濟南,$0[2013-05-0112:23:40]魯A987DE,

平度2,516,淄博,$10[2013-05-0112:43:15]魯A123BC,

濰坊1,520,濟南,$18[2013-05-0113:38:29]魯A123BC,

青州西1,G20,

濟南,$10[2013-05-0113:38:30]魯A567AB,

青州西2,G20,

廊坊,$10[2013-05-0114:39:27]魯A123BC,

淄博3,G20,濟南,$15[2013-05-0116:42:58]魯A123BC,

濟南3,G20,

濟南,$25-[2013-05-0112:23:34]平度2,旅途開始-[2013-05-0113:38:29]青州西1,耗時75分鐘,路費10元-[2013-05-0114:39:27]淄博3,耗時61分鐘,路費15元-[2013-05-0116:42:58]濟南3,耗時123分鐘,路費$10元汽車通過高速收費口日志記錄信息某輛車經(jīng)過不同高速收費口日志記錄信息應(yīng)用集群追實時收取日志讀取鷹眼Storm

集群全量日志MapReduceHDFS計算結(jié)果讀取原始日志與分析結(jié)果數(shù)據(jù)輸出與展現(xiàn)鷹眼平臺是阿里巴巴中間件

發(fā)的Jstorm

流式計算引擎

,

對應(yīng)用集群接收到的

日志進行內(nèi)容的解析拆

分,按照不同業(yè)務(wù)場景

的需求將拆分后的數(shù)據(jù)

保存到不同的存儲系統(tǒng)。的中間件日志文件鷹眼平臺的架構(gòu)日志收集agentHadoop

集群寫入統(tǒng)

計數(shù)據(jù)心實時收取日志鷹眼服務(wù)器帶鷹眼埋點實時

數(shù)據(jù)實時日志HBase寫入埋點和輸出日志將實現(xiàn)服務(wù)調(diào)用、各種資源的訪問所需要生成服務(wù)鏈路日志,以及TraceID

傳遞等功能的代碼(稱為埋點)植入

到服務(wù)框架層和各資源的訪問驅(qū)動層,也就是在中間件層面上統(tǒng)一實現(xiàn)了鷹眼的上下文創(chuàng)建以及日志埋點功能。

前端應(yīng)用請

求start一clientSendclientRecvclientSendclientRecv響

應(yīng)endTrace后端應(yīng)用1服務(wù)調(diào)用服務(wù)響應(yīng)服務(wù)調(diào)用服務(wù)響應(yīng)數(shù)據(jù)庫圖示創(chuàng)建

上下文清理

上下文clientSend數(shù)據(jù)訪問clientRecvserverSendserverRecvserverSendserverRecvclientRecvclientSend數(shù)據(jù)訪問后端應(yīng)用2rpdd應(yīng)用名類型狀態(tài)大小據(jù)務(wù)/方法時間軸0

Sbuy

TRACE

OK

1.20B

http://buy.t0030.com/aucton/order/unty_oxder_confmhtm0.1

delvery8.1K8590.20.30,40.50.60.70.80.8.10.90.100.110.120.130.13.1

0.140.15teeinventorypbtform

閑inventoryptatform

inventorypltforminventoryplitforminventorypbtforminventoryplatform(dbetmal_invent

detwerytradepLtformuppdolveryTtradepbtfor(notfyotrade)

tradepbtfontradepbitformSFHHTDOLHFSFHSFOTFY吳吳吳吳吳吳吳吳吳吳吳吳吳吳吳吳1.85.3K4.6B4.4.5KS4,5K34.588.3808

1.3N7.90

12.6K8

49.0K2.5083.288

1.3量有kIYxxxhrxà0.160.170.180.190.200.210.220.22.10.230.23.10.23.1.tradepbtformtradeplitformtradeputfarmtradepbtformtradeplatfortradepLtform田tradeplatfonm(notityotrade)S

tradeplatforms(notfyotrade)tradeloosNOTFYHFNOTFYNOTFYBL2ER1.701.3K82.1KB1.31.3K813.4KS8158

2.2014.2K0

2.38mm1+

1|9m22204m0.23.1.

hitaoerpNOTFY20.23.1.(taroitem)TAR

NOTEST618t0.23.1.0.23.1.0.23.1.0.23.1.0.23.1.(tar0comm)TA頂hitaotradefaceHOTFYtrade

sub2_noHOTFY(dbotradesut

TDOLs

trade

sub_notNOTFY吳吳吳吳吳5882.82.822m0.23.1.

(dbonotly

t

TDOL

OKns典型業(yè)務(wù)場景-調(diào)用鏈跟蹤ac189a7e13736980753842965調(diào)用鏈入口P:,開始時間:2013-07-1314:47:55.384,調(diào)用團總時長:609ms

·

日志原文

PpCID289條調(diào)用記錄,總耗時609ms禺著美吳美美言吳吳原重重重重重重壹吳二x層次名稱應(yīng)用QPS焊值QPS調(diào)用

次數(shù)平均耗時本地耗時依賴度耗時比

例標(biāo)記根118.13269.641.0435ms51ms100.0%11.88%1226.02483.121.94Bms8ms98.51%3.64%2282.74533964.060msOms58.94%0.02%274.41170.571.770ms0ms35.56%0.08%1183.31357.951.713ms2ms90.58%1.0%2182.59356.961.71Oms0ms90.28%0.32%1130.91244851.7119ms7ms64.79%1.98%2219.58412.812883ms3ms64.52%1.37%2219.55412.732.881ms1ms64.51%0.45%2131.28243.791.720ms0ms64.51%0.12%2125.25231.111.70ms0ms62.2%0.12%1124.27230.451.125ms19ms96.07%4.66%強低預(yù)2120.47223.521.075ms5ms95.48%9825%90.14%96.08%1.3%1116.05247.931.04ms4ms1.05%1114.76216.991.0843ms37ms8.28%強你檢1113.49214981.05ms5ms1.16%碎信賴111123236.021.033ms3ms91.82%0.68%彈

依1111.2208291.0513ms13ms8946%2.88%1110242131210214ms207ms9332%445%瓶通2116.92220.861.075ms5ms92.59%1.28%1106.5205.27103ms3ms90.16%0.81%1103.07194.451.054ms4ms83.05%0.94%158.47141.231.012ms12ms49.5%1.37%1489104221.4522ms2ms28.54%0.2%248.89104.221.4519ms7ms2853%0.75%典型業(yè)務(wù)場景-鏈路分析應(yīng)用名類型狀態(tài)大小服務(wù)/方法時間軸曰

b

u

y田deliverytee國inventoryplatform國inventoryplatform田inventoryplatform田inventoryplatform

田deliverytradeplatformumpupp田delivery團tradeplatformtradeplatform田itemcenter國itemcenter田itemcenter國itemcenter田

umptradeplatform田tradeplatform田tradeplatformTRACEHSFHSFHSFHSFHSFHSFHSFHSFHSFHSFHSFHSFHSFHSFHSFHSFHSFHSFHSFHSFHSFOKOKTIMEOUTOKOKOKOKOKOKOKOKOKOKOKOKOKOKOKOKOKOKOK7.9KB1.9KB4.7KB4.8KB4.7KB4.8KB8.1KB1.3KB13.2KB6.2KB13.9KB40.8KB2.6KB2.0KB2.0KB2.0KB2.0KB8.7KB10.0KB

814B10.8KB618ms277ms典型業(yè)務(wù)場景-業(yè)務(wù)全息排查運維和開發(fā)人員通過業(yè)務(wù)軌跡的方式,在查看某一業(yè)務(wù)請求服務(wù)調(diào)用跟蹤的同時,也能看到服務(wù)中所產(chǎn)生的業(yè)

務(wù)事件以及相關(guān)業(yè)務(wù)主鍵。通過全息排查平臺,將鷹眼平臺從對跨系統(tǒng)調(diào)用跟蹤升級為跨業(yè)務(wù)領(lǐng)域追蹤,走出

了從運維平臺向運營平臺轉(zhuǎn)型的重要一步。/auction/order/unity_order_confirm.htm261條調(diào)用記錄,總耗時1s230ms12ms

2ms

10ms

3ms

6ms57ms

4ms

3ms

3ms

3ms5ms

23ms46ms|16ms10ms|14ms12ms53ms12ms9ms打造平臺穩(wěn)定性能力限流和降級限流的作用相當(dāng)于電路上的保險絲,當(dāng)過載的時候掐掉一些流量,讓系統(tǒng)有能力集中資源以較快的速度處理平臺

處理能力范圍內(nèi)的業(yè)務(wù)請求。比如在大促場景中,僅讓1000萬用戶中的100萬用戶進入后端的處理流程中,將其余900萬用戶通過隊列排隊或直接阻擋在平臺處理單元之外的方式,保障平臺能在處理能力范圍內(nèi)對100萬的戶用請求進行處理。前端請求服務(wù)2集群

服務(wù)3數(shù)據(jù)庫集群

數(shù)據(jù)庫集群接入層是最佳限流點最合適的限流攔截點應(yīng)用集群應(yīng)用集群服務(wù)1集群

群數(shù)據(jù)庫集群Nginx

集群應(yīng)用集群規(guī)則中心應(yīng)用ADiamond規(guī)則推送Sentinel客戶端運行態(tài)監(jiān)控控制邏輯數(shù)據(jù)接口應(yīng)用D日志Tair我的應(yīng)用Db限流平臺Sentinel(哨兵)架構(gòu)限流平臺Sentinel的出現(xiàn),為整個服務(wù)化體系的穩(wěn)定運行行使著警戒任務(wù),是對資源調(diào)用的控制平臺,主要涵蓋了授權(quán)、限

流、降級、調(diào)用統(tǒng)計監(jiān)控四大功能模塊。控制臺規(guī)則配置應(yīng)用B應(yīng)用C監(jiān)控系統(tǒng)授權(quán)

限流操作權(quán)限限流降級流量調(diào)度實現(xiàn)原理核心是通過妙級獲取服務(wù)器系統(tǒng)運行指標(biāo)以及業(yè)務(wù)指標(biāo),通過流量調(diào)度平臺設(shè)置的決策算法以及規(guī)則,當(dāng)發(fā)現(xiàn)滿足規(guī)則條件的指標(biāo)

態(tài)

發(fā)

時,

環(huán)

務(wù)

作,

現(xiàn)

應(yīng)

平臺

產(chǎn)

。應(yīng)用狀態(tài)監(jiān)控obproxy監(jiān)控機器指標(biāo)監(jiān)控業(yè)務(wù)狀態(tài)監(jiān)控權(quán)重計算決策數(shù)據(jù)接口互斥因子日志

權(quán)限機器tomcaRestfulAPI機器tomcaRestfulAPI降權(quán)ConfigServer下線下線Hsf上線流量調(diào)度平臺服務(wù)狀態(tài)視圖

人工決策接口后端應(yīng)用機器機器機器機器http

requestPC&

無線統(tǒng)一接入systemsystem前端應(yīng)用機器機器降權(quán)VipServer下線hsfhsf規(guī)則中心決策算法執(zhí)行模塊

恢復(fù)模塊妙級服務(wù)狀態(tài)探測收集通知告警報表面向分布式應(yīng)用架構(gòu)下應(yīng)用系統(tǒng)容量壓測和評估的自動化平臺·

實用性:準(zhǔn)確容量預(yù)測,系統(tǒng)性能回歸測試提供完整的測試場景、測

試方法、同時建立系統(tǒng)的性能基線,供后續(xù)的系統(tǒng)改造復(fù)用?!?/p>

準(zhǔn)確性:模擬生產(chǎn)系統(tǒng)實時變化的復(fù)雜流量場景,壓測流量模擬具備

了業(yè)務(wù)的真實性、全面性、業(yè)務(wù)變化的連續(xù)性?!?/p>

高效性:所有的建模、壓測、分析、預(yù)測基于同一平臺,同一種監(jiān)控

方式,同一種分析方法,

一切都是自動化,效率比常規(guī)方法倍增。傳統(tǒng)的互聯(lián)網(wǎng)應(yīng)用系統(tǒng)的性能測試·

測試場景簡單·線下環(huán)境(測試環(huán)境)中測試出的結(jié)果與線上環(huán)境(生產(chǎn)環(huán)境)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論