換種監控姿勢:基於深度學習+流處理的時序告警系統
作者介紹
左喻灝,新炬網絡AIOps高級工程師。擁有豐富的HBase運維經驗和專業的機器學習知識,擅長使用人工智能技術解決大數據運維中的實際問題。2019年開始基於各類機器學習算法進行大數據平台異常檢測方向的研究,近期正在積極參與某運營商大數據平台自動化運維平台建設工作。
王哲,新炬網絡大數據運維開發工程師。擅長Spark、Flink等流處理技術開發,擁有豐富的實時數據處理經驗,近期正在積極參與某運營商大數據平台自動化運維平台建設工作。
背景
告警系統是運維人員的“眼”,是維護生產安全的第一層保障。傳統基於規則的告警系統是通過同比、環比、差分、設置閥值等手段來判斷當前指標是否存在異常,但往往不盡人意,存在維護成本高、準確率低等問題。隨着人工智能的興起,大數據運維也迎來了新的契機,同時也對自身告警系統的實時性提出了更高的需求。
於是我們結合Tensorflow深度學習算法,基於大數據平台天然原生的分佈式流處理框架Spark,打造了一套高覆蓋性與強實時性的告警系統,有效的減少了人工規則的參與,並降低了維護成本。
本文主要從“基於深度學習的時序預測算法”和“算法結合Spark流處理的實時告警”兩個方面對本套告警系統進行介紹。框架圖如下圖所示:
一、基於深度學習的時序預測算法
使用算法監控時序數據的常規思路,是通過本時刻實時值與用前幾個時間點的時序數據對本時刻的預測值進行比較。因此,告警的第一步是做好時序預測工作,即時序分析。
引用一段百度文庫對時序分析原理的介紹:“承認事物發展的延續性, 事物的現實是歷史發展的結果,而事物的未來又是現實的延伸,事物的過去和未來是有聯繫的。時間序列分析預測法的哲學依據,是唯物辯證法中的基本觀點,即認為一切事物都是發展變化的,事物的發展變化在時間上具有連續性。”
時序分析的過程分為以下三個操作步驟:
第一步:數據預處理;
第二步:核心指標分類;
第三步:選擇算法訓練模型。
下面對以上步驟展開敍述。
1、數據預處理
利用好數據的前提是數據是好用的,因此所有的數據分析工作第一步一定要先經過數據預處理,主要包括數據清洗和特徵提取。
時序預測基於歷史數據預測未來,歷史數據中的“空值”、“異常值”將會極大的影響到預測的質量,因此在訓練預測模型前需要對訓練集時序數據進行清洗。可以先對數據繪圖直觀的看一下是否有周期性,然後對於空值採取補齊的方式,具體補齊方式可以根據原序列有明顯週期性則可以用歷史多個週期在這一個時間點的平均值,無明顯週期性則可以用前後兩點的均值代替,對於異常值同理。
時序分析的特徵提取,業界多采用滑動窗口時序特性分析的方法,也即多個時間窗口之間數據做統計上的均值、方差、協方差等對比,分解出時間序列的成分。時間序列的成分則分為3種:
長期趨勢:一段時間後序列總體呈現的上升或下降的趨勢;
季節性:週期性固定的變化;
餘項:時間序列除去趨勢、季節性後的偶然性波動,稱為隨機性,也稱不規則波動,是常態。
長期趨勢
季節波動
餘項
不同於分類場景中將提取的特徵用於模型訓練,這裏特徵提取的季節波動和餘項都將服務於下一步的指標分類。
2、核心指標分類
對核心指標的時序預測,則需要事先分解時序數據的成分並進行預分類。參照業界時序預測指標分類的方式,用是否具有周期性和是否穩定兩個標準可分為以下四類,以集羣環境真實指標圖解説明:
週期性穩定
週期性非穩定
非週期性穩定
非週期性非穩定
從算法角度上,我們提出了一種基於時序分解,對週期分量進行觀察並對餘項進行方差分析的指標類型判定方式:
Step 1:時序分解算法將時序數據分解出“趨勢分量”、“週期分量”和“餘項”
通過觀察週期分量,上述第三張圖具有明顯規律性波動才被認為具有周期性。
Step 2:對時序分解法分解出的“餘項”做方差分析
首先對“餘項”進行預處理,採用“歸一化”的處理方式將“餘項”歸一化到區間。再計算出“歸一化餘項”的方差,只有方差在一定閾值以內才被認定為穩定。具體閾值的大小沒有一個統一標準,在對多達近百個指標進行如上分析,最終閾值取了0.2。
至此,完成黃金指標的類型分類。對於非週期性指標的監控,業界內暫時也沒有一個好的方案,主要還是採用同比環比、差分、設置閥值等經典規則方法。同一種方法,不可能解決所有類型指標的監控,使用新算法並不意味着完全摒棄一些舊方式,這裏不做進一步探討。對於週期性非平穩序列,則可以通過粗粒度時窗,比如原本1分鐘一個的點,現統計每5分鐘的值進行求和或者求均,都可以處理成周期平穩序列。因此,本文主要針對通過以上方式分類和處理得到的週期性平穩數據。
3、基於LSTM算法的時序預測
時序預測的算法整體上有兩大類:基於統計學的傳統機器學習算法;基於神經網絡的深度學習算法。常用的機器學習算法,如指數平滑法、移動平均自迴歸模型以及添加了週期性成分的季節性移動平均自迴歸模型;常用的深度學習算法,如深度神經網絡、循環神經網絡以及解決了RNN存在長期依賴問題的長短時記憶網絡。
考慮到平台部署、穩定性等實用性因素,並對統計學模型兩種算法ARIMA、SARIMAX跟深度學習模型LSTM算法的實時性進行對比,在真實環境下,進行多次對比取均值,得出以下結論:
可以看到,LSTM模型不僅在訓練跟預測上所花費的時間均遠低於其他兩個模型,其他兩個模型的實時性無法滿足需求;同時在資源消耗以及丟失值敏感問題上也要優於其他。因此,最終選擇的是深度學習算法——LSTM。
1)LSTM簡介
近幾年,隨着計算能力的迅猛提升,上個世紀末研究到一半的深度學習在今天重新“翻熱”,並在各個領域大放異彩。深度學習模仿大腦的神經元之間傳遞,處理信息的模式,對其算法思想的理解需要有一定機器學習的基礎,下面只做簡要介紹。
深度學習隸屬於機器學習,與基於人工規則定義特徵的傳統機器學習相比,DL明確了特徵學習的重要性。簡單的深度學習算法有深度神經網絡DNN,它通過逐層特徵變換,將樣本在原空間的特徵表示變換到一個新特徵空間,通過組合低層特徵形成更加抽象的高層表示屬性類別或特徵。
隨着深度學習的進一步研究,除了DNN以外還有較多應用於圖像識別的卷積神經網絡CNN以及自然語言處理NLP常用到的循環神經網絡RNN等等。RNN又因為其輸入是同一事物的多個時間點的數據,通過不停的將信息循環操作,保證信息持續存在,從而可以利用前面的事件信息的特性被應用於時序分析。本文中的LSTM是一種特殊的循環神經網絡RNN,它既有RNN保存歷史信息的功能,還解決了普通RNN存在的梯度消失跟梯度爆炸問題。LSTM也有很多變種,這裏只給出樸素LSTM的網絡結構圖。
2)LSTM模型訓練操作過程
LSTM 算法的時序預測方式是先基於指標的歷史數據訓練出模型,再根據當前數據預測指標未來。以下具體的操作使用的是Tensorflow框架,Tensorflow是Tensor以數據流圖的形式進行數值計算。
Step 1:已經預處理過的數據轉換為Tensorflow可接受的張量形式
A:數據歸一化;
B:訓練數據轉換格式,……,x;Y:x);
C:Reshape成指定形狀的張量。
以上過程舉例説明,假設有時序數據,設n為3。那麼對這個序列進行處理得到,,……,共7個訓練樣本。然後再轉換為張量格式類似下圖所示:
兩個6維三階張量X
兩個1維二階張量Y
Step2:定義網絡結構
A:選擇網絡:這裏使用的是LSTM網絡;
B:設置參數:輸入層、輸出層、timestep;
C:初始化各個神經元之間的連接跟偏置。
Step3:網絡訓練
A:設置優化器、損失函數、學習率、激活函數…;
B:設置訓練方式。
Step4:生產預測
A:保存模型;
B:複用模型進行預測,注意需要反歸一化。
經過以上過程,即完成了LSTM模型的訓練,此時得到的網絡結構格式如下:
編輯
二、算法結合Spark流處理的實時告警
上一章節中,通過深度學習算法有效的對指標進行預測,本章節則將其通過與Spark流處理框架的結合應用到告警系統的生產部署中。限於Spark已有的機器學習庫MLlib裏沒有深度學習算法,以及大數據組件跟深度學習算法之間的語言兼容問題。因此嘗試在Spark中調用訓練好的Tensorflow模型,即“Tensorflow離線訓練,Spark實時預測“的AI生產部署模式。
具體分為以下幾步:模型上傳至HDFS;Yarn調度Spark Streaming加載PB模型;數據的實時消費與告警。涉及到以下引擎層和Hadoop底層:
1、模型上傳至HDFS
把一章節中的深度學習算法模型輸出為可上傳至HDFS文件系統格式的文件並上傳至集羣HDFS。首先對深度學習模型的保存方式做了簡單對比分析:
通過以上對比分析,根據場景適用性、接口豐富性、開發語言兼容性等優勢,最終選用PB格式的保存方式。PB模型實質是一個PB文件,是深度學習算法最終生成的一個二進制文件,需要Tensorflow框架進行讀取、編譯,最後在程序中形成一個預測模型。對其上傳則通過crontab定期執行上傳即可,上傳週期可調。
2、Spark加載PB模型
首先將PB文件存儲在HDFS上,通過Spark Streaming程序可以直接讀取到HDFS上的PB文件,然後利用Tensorflow框架將所有讀取到的PB文件,還原成之前訓練好的神經網絡模型,用於深度學習的預測。因為在生產環境中,程序是On Yarn模式,以此來保證程序的高可用和高性能,所以所有的PB模型都是通過Spark程序的Driver組件統一生成,然後在向下分發至各個Executor,預測過程將在各個Job中執行。
此外,因為選用的是Spark Streaming框架,所以支持動態PB模型加載,即如果想更新PB模型,可以直接替換HDFS上的PB文件,程序即可識別新的PB文件,生成新的PB模型為後面的數據進行預測。動態更新PB模型遍於調整預測規則,根據指標數據的實時變動,更加有效的更改調節算法策略,使得預測結果更加精準。
整套程序上基於Spark Streaming框架開發的,所以在實時性能夠得以保證,在數據平台搭建完善的基礎上,所有的實時數據指標信息都會存放在Kafka消息隊列中。程序在實時消費Kafka獲取當前指標數據,每一次預測都會根據當前的指標數據計算,得到的預測結果會更加貼合真實值。
上圖為Spark Streaming基本內部原理,SparkStreaming從實時數據流接入數據,再將其劃分為一個個小批量供後續Spark engine處理,所以實際上,Spark是按一個個小批量來處理數據流的。這正是符合我們的實際應用場景,數據實時接收,一批批處理,再結合深度學習算法,實現了智能AI實時預測的功能。
3、數據的實時消費與告警
為防止瞬時異常導致的模型失真問題,因此需要有個替換邏輯來保證模型的穩定。我們利用了外部應用Redis,因Redis是內存數據庫,其速度快、多類型存儲以及其他豐富特性,能夠完全支持我們的存儲需求。
對每一個需要預測的指標數據設計了三個不同的數據集,分別為forecast隊列、real隊列和pb隊列:
forecast隊列即為預測值隊列,此隊列中存放的是根據深度學習算法生成的預測值;
real隊列即為真實值隊列,此隊列中存放的是從Kafka消息隊列中消費得來的真實數據;
pb隊列即為模型輸入隊列,此隊列是用來灌輸到PB模型中的數據隊列。
三個隊列互相協作,保證模型的穩定。首先在程序第一次啓動時,需要先積累足夠多的原始數據,填入到real隊列和pb隊列中,當積累了t分鐘後,有了足夠多的數據可以預測時,將pb隊列中的數據填入PB模型中,預測t 1分鐘的數據,將t 1分鐘的預測值填入到forecast隊列中。
在t 1分鐘時,拿到了t 1分鐘的真實值,用t 1分鐘的真實值與t分鐘預測出來的t 1分鐘的預測值根據特定的比對規則比對,如果真實值與預測值符合比對要求,那麼將t 1分鐘的真實值填入到pb隊列中,反之則用t 1分鐘的預測值填入到pb隊列中,並且保持pb模型要求的長度,去掉pb隊列中時間最早的數據,用替換更改過後的pb隊列填入到PB模型中,預測t 2分鐘的預測值。
當以上步驟進行了足夠多的時候,那麼real隊列與forecast隊列都已經積累的足夠多的數據,並且時間都會互相匹配,即real隊列的數據為t分鐘至t n分鐘的真實值,forecast隊列的數據為t 1分鐘至t n 1分鐘的預測值,那麼在t n 1分鐘時,拿到了t n 1分鐘的真實數據,即可按照每個時間的真實值和預測值互相對比,判斷此指標數據是否出現異常,如果比對結果中的異常時間點超過既定個數,那麼此指標則被判定有異常發生,立刻會發出告警,提醒運維人員檢查修復。
對於每個隊列的長度和應用都做成可隨時更改的配置項,裏面有詳細的要求和規則來規定和約束每個不同的預測模型的數據隊列便於模型定製化調整,真正的實現了特定預測,特殊預測和準確預測。
三、總結
整個告警系統平台,採用深度學習算法提高了預測的準確性,再結合Spark Streaming流處理框架保障了告警的實時性,減少了人為規則的參與,降低運維人員維護的時間投入。
從2019年年底正式上線,現已穩定支撐某運營商包括Kafka、HBase等多個大數據技術棧的核心指標業務的實時監控。從平台正式運行至今,總的查全率能達到98%以上;由於核心業務更注重查全率,因此查準率稍低,查準率大約維持在90%的水平;同時集羣環境提供的容錯性,以及Spark Streaming流處理提供的實時消費能力極大的降低了告警的時間延遲,理論上可以達到與指標採集頻率相差毫秒級的延遲。
隨着人工智能的興起,運維也迎來了新的契機,想破解運維轉型困局,讓Gdevops全球敏捷運維峯會北京站給你新思路:
《浙江移動AIOps實踐》浙江移動雲計算中心NOC及AIOps負責人 潘宇虹
《數據智能時代:構建能力開放的運營商大數據DataOps體系》中國聯通大數據基礎平台負責人/資深架構師 尹正軍
《雲時代下,傳統行業的運維轉型,如何破局?》新炬網絡董事/副總經理 程永新
《銀行日誌監控系統優化手記》中國銀行DevOps負責人 付大亮和中國銀行 高級軟件工程師 李曉寧
《民生銀行智能運維平台實踐之路》民生銀行智能運維平台負責人/應用運維專家 張舒偉
讓我們在新技術的衝擊下站穩腳跟,攀登運維高峯!那麼2020年9月11日,我們在北京不見不散。
Gdevops全球敏捷運維峯會北京站:https://www.bagevent.com/event/6243820?bag_track=dbaplus