企業公有云服務的構建“捷徑”,看這一篇文章就夠了
最近在上海舉辦的2018世界人工智慧大會,
可謂是大佬雲集,金句頻出。
在成為業內焦點的同時,
也再次將人工智慧(AI)推向企業和大眾視野,
今天,就和大家聊聊AI那點事兒。
AI世界的冰與火之歌
AI有多火?
資料顯示:
在2018年,全球70%的企業都希望實施AI應用。
然而,AI火熱的背後也有“涼涼”的一面。
由於AI理念和技術的超前,
目前企業使用者還普遍缺乏相關的IT基礎設施,
以及專業的人才和知識積累。
這也導致91%的企業預計會在採用AI的過程中遇到重大障礙。
而企業使用者欠缺的,正是公有云所具備的優勢:
背靠網際網路開源社群的創新活力,
在AI演算法研發上的先發優勢,
坐擁大規模或超大規模的資料中心和海量資料,
調動久經考驗的基礎設施運維、
應用和服務開發人才……
於是,問題來了:
是不是擁有實力較強的雲服務提供商,就可以真正的擁抱AI了?
答案並非如此。
AI三要素中的算力,
也就是AI雲服務所需的基礎設施,
由於架構不一,往往讓人眼花繚亂。
那麼,有沒有什麼策略或者方法,
能幫助雲服務提供商更便捷地選擇和構建AI雲服務呢?
下邊進入敲黑板劃重點階段!
成功可以沒有捷徑,但云服務有
首先,我們要知道:
不論在全球還是在中國,
不論是眼下還是未來,
AI雲服務的主要目標受眾,
多數是希望採用AI既有創新成果,
而非推動AI技術演進的普通企業
他們希望將智慧技術引入到業務資料處理的流程和工具鏈條中,
從而實現更高階的預測型分析。
而企業的這種AI應用多是推理型應用,
也就是基於機器學習而非深度學習技術,
因此,也就決定了雲服務提供商面向企業使用者打造AI雲服務時,
完全沒必要改弦更張、另起爐灶。
畢竟,目前的公有云服務,
多是構建在英特爾架構基礎設施上的,
因此,通過將AI雲服務構建在同一平臺上覆用其資源,
並與既有的資料處理工具對接的方式,
無疑用時更短,技術門檻、風險和成本也更低,
也大大減少了雲服務提供商在系統管理、
維護和保障上的投入。
超越專有架構平臺的強大效能
除了省時省力省錢,
在效能輸出上基於英特爾至強處理器的基礎設施也不輸專有架構平臺,
舉個例子:UCloud的AI線上服務,
它的算力主要源自既有基礎設施中常處於閒置狀態的至強E5處理器AVX處理單元,
在搭配面向英特爾架構優化的Caffe框架後,
整體執行效能提高了10倍以上,
人臉表情識別的測試中,
在有併發的前提下,
其效能也可媲美,
甚至是超越專有架構平臺。
如今,全新的英特爾至強可擴充套件處理器,
憑藉更新的微架構和增強的硬體特性,
為AI雲服務的服務商帶來了更大福音:
在匯入針對英特爾架構優化的框架和軟體工具後,
其推理效能可比上一代平臺實現最高超過百倍的提升。
或許有人擔心:除了推理效能,
英特爾在深度學習的訓練應用可否一戰?
我們用實測資料說話:
與上一代產品相比,
至強可擴充套件處理器可將人工智慧/深度學習的訓練速度提升2.2倍,
在同樣匯入優化的框架和工具後,
這一提升幅度可以拉高到100多倍!
可見,
不論選擇哪種技術路徑,
不論是訓練還是推理,
優先評估和發揮既有英特爾架構基礎設施的潛力,
都是雲服務提供商構建AI雲服務的一條“捷徑”!
併發、時延、成本等各方面,都對雲平臺的基礎設施提出了更高的要求。點選閱讀原文,登上至強特快專列,瞭解成功的雲服務提供商如何高效打造差異化的雲服務。