在當今這個時代,我們面對的是蓬勃發展的數字經濟,這直接帶來的就是海量數據的涌現。據IDC預測,全球已經進入了數字經濟時代,到2021年,至少50%的全球GDP將會由數字化驅動。通過數據驅動業務創新成為企業在數字經濟中贏得市場競爭的關鍵,而從數據中獲取價值就需要以人工智能為代表的新技術作為抓手,這也是現在人工智能技術快速發展的原動力。
以數據為中心,構建融合IT基礎設施
基于這樣的數據現狀,英特爾從CPU延展到以數據為中心,致力于實現更快的數據傳輸,更強的數據存儲,更全數據計算。英特爾指數思維推動全面計算創新,保持原有趨勢,將摩爾定律的精髓發揚光大。
在業務轉型的驅動下,企業面對日益增加的計算需求,持續多樣化的工作負載需求比如人工智能、數據分析、網絡、虛擬化、高性能計算、安全、數據庫、核心IT應用等。英特爾打造以數據為中心的基礎設施基石,數據傳輸更快,數據存儲更強,數據計算更全,通過軟件和系統級的優化,為用戶提供無以倫比的選擇和靈活性。
英特爾以數據為中心的策略以一種平衡的方式把計算、存儲、網絡,以打造架構的方式,針對不同的工作負載,推出系統級的解決方案。以數據為中心讓英特爾不再局限于計算層面,而是將計算與存儲、網絡等進行有機融合,更好地幫助企業構建強有力的IT基礎設施,迎接數據大爆炸的挑戰。
超異構計算,加速數據價值實現
算力在數據價值實現方面的作用是不言而喻的,而人工智能時代的海量計算需求、算法迭代讓傳統的通用CPU“應接不暇”,于是異構計算芯片受到關注,并快速發展。但是隨著AI的深入,傳統的異構計算也慢慢出現“瓶頸”。
“當我們展望下一個十年,或者更長遠的未來,隨著人工智能應用的愈加廣泛和深入,傳統的異構計算已經不能滿足日益發展的人工智能計算需求,我們正在邁入超異構計算時代。”這是英特爾對于未來計算的思考判斷。
在AI時代,我們面臨的應用和工作負載日趨多樣化,對應承載的平臺也需要異構化。英特爾以制程和封裝、架構、內存和存儲、互連、安全、軟件這六大技術支柱來應對未來數據量的爆炸式增長、數據的多樣化以及處理方式的多樣性。這六大技術支柱是互相相關、緊密耦合的,驅動英特爾的產品持續創新,支撐著未來以數據為中心的業務的持續演進。
英特爾能夠提供多樣化的標量、矢量、矩陣和空間架構組合,以先進制程技術進行設計,由顛覆性內存層次結構提供支持,通過先進封裝集成到系統中,使用光速互連進行超大規模部署,提供統一的軟件開發接口以及安全功能,從而實現超異構計算的技術愿景。
正是對于未來計算趨勢的把握,英特爾在產品維度進行了積極布局,不管是豐富已有產品功能,還是拓展更多產品領域,英特爾希望AI on IA,加速數據價值的實現。
AI on IA,AI就緒變得如此輕松
英特爾亞洲人工智能銷售技術總監伊紅衛告訴記者,AI是英特爾公司級的戰略,簡單來說是三個方面——硬件、軟件、生態。在硬件方面,英特爾AI計算平臺覆蓋從端到邊緣到云,提供最完整和靈活的硬件產品組合,包括VPU、FPGA、CPU、GPU、NNP。在軟件方面,將提供OneAPI解決方案,實現異構的統一編程和部署。
特別是英特爾第二代至強可擴展處理器集成了英特爾深度學習加速(英特爾DL Boost)技術,以加速數據中心、企業和智能邊緣計算環境中的人工智能推理工作負載。英特爾DL Boost是一套旨在加快人工智能深度學習速度的處理器技術。DL Boost基于AVX-512擴展新的矢量神經網絡指令集(VNNI),性能提升是數量級的,它的導入,使得用戶在執行INT8推理時,對系統內存的要求最大可減少75%,而對內存和所需帶寬的減少,也加快了低數值精度運算的速度,從而使系統整體性能獲得大幅提升, 從而具有更好的TCO,為終端用戶提供更一致性的體驗。基于DL Boost加速指令集,英特爾至強可擴展處理器在某些AI推理計算中超越GPU加速器方案。
例如,在不影響預測準確度的情況下,百度在其飛槳深度學習平臺中基于第二代英特爾至強可擴展處理器平臺可使多個深度學習模型在使用INT8時的推理速度,加速到使用FP32時的2-3倍之多,大大提升了用戶深度學習應用的工作效能。
伊紅衛表示,英特爾會進行大量的測試,從而確保產品性能表現,這種測試包括與合作伙伴的聯合創新,也包括與最終用戶的合作。伊紅衛還列舉了一個客戶案例,在沒有加速卡的情況,英特爾至強處理器在人工智能工作負載中的表現非常出色,完全打消了客戶的顧慮。“英特爾在性能測試方面遵循嚴謹的態度,所有性能測試均基于真實的應用場景,確保客戶獲得的也是真實的產品性能。”
“當我們面對客戶的時候,其實是關注他們所面臨的問題。客戶是帶著問題來找你的,他們其實不會太關注底層技術,但是作為英特爾需要確保產品能夠支撐客戶的業務應用。英特爾至強處理器正在成為‘多面手’,而且做得很好。這對于客戶來說意義重大,特別是在成本方面。”伊紅衛說。
FPGA(現場可編程邏輯門陣列)是一種高性能、低功耗可編程芯片。相比于CPU和GPU,其計算效率更高,開發者可實現快速編程驗證并進行部署。當前,FPGA在AI芯片中發展迅猛。2015年6月,英特爾宣布以167億美元的價格,收購全球第二大FPGA廠商Altera。現在,英特爾FPGA提供了一種經濟高效的可重復編程平臺,從網絡邊緣到數據中心加速應用。比如Microsoft部署英特爾Stratix10 FPGA,以在Microsoft Azure for Project Brainwave上提供實時人工智能硬件微服務。
在邊緣AI方面,英特爾推出了神經計算棒二代(NCS 2)NCS 2計算棒基于Movidius Myriad X視覺處理單元(VPU),利用該計算棒可以在網絡邊緣構建AI算法和計算機視覺原型設備,并支持英特爾OpenVINO工具包。未來物聯網的邊緣芯片都會具備一定的處理能力,在前端加強推理AI。業界有很多采用英特爾VPU的應用場景,比如智能樓宇、零售貨架等。
伊紅衛表示,AI就像水電一樣無處不在,而且AI的跨度很大,一個通用的產品肯定不能適配所有場景。所以,英特爾不管是加強自身產品,還是通過收購拓展更多產品領域,都是為了用戶提供多樣化的產品組合。比如Nervana神經網絡處理器(NNP,Neural Network Processor)。
在2019百度AI開發者大會上,英特爾宣布正在與百度合作開發用于AI訓練的新Nervana神經網絡處理器,也稱為NNP-T。NNP-T針對圖像識別進行了優化,芯片上的內存由軟件直接管理。NNP-T的24個計算集群、32GB的HBM2棧和本地SRAM使其能夠提供最多10倍于競爭顯卡的人工智能訓練性能,以及該公司首款NNP芯片Lake Crest 3-4倍的性能。
NNP-T由于其高速的片內和片外互連,能夠將神經網絡參數分布到多個芯片上,從而實現很高的并行度。此外,它還使用了一種新的數據格式——BFLOAT16,這種格式可以提高推理任務中至關重要的標量計算,使NNP-T能夠適應大型的機器學習模型。據了解,16nm NNP-T預計將在今年晚些時候與10nm Nervana神經網絡推理處理器(NNP-I)一起上市。
此外,英特爾公司一直在研發能夠模仿人類大腦的Loihi“神經擬態”深度學習芯片。現在,英特爾還推出了一個名為“PohoikiBeach”的新系統,該系統包含多達64顆Loihi芯片,集成了1320億個晶體管,總面積3840平方毫米,擁有800萬個神經元、80億個突觸,能夠處理人工智能算法,與普通CPU相比,速度快了1000倍,能效高了10000倍,可用于自動駕駛等。
Loihi芯片采用14nm工藝制造,集成21億個晶體管,核心面積60平方毫米,內部集成3個Quark x86 CPU核心、128個神經擬態計算核心、13萬個神經元、1.3億個突觸,并有包括Python API在內的編程工具鏈支持。
從直觀上看,英特爾的AI產品組合令人“目不暇接”。伊紅衛說,不管是已經推出的產品,還是在研發中的產品,英特爾希望為客戶提供更多選擇。“我們在內部倡導One Intel,所以雖然產品線眾多,但是大家都是以客戶為中心,聆聽客戶的心聲,幫助客戶更好地服務他們的客戶。”
結語
以數據為中心,我們在算力方面需要足夠的就緒準備。在未來的超異構計算時代,英特爾不斷豐富自身的AI產品組合,讓用戶具備多樣化的選擇機會。從VPU、FPGA、CPU、GPU、NNP到AI專屬芯片,英特爾構建了一個多層面、多維度的產品組合,讓客戶拿來即用,各取所需。
更為重要的是軟硬件協同創新,讓AI on IA幫助企業輕松應用人工智能,并且保證高速數據傳輸,可靠數據存儲,高效數據計算從而實現資源的高效利用,讓人工智能與企業業務進行融合,促進業務的創新。








