【編者按】作為技術(shù)的重要物理基礎(chǔ),擁有巨大的產(chǎn)業(yè)價值和戰(zhàn)略地位。但從大趨勢來看,目前人工智能芯片發(fā)展尚處于的初級階段,無論是科研還是產(chǎn)業(yè)應用都有巨大的創(chuàng)新空間。
近年來,由于大數(shù)據(jù)產(chǎn)業(yè)的發(fā)展,數(shù)據(jù)量呈現(xiàn)爆炸性增長態(tài)勢,而傳統(tǒng)的計算架構(gòu)又無法支撐深度學習的大規(guī)模并行計算需求,于是研究界對人工智能芯片進行了新一輪的技術(shù)研發(fā)與應用研究。人工智能芯片作為終端實現(xiàn)人工智能算法的載體,是實現(xiàn)人工智能技術(shù)創(chuàng)新的重要基礎(chǔ);同時,作為人工智能時代的技術(shù)核心之一,決定了平臺的基礎(chǔ)架構(gòu)和發(fā)展生態(tài)。
2018年12月,gartner發(fā)布了《預測2019:人工智能與未來工作》報告,對人工智能科技未來七大及其對工作的影響進行分析探討,人工智能芯片位列其中。人工智能芯片作為當前衡量一個國家科技發(fā)展水平及實力的重要參考標準,一直以來都受到了廣泛的關(guān)注。
以谷歌、微軟、英特爾、臉書為代表的科技巨頭爭相加大在人工智能芯片領(lǐng)域的布局。截至2018年5月,全球至少有60家初創(chuàng)公司在研發(fā)語音交互和自動駕駛?cè)斯ぶ悄苄酒?、至少?家企業(yè)已經(jīng)獲得超過1億美元的融資;根據(jù)國際權(quán)威基金評級機構(gòu)morningstar預測,到2021年,全球人工智能規(guī)??赡艹^200億美元。
人工智能技術(shù)催動芯片市場爆發(fā)
當前正處于“后摩爾定律時代”,和萬物智能得以實現(xiàn),核心推動力量來自半導體產(chǎn)業(yè),數(shù)百億智能設(shè)備連接網(wǎng)絡(luò),用于數(shù)據(jù)采集的物聯(lián)網(wǎng)芯片和高性能人工智能芯片需求劇增,因萬物互聯(lián)采集海量數(shù)據(jù),經(jīng)數(shù)據(jù)中心構(gòu)造的云端對數(shù)據(jù)進行處理,從而帶動整個半導體發(fā)展。
伴隨著大數(shù)據(jù)的發(fā)展,計算能力的提升,人工智能近年迎來了新一輪的爆發(fā)。谷歌、臉書、微軟、亞馬遜等國外各大科技巨頭公司已紛紛推出了自己的人工智能芯片,預計2020年有望突破百億大關(guān),發(fā)展空間巨大。而各科技巨頭司都在探索不同類型的人工智能芯片專用架構(gòu):谷歌擁有張量處理單元(tpu),每個芯片具備一個核心和用軟件控制的內(nèi)存(而非緩存);英偉達的gpu則擁有80多個內(nèi)核;微軟正在走fpga的路線;英特爾則在所有類型的人工智能芯片專用架構(gòu)上都有布局,為機器學習推銷傳統(tǒng)的cpu,收購altera和nervana,前者專注于fpag,后者專注于神經(jīng)網(wǎng)絡(luò)專用處理器(類似于谷歌的tpu),當前已經(jīng)進入計算系統(tǒng)結(jié)構(gòu)的黃金時代。2018年,幾乎每個月,主流科技公司推出的定制人工智能芯片項目數(shù)量都會較上個月有所增加。
(一)英特爾方面,在芯片產(chǎn)業(yè)布局上,英特爾在2018年進行了一系列收購,加速開發(fā)更新型的芯片。2018年7月,英特爾收購物聯(lián)網(wǎng)芯片組廠商easic;2018年9月,英特爾收購netspeed systems,繼續(xù)布局專用片上系統(tǒng)(soc)芯片產(chǎn)業(yè)。英特爾正在開發(fā)越來越多樣化的soc芯片產(chǎn)品,包括各種專用soc,如movidius vpu和fpga。此外,英特爾在2018年展示了首款14納米獨立gpu原型,并確認其首款獨立gpu最早將于2020年問世。
(二)谷歌方面,2018年2月,谷歌開放cloud tpu,專為加速、擴展特定的tensorflow機器學習工作負載而優(yōu)化。2018年5月,在google i/o 2018開發(fā)者大會期間,谷歌正式發(fā)布了第三代人工智能學習專用處理器tpu 3.0。tpu 3.0采用8位低精度計算以節(jié)省晶體管數(shù)量,對精度影響很小但可以大幅節(jié)約功耗、加快速度,同時還有脈動陣列設(shè)計,優(yōu)化矩陣乘法與卷積運算,并使用更大的片上內(nèi)存,減少對系統(tǒng)內(nèi)存的依賴;速度能加快到最高每秒1000萬億次浮點計算。
(三)英偉達方面,2018年3月,英偉達推出了一個更新的、全面優(yōu)化的軟件堆棧,還公布了其全球領(lǐng)先的深度學習計算平臺所取得的一系列重要進展,包括nvidia tesla v100(宣稱是最強大的數(shù)據(jù)中心gpu)的2倍內(nèi)存提升,以及革命性的全新gpu互聯(lián)結(jié)構(gòu)nvidia nvswitch,它可使多達16個tesla v100 gpu同時以2.4 tb /秒的速度進行通信,這一速度創(chuàng)下歷史新高(相較于半年前發(fā)布的上一代產(chǎn)品,其深度學習工作負載性能實現(xiàn)了10倍提升)。
(四)超威半導體(amd)方面,2018年6月,amd公開展示了全球首款7納米制程的gpu芯片原型,含有32gb的高帶寬內(nèi)存,專為人工智能和深度學習設(shè)計,用于工作站和服務(wù)器;2018年11月,amd發(fā)布了基于7納米工藝的升級版vega架構(gòu)核心,也是全球首個7納米gpu。7納米vega核心集成了132億個晶體管,比14納米vega(125億個晶體管)增加了6.4%,而核心面積為331平方毫米,比現(xiàn)在的484平方毫米縮小了31.6%,晶體管密度翻了一番。同等功耗下,新核心性能提升超過25%;而同等頻率下,新核心功耗降低50%。
(五)蘋果方面,蘋果公司在2018年9月發(fā)布的新款iphone系列手機均搭載了a12仿生芯片。a12仿生芯片由4核gpu、6核cpu和神經(jīng)網(wǎng)絡(luò)引擎構(gòu)成,內(nèi)有69億個晶體管,性能非常卓越,被認為是當時“智能手機中最智能、功能最強大的芯片”,其每秒運算數(shù)據(jù)達到了5萬億次,比2017年推出的a11提高733%,新的iphone機器學習速度提升了9倍。
(六)國際商用機器(ibm)公司方面,2018年6月,ibm research 人工智能團隊利用大規(guī)模的模擬存儲器陣列訓練深度神經(jīng)網(wǎng)絡(luò),達到了與gpu相當?shù)木?,被認為是在下一次人工智能突破所需要的硬件加速器發(fā)展道路上邁出的重要一步,相關(guān)成果發(fā)表在《自然(nature)》期刊上。
“邊緣側(cè)智能”發(fā)力,人工智能芯片與物聯(lián)網(wǎng)的緊密結(jié)合成為亮點
2018年12月,gartner發(fā)布的《預測2019:人工智能與未來工作》報告重點提及“邊緣計算(edge computing)”的潛力與應用價值。近年來,計算工作負載一直在遷移:首先是從本地數(shù)據(jù)中心遷移到云,現(xiàn)在越來越多地從云數(shù)據(jù)中心遷移到更靠近正在處理的數(shù)據(jù)源的“邊緣”位置,旨在通過縮短數(shù)據(jù)傳輸距離來提高應用和服務(wù)的性能和可靠性,降低運行成本,從而減少帶寬和延遲問題。
gartner數(shù)據(jù)顯示,到2025年,80%的企業(yè)將關(guān)閉其傳統(tǒng)數(shù)據(jù)中心,而2018年則為10%;markets and markets數(shù)據(jù)顯示,到2022年,邊緣計算市場的價值將達到67.2億美元,高于2017年的14.7億美元,年復合增長率35.4%,關(guān)鍵驅(qū)動因素是物聯(lián)網(wǎng)和5g網(wǎng)絡(luò)的出現(xiàn),“智能”芯片性能提升、“智能”應用程序數(shù)量的增加以及云基礎(chǔ)架構(gòu)負載的增加。
隨著人工智能應用的不斷擴展,定位于數(shù)據(jù)中心(或稱“云端”)的人工智能應用普遍存在功耗高、實時性低、帶寬不足、數(shù)據(jù)傳輸過程安全性較低等問題。預計,未來會有更多人工智能芯片部署于網(wǎng)絡(luò)“邊緣側(cè)”。“邊緣側(cè)智能”專指靠近智能終端以及數(shù)據(jù)源頭的網(wǎng)絡(luò)邊緣側(cè),融合了網(wǎng)絡(luò)、計算、存儲、應用的開放計算平臺,已經(jīng)成為人工智能芯片的重要發(fā)展趨勢。
谷歌的人工智能布局正逐漸走向邊緣測。在2018年7月舉行的谷歌云端服務(wù)年會google cloud next上,谷歌發(fā)布一款名為“edge tpu”的人工智能芯片,作為小型人工智能加速器(體積僅為一美分硬幣的1/6),可在物聯(lián)網(wǎng)(iot)設(shè)備中實現(xiàn)機器學習算法的訓練任務(wù),這款芯片將為邊緣設(shè)備提供強大的計算和學習能力,已成為谷歌邊緣計算戰(zhàn)略的重要組成部分;同時,發(fā)布cloud iot edge,這是一款能夠?qū)oogle的云服務(wù)擴展到物聯(lián)網(wǎng)網(wǎng)關(guān)和邊緣設(shè)備的軟件堆棧。2018年11月,英偉達公開了nvidia jetson agx xavier機器人專用芯片平臺、面向邊緣計算的drive agx xavier汽車級人工智能芯片等,致力于邊緣側(cè)數(shù)據(jù)感知、匯聚和推演,并基于這些芯片和平臺開始向公司提供企業(yè)級解決方案,正在逐步從芯片制造商轉(zhuǎn)變?yōu)榉桨柑峁┥痰慕巧?/p>
人工智能芯片將繼續(xù)在物聯(lián)網(wǎng)領(lǐng)域扮演更重要的角色。相比于數(shù)據(jù)中心的人工智能加速器,位于“邊緣側(cè)”智能終端中的人工智能芯片需要更低的延遲性、更低的能耗、更小的體積和更低的成本;其算法要相對成熟,無需進行頻繁的迭代更新。目前,越來越多的硬件廠商開始提供邊緣處理的強化產(chǎn)品,例如邊緣服務(wù)器、智能網(wǎng)關(guān)等產(chǎn)品。
各大在人工智能領(lǐng)域垂直領(lǐng)域?qū)嵺`深化
各大芯片制造商除了在單純的研發(fā)層面需要更有針對性地進行技術(shù)攻堅之外,在整個芯片領(lǐng)域和產(chǎn)業(yè)的應用、行業(yè)化縱深發(fā)展等配套層面也積極快速進行探索和發(fā)展,推進應用更加“落地”,推動人工智能芯片產(chǎn)品更加實用化。2018年,人工智能芯片領(lǐng)域的重大進展之一體現(xiàn)在各大人工智能芯片制造商立足于解決實際問題,在人工智能領(lǐng)域的實踐正在不斷深化。
在2018年11月舉行的2018英特爾人工智能大會上,英特爾發(fā)布了英特爾神經(jīng)計算棒二代(英特爾ncs 2),利用該計算棒可以在網(wǎng)絡(luò)邊緣構(gòu)建更智能的人工智能算法和計算機視覺原型設(shè)備。英特爾ncs 2基于英特爾 movidius myriad x視覺處理單元(vpu),并得到英特爾 openvino工具包的支持,與上一代神經(jīng)計算棒相比性能更優(yōu),能夠以可負擔的成本加快深度神經(jīng)網(wǎng)絡(luò)推理應用的開發(fā)。英特爾ncs 2支持深度神經(jīng)網(wǎng)絡(luò)測試、調(diào)整和原型制作,可以幫助開發(fā)者進入實際應用的量產(chǎn)階段。2018年11月,英特爾牽頭的聯(lián)合研發(fā)團隊開發(fā)的野外智能相機搭載了movidius人工智能視覺處理芯片,可完成東北虎及有蹄類動物識別,以及人類識別(用于反盜獵)等多重識別任務(wù)。
2018年,雖然高通收購恩智浦以失敗結(jié)尾,但這筆收購案凸顯高通的意圖就是出自于拓展汽車芯片市場,智能汽車芯片的重要性也得以突顯。2018年8月,特斯拉宣布獨立開發(fā)的人工智能芯片已經(jīng)準備就緒。2018年11月,早就成為特斯拉、沃爾沃供應商的英偉達發(fā)布了drive agx xavier汽車級芯片。芯片的市場已經(jīng)由pc、移動互聯(lián)網(wǎng)時代開始走向“智能汽車”時代。
淺析人工智能芯片發(fā)展趨勢
作為人工智能技術(shù)的重要物理基礎(chǔ),人工智能芯片擁有巨大的產(chǎn)業(yè)價值和戰(zhàn)略地位。人工智能芯片研發(fā)的核心在于芯片架構(gòu)以及“感知-傳輸-處理/執(zhí)行”全流程邏輯的研發(fā):短期內(nèi)以異構(gòu)計算(多類型組合方式)為主,來加速各類應用算法的落地;中期側(cè)重發(fā)展自重構(gòu)、自學習、自適應的芯片,來支持算法的演進和類人(類腦)的自然智能;長期朝著“通用人工智能芯片”的方面發(fā)展?!巴ㄓ萌斯ぶ悄苄酒笔侵改軌蛑С趾图铀偻ㄓ萌斯ぶ悄苡嬎愕男酒?,能夠讓系統(tǒng)通過學習和訓練,準確高效地處理任意智能主體(例如人)能夠處理的任務(wù),其面臨通用性(算法和架構(gòu))和實現(xiàn)復雜度等兩個主要難點。
但從大趨勢來看,目前人工智能芯片發(fā)展尚處于的初級階段,無論是科研還是產(chǎn)業(yè)應用都有巨大的創(chuàng)新空間。目前主流人工智能芯片的核心主要是利用乘加計算加速陣列來實現(xiàn)對卷積神經(jīng)網(wǎng)絡(luò)中最主要的卷積運算的加速。這一代人工智能芯片主要有如下三個方面的問題:(1)芯片功耗問題,內(nèi)存大量訪問和乘加計算陣列的大量運算,造成人工智能芯片整體功耗的增加;(2)內(nèi)存帶寬問題,基于深度學習的人工智能計算所需數(shù)據(jù)量巨大,造成內(nèi)存帶寬成為整個系統(tǒng)的瓶頸,計算框架的高度并行與擴展成為亟待解決的關(guān)鍵問題;(3)性能和靈活度之間的平衡問題,深度學習對算力要求非常高,提升算力的最好方法是做硬件加速,但是同時深度學習算法的發(fā)展也是日新月異,新的算法可能在已經(jīng)固化的硬件加速器上無法得到很好的支持。
因此,可以預見下一代人工智能芯片將有如下發(fā)展趨勢:(1)計算框架的高度并行與擴展;(2)更高效的大卷積解構(gòu)與復用;(3)神經(jīng)網(wǎng)絡(luò)參數(shù)/計算位寬的迅速減少;(4)更多樣的存儲器定制設(shè)計;(5)更稀疏的大規(guī)模向量實現(xiàn);(6)復雜異構(gòu)環(huán)境下計算效率提升;(5)計算和存儲一體化。
人工智能是目前研究的焦點,而為人工智能提供最底層硬件技術(shù)支持的芯片行業(yè)更是處于漩渦之中。隨著人工智能相關(guān)技術(shù)在近年來的跨越式發(fā)展,人們越來越看好人工智能的前景及其潛在的爆發(fā)力,而能否發(fā)展出具有超高運算能力且符合市場的人工智能芯片成為人工智能平臺的關(guān)鍵一役。英偉達在目前的市場上保持著絕對的領(lǐng)先地位,但隨著包括谷歌、臉書、微軟、亞馬遜等眾多科技巨頭公司相繼加入決戰(zhàn),人工智能芯片領(lǐng)域未來的格局如何,仍然待解。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“機電號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of JDZJ Hao, which is a social media platform and only provides information storage services.
