【cnmo新聞】谷歌、蘋(píng)果、ibm、英特爾已經(jīng)建立了加速神經(jīng)網(wǎng)絡(luò)的神經(jīng)處理器,它們大多被部署為運(yùn)
【cnmo新聞】谷歌、蘋(píng)果、ibm、英特爾已經(jīng)建立了加速神經(jīng)網(wǎng)絡(luò)的神經(jīng)處理器,它們大多被部署為運(yùn)行ai模型的協(xié)同處理器。但隨著對(duì)智能應(yīng)用程序需求的增長(zhǎng),系統(tǒng)也將做出更多的調(diào)整。

人工智能
在計(jì)算機(jī)視覺(jué)的常用應(yīng)用中,移動(dòng)多幀高分辨率視頻強(qiáng)調(diào)了i/o子系統(tǒng)。目前,架構(gòu)師和計(jì)算機(jī)科學(xué)家仍在學(xué)習(xí)如何優(yōu)化數(shù)據(jù)結(jié)構(gòu)和數(shù)據(jù)表示方式。例如,medusa中所指出的,多端口dnn加速器和寬dram控制器接口的互連。每個(gè)端口都具有獨(dú)立的dram訪問(wèn)權(quán)限,因此,必須使用內(nèi)存互連才能將寬dram控制器接口互聯(lián)到大量窄讀寫(xiě)端口,并同時(shí)保持最大的帶寬效率。
當(dāng)dram帶寬跨dram端口均勻分區(qū)時(shí),dnn是最有效的。由于dram可以占到總能源消耗的90%,最小化內(nèi)存邏輯就可以為計(jì)算機(jī)節(jié)約成本了。內(nèi)存訪問(wèn)不是傳統(tǒng)工作負(fù)載和人工智能工作負(fù)載之間的唯一區(qū)別,但隨著人工智能應(yīng)用程序的復(fù)雜化,x86和arm將越來(lái)越不相關(guān)。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“機(jī)電號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of JDZJ Hao, which is a social media platform and only provides information storage services.
