即便是面對新冠病毒的大流行,市場對人工智能的需求仍然十分強勁,無論是用于加速新冠病毒的研究,還是用于優(yōu)化領(lǐng)先云服務(wù)所依賴的推薦系統(tǒng)。
這一點再明顯不過了——特別是半導(dǎo)體巨頭英特爾和英偉達最近都大力投資了下一代人工智能能力。其中,英偉達推出了足以改變市場游戲規(guī)則的數(shù)據(jù)中心GPU——A100,而英特爾也正在研究如何在整個產(chǎn)品組合中注入AI能力,同時展開大膽的收購,例如去年斥資20億美元受過了Habana Labs。
英特爾收購的Habana Labs,是一家開發(fā)用于訓(xùn)練和推理的高性能芯片的初創(chuàng)公司。這次收購表明,AI芯片仍然是一個炙手可熱的領(lǐng)域,一些新興公司試圖打造能夠基于硬件優(yōu)化工作負載的新方法。
對此,我們根據(jù)眾AI公司所取得的里程碑事件(包括融資輪次、產(chǎn)品發(fā)布或者性能記錄),羅列了今年最熱門的這10家AI芯片初創(chuàng)公司:
1、Blaize
CEO:Dinakar Munagala
Blaize表示,它的Graph Streaming Processor是首個可以在單一系統(tǒng)中同時運行多個人工智能模型和工作流的處理器。這家位于美國加州埃爾多拉多的初創(chuàng)公司,于去年秋天走出“隱身模式”,在今年舉行的CES 2020上首次展示自己的計算架構(gòu),并從投資者那里獲得了8700萬美元的投資。Blaize主要針對汽車和智能視覺等場景,其中,Graph Streaming Processor處理器克服了AI處理成本和尺寸方面的障礙,效率是現(xiàn)有產(chǎn)品的10到100倍。
2、Cerebras Systems
CEO:Andrew Feldman
Cerebras Systems表示,它的Wafer Scale Engine處理器是有史以來尺寸最大的芯片,包括1.2萬億個晶體管并封裝了40萬個計算核心。
Cerebras Systems在去年秋天舉行的Supercomputing 2019上發(fā)布了該處理器,同期發(fā)布的還有搭載了該處理器的CS-1系統(tǒng)。這家位于美國加州洛斯拉托斯的初創(chuàng)公司稱,Wafer Scale Engine是“全球最快的AI超級計算機”。此后Cerebras Systems贏得了多個重要的客戶,CS-1系統(tǒng)被美國能源部阿貢國家實驗室和美國國家科學(xué)基金會匹茲堡超級計算中心所采用。
3、Graphcore
CEO:Nigel Toon
Graphcore稱,自己的Intelligence Processing Unit(IPU)芯片是首款專為機器智能設(shè)計的處理器。Graphcore表示,IPU與其他處理器不同,它可以在芯片內(nèi)部運行一整個機器學(xué)習(xí)模型。這家位于英國布里斯托爾的初創(chuàng)公司,于今年2月宣布獲得了來自投資者的1.5億美元融資。幾個月后Graphcore表示,在與微軟和戴爾的合作下,Graphcore已經(jīng)出貨了“數(shù)萬”顆處理器,其中戴爾在去年發(fā)布了配備16個Graphcore IPU處理器的Dell DSS8440。
4、Groq
CEO:Jonathan Ross
Groq表示,它的Tensor Streaming Processor(TSP)處理器可提供“無與倫比的敏捷性”,避免了傳統(tǒng)GPU需要在最高響應(yīng)速度和最高性能之間折衷的問題。這家位于美國加州山景城的初創(chuàng)公司,于去年秋天首次發(fā)布TSP芯片,并表示,Groq是第一家在單個芯片上實現(xiàn)1 petaop性能的公司。此后,Groq的TSP架構(gòu)通過Nimbix Cloud提供,用于按需付費處理機器學(xué)習(xí)任務(wù)。今年1月份Groq表示,TSP在用于圖像分類的ResNet-50 v2推理基準測試中擊敗了其他商用神經(jīng)網(wǎng)絡(luò)架構(gòu)。
5、Hailo
CEO:Orr Danon
Hailo稱,它的Hailo-8深度學(xué)習(xí)芯片可在邊緣提供數(shù)據(jù)中心級性能,同時在尺寸、性能和功耗方面擊敗競爭對手的邊緣處理器。這家位于以色列特拉維夫的初創(chuàng)公司,于今年早些時候宣布,已經(jīng)從瑞士制造跨國公司ABB的企業(yè)風(fēng)險投資機構(gòu)ABB Technology Ventures,以及日本IT巨頭NEC公司那里獲得了6000萬美元B輪融資。Hailo表示,Hailo-8以結(jié)構(gòu)為驅(qū)動的Data Flow架構(gòu)結(jié)合了高性能、低功耗和最小延遲等優(yōu)點,可以用于智能攝像頭、智能手機、自動駕駛汽車等邊緣設(shè)備,提供每秒高達26 TB的性能。
6、Kneron
CEO:Albert Liu
Kneron為邊緣設(shè)備開發(fā)的人工智能芯片,可以實時適配音頻和視覺識別應(yīng)用。這家位于美國加州圣地亞哥的初創(chuàng)公司,于今年1月宣布,在A輪融資中獲得了來自Horizon Ventures、Sequoia、Alibaba、Qualcomm等投資方的4000萬美元資金,讓總?cè)谫Y金額達到7300萬美元。Kneron開發(fā)的KL520是一種片上系統(tǒng),將2個Arm Cortex M4 CPU與Kneron的神經(jīng)處理單元相結(jié)合,可以在智能家居設(shè)備等低功耗設(shè)備中進行高性能的推理任務(wù)。此外,Kneron正在使用最近這輪的融資資金開發(fā)第二代SoC KL720,并實現(xiàn)商業(yè)化。KL720預(yù)計將于今年夏天開始向客戶提供樣品。
7、Lightelligence
CEO:Yichen Shen
Lightelligence正在利用光學(xué)技術(shù)打造人工智能芯片。據(jù)報道,Lightelligence在美國和中國都有業(yè)務(wù),今年早些時候Lightelligence從Matrix Partners China和CICC那里獲得了2600萬美元的A輪融資。Lightelligence的AI芯片采用了集成光子學(xué)技術(shù),利用光學(xué)的方式類似于集成電路處理和傳輸電子信號的方式。Lightelligence表示,它的光學(xué)芯片與傳統(tǒng)的芯片架構(gòu)相比,可以提供更高的性能、更低的延遲和更低的功耗。
8、SambaNova Systems
CEO:Rodrigo Liang
雖然SambaNova Systems并非唯一一家同時致力于硬件和軟件以推動人工智能工作負載,但它表示,自己集成的硬件和軟件產(chǎn)品因為可以重新配置的數(shù)據(jù)流架構(gòu)而在一眾公司中脫穎而出。這家位于美國加州帕洛阿爾托的初創(chuàng)公司表示,這種架構(gòu)讓應(yīng)用能夠推動硬件優(yōu)化的方式,從而加快數(shù)據(jù)中心和邊緣性能。今年2月,SambaNova Systems宣布從Intel Capital,BlackRock和其他投資者那里獲得了2.5億美元的C輪融資,將用于進一步加快軟件功能的開發(fā)。
9、SiMa.ai
CEO:Krishna Rangasayee
SiMa.ai表示,它的Machine Learning System-on-Chip(MLSoC)是首款將高性能、低功耗和硬件安全結(jié)合在一起的機器學(xué)習(xí)推理芯片。這家位于美國加州圣何塞的初創(chuàng)公司表示,這款SoC是環(huán)保且高效的,每瓦每秒發(fā)送幀的速度是競爭產(chǎn)品的30倍。今年5月,SiMa.ai宣布在由Dell Technologies Capital領(lǐng)投的A輪融資中獲得3000萬美元資金,將用于加快生產(chǎn)和客戶交付。
10、Syntiant
CEO:Kurt Busch
Syntiant正在開發(fā)專用于邊緣語音應(yīng)用的人工智能芯片。這家位于美國加州爾灣的初創(chuàng)公司從今年年初開始在全球范圍銷售它的Neural Decision Processors(NDP)處理器,預(yù)計第一批DFP嵌入式消費級產(chǎn)品將在7月之前上市。Syntiant的NDP芯片可以在各種電池供電的設(shè)備(從耳機、筆記本電腦,到手機和智能音箱)中為語音和其他傳感器應(yīng)用提供永遠在線的深度學(xué)習(xí)處理。Syntiant表示,NDP100和NDP101芯片與低功耗微控制器單元解決方案相比,功耗不到140微瓦,效率高200倍,吞吐量高20倍。
好文章,需要你的鼓勵
浙江大學(xué)團隊提出動態(tài)專家搜索方法,讓AI能根據(jù)不同問題靈活調(diào)整內(nèi)部專家配置。該方法在數(shù)學(xué)、編程等任務(wù)上顯著提升推理準確率,且不增加計算成本。研究發(fā)現(xiàn)不同類型問題偏愛不同專家配置,為AI推理優(yōu)化開辟新路徑。
清華大學(xué)研究團隊提出SIRI方法,通過"壓縮-擴張"交替訓(xùn)練策略,成功解決了大型推理模型"話多且準確率低"的問題。實驗顯示,該方法在數(shù)學(xué)競賽題上將模型準確率提升43.2%的同時,輸出長度減少46.9%,真正實現(xiàn)了效率與性能的雙重優(yōu)化,為AI模型訓(xùn)練提供了新思路。
南洋理工大學(xué)與騰訊聯(lián)合研究團隊開發(fā)出Rolling Forcing技術(shù),實現(xiàn)AI視頻實時流式生成的重大突破。該技術(shù)通過滾動窗口聯(lián)合去噪、注意力錨點機制和高效訓(xùn)練算法三項創(chuàng)新,解決了長視頻生成中的錯誤累積問題,可在單GPU上以16fps速度生成多分鐘高質(zhì)量視頻,延遲僅0.76秒,質(zhì)量漂移指標從傳統(tǒng)方法的1.66降至0.01,為交互式媒體和內(nèi)容創(chuàng)作開辟新可能。
華中科技大學(xué)研究團隊發(fā)現(xiàn),通過讓AI模型學(xué)習(xí)解決幾何問題,能夠顯著提升其空間理解能力。他們構(gòu)建了包含約30000個幾何題目的Euclid30K數(shù)據(jù)集,使用強化學(xué)習(xí)方法訓(xùn)練多個AI模型。實驗結(jié)果顯示,幾何訓(xùn)練在四個空間智能測試基準上都帶來顯著提升,其中最佳模型達到49.6%準確率,超越此前最好成績。這項研究揭示了基礎(chǔ)幾何知識對培養(yǎng)AI空間智能的重要價值。