楠木軒

ISSCC技術創新看這裏:三星首創內嵌AI芯片HBM,谷歌雷達5米識人

由 司馬盼香 發佈於 科技

芯東西(ID:aichip001)

作者 | 温淑

編輯 | Panken

芯東西2月19日報道,目前,一年一度的國際固態電路會議(ISSCC 2021)正在進行中(2021年2月13日到22日),這是ISSCC會議首次以全線上形式舉辦。作為已有近70年曆史的集成電路設計領域盛會,ISSCC亦被眾多產學界玩家視為發佈和展示其領先芯片技術的權威舞台,本屆大會也不例外。

本屆會議上,IBM、三星等公司展示了其在AI芯片領域的最新進展;谷歌、德州儀器等公司分享各自在雷達芯片中使用的創新技術;英特爾、荷蘭代爾夫特理工大學等則展示其在量子芯片研發方面的最新嘗試……

芯東西收集並彙總本屆ISSCC期間,共計9家企業或機構在AI芯片、雷達芯片、量子芯片等技術領域中,發佈或展示的產品,分享各領域最前沿芯片技術玩家的 “絕技”。

ISSCC 2021期間芯片領域新進展彙總

一、AI芯片:產學界玩家齊現身,五款AI芯片競技

在ISSCC 2021會議上,IBM、三星兩家公司,南洋理工大學、哥倫比亞大學兩大學府的研究團隊,分別分享了各自在AI芯片領域的最新進展。

其中,IBM、三星分別從提高AI芯片能效和性能着手,兩大學府則分別着力提升AI芯片對圖像、聲音的識別能力。

1IBM:芯片能效比高過NVIDIA A100

IBM在ISSCC 2021大會上發表了據稱是“全球首款”採用7nm製程工藝的高能效、低精度訓練/推理AI芯片,該芯片集成四核心,面積為19.6平方毫米,可達到80%以上的訓練利用率和60%以上的推理利用率,而通常情況下,GPU的利用率在30%以下。

相比同樣採用7nm製程工藝的NVIDIA A100 GPU,IBM新款AI芯片具備能效優勢。具體來説,NVIDIA A100 GPU在int4精度下的能效比為3.12TOPS/W;而IBM新款AI芯片在同等精度下的能效比為8.9TOPS/W。

這背後,IBM為其新款AI芯片採用了超低精度混合8位浮點格式(HFP8,hybrid FP8)。這是IBM於2019年發佈的一種高度優化設計,允許AI芯片在低精度下完成訓練任務和不同AI模型的推理任務,同時避免質量損失。

此外,IBM新款高能效AI芯片添加了電源管理功能,可減緩芯片計算過程中的功率消耗。

IBM新款高能效AI芯片示意圖(圖源:IBM)

2、三星:發佈業界首款內嵌AI芯片的高帶寬內存

在ISSCC 2021上,三星發佈了一款高帶寬內存處理器(HBM-PIM,high-bandwidth memory, processing-in-memory),這是業界首款內嵌AI芯片的高帶寬內存,可用於加速數據中心、高性能計算應用、人工智能應用。

三星指出,當他們用現有的HBM2 Aquabolt系統測試新技術時,發現系統性能翻了一番、能源消耗降低了70%。

目前,三星還在與AI解決方案合作伙伴對HBM-PIM技術進行測試,並期待在2021年上半年看到對HBM-PIM技術的測試結果。

原理方面,該處理器集成了一個以300MHz頻率運行的PCU(Program Control Unit,程序控制部件)。該PCU由主機CPU採用常規內存命令控制,可以直接在DRAM單元中執行FP6運算。

此外,當系統運行的應用程序不是為HBM-PIM編寫的時候,HBM-PIM可以作為常規RAM運行。

3、三星:5nmAI芯片跑CNN模型能效比達13.6TOPS/W

除發佈高帶寬內存處理器外,三星還分享了其5nm三核心AI芯片的技術細節,該芯片面積為5.46平方毫米,額定電壓在550~900mV之間,時鐘頻率在332MHz~1.2GHz之間。

性能方面,在相當於多線程CPU操作的吞吐量優先級模式下,該芯片在332MHz下的每秒推理數為194;在1.196GHz下,該芯片的每秒推理數為623。

能效方面,在0.6V電壓下,該芯片對CNN模型Inception-V3的運行結果顯示,其能耗為每焦耳的推理數為1190,能效比為13.6TOPS/W 。

據三星方面分享,其5nm三核心AI芯片的每個核心中,都集成了2個子核心(卷積引擎)、1個矢量處理器單元,以及一兆字節的暫存器。其中,每個子核心都具備權重–特徵映射(weight-feature map)。每個週期中,該芯片可以執行16維向量的64個點積。

4、南洋理工大學&哥倫比亞大學:分享動作/聲音識別芯片絕技

新加坡南洋理工大學和美國哥倫比亞大學在ISSCC 2021會議上展示的芯片均採用65nm製程。

其中,南洋理工大學分享了一款實時手勢識別芯片,該芯片適用於可穿戴和物聯網設備場景。這款芯片採用65nm製程,面積為1.5平方毫米,可用於識別24種動態手勢,平均準確率為92.6%。在0.6V電壓下,功率為184μW。

哥倫比亞大學團隊則分享了一款噪聲識別芯片。據哥倫比亞大學分享的數據,在570nW功率下,該款芯片解決方案在5~20dB的信噪比範圍內,對4種不同噪聲類型的識別精度可達到89~94%。

二、雷達芯片:谷歌/德州儀器分別揭秘手機/車用雷達技術細節

在雷達芯片領域,谷歌和德州儀器的演講者分別現身進行技術講解。

谷歌首次揭秘搭載於Pixel 4手機的“Soli”雷達芯片技術細節;德州儀器則分享了其車用雷達芯片、工業用雷達芯片的獨特設計。

1、谷歌:揭開手機雷達芯片5米“識人秘訣

谷歌的“Soli”雷達芯片搭載於Pixel 4手機中,可用於識別手機前方5米範圍內的人類手勢,並將距離誤差控制在800mm內、將角度誤差控制在80度範圍內。

該芯片採用英飛凌公司的0.13μm製程BiCMOS工藝製造,1.8V下的峯值功率小於400mW。

據谷歌分享,“Soli”雷達芯片由一個發射通道和三個接受通道組成。每個通道均在5*6mm封裝的頂部封裝共振貼片天線,天線體積小到可以嵌入手機面板。

此外,共振貼片天線被切割到芯片4層金屬層封裝的頂層,並在下層中有饋線(feeder)。數據顯示,“Soli”芯片的收發隔離度可以達到20dB以上。

谷歌“Soli”雷達芯片天線示意圖(圖中左部)

2、德州儀器:兩款45nm雷達芯片的架構秘訣

德州儀器在ISSCC 2021大會上分享了兩款45nm雷達芯片的技術細節,兩款芯片均採用覆晶技術封裝,具備9層金屬層。

其中一款用於76~81GHz頻段下的FMCW汽車雷達;另一款採用封裝集成天線,適用於60GHz頻率下的工業傳感。

據德州儀器在ISSCC大會上分享,適用於60GHz頻率下工業傳感的雷達芯片採用了一種“無模型芯片級倒裝芯片封裝(mould-less under-mount chip-scale flip-chip package)”。

該芯片中,天線安裝於15×15mm球柵陣列封裝(BGA)和60GHz死區的底部。發射天線和接收天線均為凹型(cavity-backed)的“E”型貼片。

三、量子芯片:英特爾22nm低温CMOS可驅動16個自旋量子比特

放眼整個行業,量子芯片發展尚處於初級階段。但是,量子計算強大的並行運算能力,吸引着眾多玩家在這個新興領域進行不輟探索。

本屆ISSCC大會上,英特爾、代爾夫特理工大學、洛桑聯邦理工學院和劍橋日立,分享了他們在量子芯片設計方面的心得。

1、英特爾:展示可驅動16量子比特的22nm量子芯片

英特爾展示的量子芯片採用22nm FinFET工藝製造,可在4K温度下運行,實現了最多對128個量子比特(qubit)的控制。

該芯片與一個被冷卻到20mK温度下的自旋量子比特相鄰。為增加量子芯片的靈活性,英特爾芯片設計人員還在該芯片上增加了一個微控制器。

該芯片具備量子比特讀出(Qubit Readout)和多門控脈衝(Multigate Pulsing)兩大功能。

通過多頻率複用,該芯片可在一條射頻線路上驅動多達16個自旋量子比特,並同時讀取6個量子比特的狀態和控制22個門電位。通過同時控制多個門電位,該芯片可有效地進行量子比特讀取、實現多個量子比特的糾纏和操作。

英特爾量子芯片示意圖(圖片右部)

2、代爾夫特理工大學&洛桑聯邦理工學院等:分享量子計算低温CMOS技術新進展

來自荷蘭代爾夫特理工大學的研究團隊分享了兩項量子計算低温CMOS技術。

其中,一款低温CMOS在4.2K的運行温度下,增益為58dB、噪聲係數為0.6dB;一款模擬數字轉換器能以36.2dB SNDR、低於0.5mW/量子比特的功耗讀取多個量子比特。

瑞士洛桑聯邦理工學院和劍橋日立分享了他們在低温CMOS領域的一項聯合研究,即一款採用40nm製程標準CMOS工藝製造的量子芯片。

該芯片在5~6.5GHz操作頻率下增益為70dB、噪聲係數為0.55dB,可讀取70個量子比特,能耗為1.5mW/量子比特。

結語:9大技術彰顯芯片設計風向標

作為已有近70年曆史的集成電路設計領域頂會,ISSCC會議彙集了各領域芯片設計玩家的最新技術突破與探索。

可以看到,在AI芯片領域,除了不斷提升芯片算力以外,優化能效比日益為芯片設計玩家所重視。此外,物聯網應用加速落地與雷達芯片技術升級相互促進、產學界對量子芯片技術的探索亦未停歇。

此外,除了上述提及的與會玩家,還有其他玩家展示了其產品的最新應用情況。比如,NVIDIA、百度分別攜A100 GPU、百度崑崙1通用AI處理器線上亮相。

來源:Electronics Weekly、IBM、三星