1
当人工智能加速芯片成为芯片行业重要发展方向后,新芯片形态、新架构设计层出不穷。初创公司试图以技术创新争取优势,竞争目标指向AI计算领域应用最广泛的CPU和GPU。
目前,英国初创公司Graphcore在这场AI芯片大战中占有突出位置,这家公司提出一种新的处理器架构IPU,即智能处理器,专门用于AI计算/机器学习。其IPU GC2芯片产品已经量产交付,用于各大云计算厂商的数据中心。推出芯片产品后,Graphcore还提供了相应的软件开发工具。
GC2由台积电代工,16纳米工艺下内含236亿个晶体管,Graphcore声明中称其是该规模晶体管数量中最复杂的芯片,具有1216个独立处理器核心和300MB的SRAM。IPU部分负载性能指标领先于GPU,如在自然语言处理方面的速度能够提升20%到50%;在图像分类方面,能够有6倍的吞吐量和更低时延;在一些金融模型方面训练速度能提高26倍以上。
Graphcore高级副总裁兼中国区总经理卢涛在近日接受界面新闻记者等媒体采访时称,Graphcore认为AI是一种全新的计算负载,底层以计算图作为表征,但传统上面向应用和网络的CPU以及面向图形和高性能计算的GPU,即传统处理器架构无法满足AI计算的需要,所以需要一种全新的处理器架构。而Graphcore IPU就是针对AI计算需求而设计的新架构,其设计愿景就是为了能在数据中心里加速AI计算,降低数据中心的整体成本。
AI计算大致分为两个层面,首先是对模型进行训练,整个过程可能耗时数天;之后是训练出的模型响应实际请求,做出推理。目前,英伟达旗下的GPU占据训练市场,多数推理任务则仍由传统的英特尔CPU承担。“我们期望IPU成为第三个选择。我们更加期望的是,IPU能够帮助大家应对一些在当前在GPU、CPU上表现不太好的、或者说是阻碍了大家创新的场景。”卢涛称。
去年11月,微软数据中心开始在Azure云计算服务上使用Graphcore芯片。此外,戴尔的新服务器也开始采用Graphcore芯片。Graphcore联合创始人兼CEO Nigel Toon表示,Graphcore芯片出货量已达到数万规模,用于上百家机构,如英国牛津大学、伦敦帝国理工学院和美国加州伯克利大学。
Graphcore称,在实际应用上,IPU在运行微软新冠肺炎影像分析算法SONIC时表现亮眼,据称能在30分钟内完成英伟达传统GPU需5个小时的训练工作量。在国内,Graphcore与阿里巴巴和百度进行合作,5月20日,Graphcore宣布成为百度深度学习框架“飞桨”合作伙伴。
卢涛表示,如果用户想访问Graphcore IPU系统,可以通过购买戴尔服务器或通过微软云来访问IPU资源。在国内,Graphcore和金山云在合作,即将上线针对中国开发者的云服务。
在如火如荼的AI计算市场上,英伟达凭借GPU最先把握住了机会,成为AI企业几乎不可或缺的芯片供应商。此后,芯片大客户们也更进一步,纷纷推出自研AI专用芯片,包括谷歌、亚马逊、华为和阿里等科技巨头也都在过去数年中发布了自研AI芯片。
初创公司同样看准机会,意图以创新架构实现超越,相关新产品百家齐放。除Graphcore以外,此前被英特尔收购的以色列初创公司Habana推出的Goya AI推理处理器和Gaudi AI训练处理器就获得市场青睐,以Gaudi为例,其内置RDMA以太网处理单元,数据吞吐量远超GPU系统。一些半导体公司还瞄准ARM指令集的低功耗特性,试图在云计算AI推理应用中替代传统英特尔CPU芯片,如Ampere。
Graphcore在风险资本的支持下于2016年在英国成立,已获得4.5亿美元的融资,去年估值就达到了17亿美元,今年年初估值19.5亿美元。其中的投资者既有像红杉资本这样的金融投资者,也有像戴尔、三星、微软等的战略投资者。Nigel Toon在接受CNBC采访时称,Graphcore上一财年营收约为1000万美元,未来将寻求上市。
从根本上看,AI芯片的市场将取决于AI应用的增长。大厂有互联网广告等天然场景,AI需求强,初创企业则需要四处寻路,寻求落地应用。卢涛判断,在未来,随着自然语言处理相关应用获得增长,会催生大量的新型算力需求,增长趋势可达到指数水平,市场需求尚看不到减弱趋势。
不过,卢涛同时看到,随着需求增长和大厂布局,AI计算领域已初现格局,Graphcore处于挑战者地位。“在首先全球来看GPU是大规模商用部署,其次是谷歌的TPU通过内部应用及TensorFlow生态占第二大规模。”他说,“IPU则位于第三,是批量量产的、可部署的平台。这是我们目前所处的位置。”