(文/吕鑫燚)
AI芯片是人工智能产业链最重要的一环,被称作AI加速器或计算卡,主要在AI应用场景中负责大量运算。
自2017年五月份起各大厂商竞相发布AI芯片,经过三年的发展AI芯片不再局限于云端。自动驾驶、智能手机的AI需求愈发明显,各项产品也日渐丰富,AI芯片的差异化和提升性能也迎来了新局面。
AI芯片的低时延
和其他领域不同的是,AI芯片的发展并不是自主发展,而是应用场景的需要倒逼AI芯片进行发展。以自动驾驶为例,随着5G时代的到来,保证安全的前提下自动驾驶将朝着更智能更快的方向发展。这就对AI芯片提出了低时延高性能的要求。
2019年一起由无人驾驶的优步引发的事故,让大众对自动驾驶再次产生了怀疑。其实自动驾驶并不是一个新鲜的概念,但是真正实现自动驾驶需要5G引领。众多业内专家认为要想完全释放自动驾驶汽车技术,就必须大规模采用5G无线技术。诺基亚公司Jane Rygaard在采访中说:“我们需要研究信息在传感器到汽车ECU上的时间,并且ECU做出决策的时间,所有这些都必须比人类做出决定所需的时间短2毫秒。因此5G技术必不可少。”
应用场景迫切需要5G技术,5G技术也迫切需要云端的帮助。龙加智专注于在应用中关注低时延的AI芯片公司,一直在强调低时延在5G边缘计算和自动驾驶的重要性。龙加智ceo胡遇杰曾表示,对于自动驾驶领域晚一秒钟的后果截然不同。
Maja Systems公司首席技术官Joy Laskar博士介绍,未来的自动驾驶汽车将产生近2兆位的数据。“自动驾驶汽车一周的数据传输需要230天,这就是为什么我们需要更快的ASIC处理技术,”
由此可见低时延高性能已成为行业内的共识,胡遇杰指出,在ResNet50算法上和每秒运行7千张图像的相同条件下,DinoPlusAI的Trex延迟优化芯片比Nvidia Tesla V100芯片相比缩短了100倍的延迟;在自动驾驶的SSD Mobilenet V1模型下,Trex延迟优化芯片与Nvidia GeForce GTX Titan X芯片相比减少了63倍的延迟
龙加智芯片最与众不同的是,传统的人工智能处理器关注的视角是“性能和能效”,是二维的。而龙加智的为延迟优化的AI处理器则将“延迟”作为第三维引入到AI处理器设计视角中,使AI处理器设计技术从二维拓展到三维。而这具有革命性的技术将在云计算、5G 的边缘云以及自动驾驶等市场中具有非常广阔应用空间
低时延成为了龙加智在AI芯片领域的差异化方向,同时5G边缘计算又十分需要低时延,5G技术把原本需要的信息反馈时间缩短了百分之九十,时效性能有质的提高,商业应用性空前。端到端应用时延控制在10ms,降低了20倍超百亿美金的成本。
来源:企业供图
低时延高性能的商业和市场
自20个世纪60年代早期开始,CPU开始出现并使用在计算机工业中。现如今在人工智能深度学习领域中面对海量的数据处理。当用CPU执行AI算法时将花费大量的时间在数据的读取分析,目前的应用场景下传统CPU结构缺点明显。基于CPU的算力问题,GPU、ASIC、FPGA应运而生 。
然而芯片更注重综合指数,能耗、时延、成本等都要考虑。一块GPU的价格在6K到1W不等,面对同样的图形算法时一个AI芯片等同于10-20个GPU。降低成本带来的是商业应用性空前,潜在价值巨大,硬件成本降低的同时减小了硬件占用的空间,给设备整体比如汽车、无人机、便携计算机的其他功能空间带来了增容,千分之十秒的反馈速度商业市场前景无限,在提高了反馈速度的情况下,工业自动化、机器人等等过去无法实现的应用技术得到了关键支持,得以真正应用。
目前在AI芯片市场上,除亚马逊、微软、百度、阿里、腾讯等巨头外,也涌现出许多寒武纪、地平线等创业公司。在面对自动驾驶、无人机、5G边缘云方向的应用终端数量庞大,而且需求差异也较大,尚未形成一家独大的局面。根据腾讯研究院发布的《中美两国人工智能产业发展全面解读》,2017 年美国已有33家芯片新创公司,中国有14家。其中就包括在硅谷成立的龙加智。