当地时间周三,芯片公司英特尔,ARM和英伟达联合发布了一份所谓的人工智能通用交换格式的规范草案,目的是让机器处理人工智能的过程更快,更高效。
Intel,ARM,Nvidia在草案中推荐人工智能系统的8位FP8浮点处理格式他们表示,FP8浮点处理格式可能会优化硬件内存利用率,从而加速人工智能的发展这种格式同时适用于AI训练和推理,有助于开发更快更高效的AI系统
在开发人工智能系统时,数据科学家面临的关键问题不仅仅是收集大量数据来训练系统另外,需要选择一种格式来表示系统权重,这是人工智能从训练数据中学习并影响系统预测效果的重要因素Weight让GPT—3等人工智能系统从长句提示中自动生成一整段,也让DALL—E 2人工智能根据特定标题生成逼真的人像
人工智能系统权重常用的格式有半精度浮点FP16和单精度浮点FP32前者使用16位数据表示系统重量,而后者使用32位数据半精度浮点数和更低精度浮点数可以减少人工智能系统训练和运行所需的内存空间,同时可以加快计算速度,甚至可以减少占用的带宽资源和功耗但由于比单精度浮点数位数少,精度会降低
但是业内很多公司,包括Intel,ARM,Nvidia,都把8位FP8浮点处理格式作为自己的最佳选择英伟达产品营销总监Sasana Lassime Han在博客中指出,FP8浮点处理格式在计算机视觉和图像生成系统等用例中的精度与半精度浮点处理格式相当,并且明显得到了加速
英伟达,ARM和英特尔表示,他们将使FP8浮点处理格式成为一种开放标准,其他公司无需许可即可使用三家公司在白皮书中详细描述了FP8Lassime Nahan表示,这些规范将提交给技术标准化组织IEEE,看看FP8格式能否成为人工智能行业的通用标准
纳汉·拉西米说:我们相信,一种通用的交换格式将带来硬件和软件平台的快速进步,提高互操作性,从而推动人工智能计算的进步。
当然,三家公司之所以不遗余力地推动FP8格式成为通用交换格式,也是出于各自的研究考虑英伟达的GH100 Hopper架构已经支持FP8格式,英特尔的Gaudi2人工智能训练芯片组也支持FP8格式
但通用的FP8格式也将有利于竞争对手,如SambaNova,AMD,Groq,IBM,Graphcore和Cerebras,这些公司在开发人工智能系统时都尝试或采用了FP8格式人工系统开发商Graphcore的联合创始人兼首席技术官西蒙·诺尔斯在今年7月的一篇博文中写道,8位浮点数的出现在处理性能和效率方面给人工智能计算带来了巨大的优势诺尔斯还表示,这是行业确定一个单一开放标准的机会,这比采用多种格式相互竞争要好得多
。