亚马逊的云计算部门周三宣布,与人工智能初创公司Hugging Face合作,使在亚马逊定制计算芯片上运行成千上万的AI模型变得更加容易。
Hugging Face估值45亿美元,已成为AI研究人员和开发人员共享聊天机器人和其他AI软件的核心平台,得到了亚马逊、Alphabet的谷歌和Nvidia等公司的支持。开发者主要在该平台上获取和修改开源AI模型,如Meta Platforms的Llama 3。
然而,开发者在调整了开源AI模型后,通常希望将其用于实际的软件。周三,亚马逊和Hugging Face宣布合作,使开发者可以在亚马逊网络服务(AWS)的定制芯片Inferentia2上实现这一目标。
Hugging Face产品和增长负责人Jeff Boudier表示:“对我们来说,非常重要的一点是效率——确保尽可能多的人能够运行模型,并且以最具成本效益的方式运行。”
AWS希望通过此次合作吸引更多AI开发者使用其云服务来交付AI。虽然Nvidia在训练模型的市场中占据主导地位,但AWS表示,其芯片能够以较低的成本运行这些已训练的模型,即进行推理。
AWS人工智能产品负责人Matt Wood说:“你可能每月训练一次这些模型,但你每小时可能对它们进行成千上万次的推理操作。这就是Inferentia2真正发挥作用的地方。”