アマゾンのクラウドコンピューティング部門は水曜日に、人工知能スタートアップ企業のHugging Faceと提携し、アマゾンのカスタム計算チップ上で数千のAIモデルを実行するのをさらに容易にすると発表しました。
Hugging Faceは評価額が45億ドルであり、AI研究者と開発者がチャットボットや他のAIソフトウェアを共有する主要なプラットフォームに成長しました。アマゾン、AlphabetのGoogle、Nvidiaなどの企業から支持されています。開発者は主にプラットフォーム上でオープンソースのAIモデルを取得し、修正しています。例えば、Meta PlatformsのLlama 3があります。
しかし、開発者はオープンソースのAIモデルを調整した後、通常それを実際のソフトウェアで使用したいと考えます。水曜日、アマゾンとHugging Faceは、開発者がアマゾンウェブサービス(AWS)のカスタムチップInferentia2上でこれを実現するための協力を発表しました。
Hugging Faceの製品と成長責任者Jeff Boudier氏は、「効率は私たちにとって非常に重要なポイントです。できるだけ多くの人々がモデルを実行できるようにし、さらに最もコスト効率の良い方法で実行できるようにすることです」と述べました。
AWSは今回の提携を通じて、より多くのAI開発者を自社のクラウドサービスを使用してAIを提供するよう引きつけたいと考えています。Nvidiaはモデルをトレーニングする市場で支配的な地位を占めていますが、AWSはそのチップがこれらのトレーニング済みモデルをより低コストで実行できると述べています。
AWSの人工知能プロダクト責任者Matt Wood氏は、「これらのモデルを毎月トレーニングすることがあるかもしれませんが、毎時間何千回もの推論操作を行うことになるでしょう。これこそがInferentia2の真の力が発揮されるところです」と述べました。