아마존의 클라우드 컴퓨팅 부문은 수요일에 인공지능 스타트업인 Hugging Face와 협력하여 아마존의 맞춤형 컴퓨팅 칩에서 수천 개의 AI 모델을 실행하는 것을 더욱 간편하게 만들겠다고 발표했습니다.
Hugging Face는 45억 달러의 가치를 지니고 있으며, AI 연구원과 개발자가 챗봇 및 기타 AI 소프트웨어를 공유하는 주요 플랫폼으로 자리잡았습니다. 이 회사는 아마존, 알파벳의 구글 및 Nvidia 등으로부터 지원을 받고 있습니다. 개발자들은 주로 이 플랫폼에서 Meta Platforms의 Llama 3와 같은 오픈 소스 AI 모델을 사용하고 수정합니다.
그러나 개발자들은 오픈 소스 AI 모델을 조정한 후 이를 실제 소프트웨어에 적용하고자 합니다. 수요일, 아마존과 Hugging Face는 개발자가 아마존 웹 서비스(AWS)의 맞춤형 칩인 Inferentia2에서 이를 실현할 수 있도록 협력한다고 발표했습니다.
Hugging Face의 제품 및 성장 책임자인 Jeff Boudier는 "우리에게 매우 중요한 점은 효율성입니다. 가능한 한 많은 사람들이 모델을 실행할 수 있도록 하고, 가장 비용 효율적인 방식으로 실행할 수 있도록 하는 것입니다."라고 말했습니다.
AWS는 이번 협력을 통해 더 많은 AI 개발자가 자사의 클라우드 서비스를 사용하여 AI를 제공하도록 유도하고자 합니다. Nvidia가 모델 훈련 시장에서 지배적인 위치를 차지하고 있는 반면, AWS는 자사 칩이 훈련된 모델을 더 낮은 비용으로 실행할 수 있다고 밝히고 있습니다, 즉 추론을 수행하는 것입니다.
AWS 인공지능 제품 책임자인 Matt Wood는 "이 모델을 매달 한 번씩 훈련시킬 수도 있지만, 매시간 수천 번의 추론 작업을 수행할 수 있습니다. 이것이 바로 Inferentia2가 진정으로 효율을 발휘하는 부분입니다."라고 설명했습니다.