Bộ phận điện toán đám mây của Amazon vào thứ Tư đã thông báo hợp tác với công ty khởi nghiệp trí tuệ nhân tạo Hugging Face, nhằm làm cho việc chạy hàng nghìn mô hình AI trên chip tính toán tùy chỉnh của Amazon trở nên dễ dàng hơn.
Hugging Face được định giá 4,5 tỷ USD, đã trở thành nền tảng cốt lõi để các nhà nghiên cứu và phát triển AI chia sẻ chatbot và phần mềm AI khác, với sự hỗ trợ từ các công ty như Amazon, Google của Alphabet và Nvidia. Các nhà phát triển chủ yếu sử dụng nền tảng này để truy cập và chỉnh sửa các mô hình AI mã nguồn mở, như Llama 3 của Meta Platforms.
Tuy nhiên, sau khi điều chỉnh các mô hình AI mã nguồn mở, các nhà phát triển thường mong muốn sử dụng chúng trong phần mềm thực tế. Vào thứ Tư, Amazon và Hugging Face đã công bố hợp tác; điều này cho phép các nhà phát triển thực hiện mục tiêu đó trên chip tùy chỉnh Inferentia2 của Amazon Web Services (AWS).
Jeff Boudier, Trưởng bộ phận sản phẩm và tăng trưởng của Hugging Face, cho biết: “Điều rất quan trọng đối với chúng tôi là hiệu quả - đảm bảo càng nhiều người có thể chạy các mô hình càng tốt và chạy theo cách hiệu quả về chi phí nhất có thể.”
Thông qua quan hệ đối tác này, AWS hy vọng sẽ thu hút thêm nhiều nhà phát triển AI sử dụng dịch vụ đám mây của mình để triển khai AI. Mặc dù Nvidia chiếm ưu thế trong thị trường huấn luyện mô hình, AWS cho biết các chip của họ có thể chạy các mô hình đã được huấn luyện với chi phí thấp hơn, tức là thực hiện suy luận.
Matt Wood, Trưởng bộ phận sản phẩm trí tuệ nhân tạo của AWS cho biết: “Bạn có thể huấn luyện các mô hình này mỗi tháng một lần, nhưng mỗi giờ bạn có thể thực hiện hàng nghìn thao tác suy luận. Đây chính là nơi mà Inferentia2 thực sự phát huy tác dụng.”