De cloudunit van Amazon.com heeft woensdag gezegd dat het een samenwerking is aangegaan met de startup Hugging Face voor kunstmatige intelligentie om het eenvoudiger te maken om duizenden AI-modellen te draaien op de aangepaste computerchips van Amazon.

Hugging Face, dat een waarde van $4,5 miljard heeft, is een centrale hub geworden voor AI-onderzoekers en -ontwikkelaars om chatbots en andere AI-software te delen en wordt gesteund door onder andere Amazon, Alphabet's Google en Nvidia. Het is de belangrijkste plek voor ontwikkelaars om open-source AI-modellen te verkrijgen en eraan te sleutelen, zoals de Llama 3 van Meta Platforms.

Maar als ontwikkelaars eenmaal aan een open-source AI-model hebben gesleuteld, willen ze het model meestal gebruiken om een stuk software aan te drijven. Op woensdag zeiden Amazon en Hugging Face dat ze hadden samengewerkt om dit mogelijk te maken op een aangepaste Amazon Web Services (AWS) chip genaamd Inferentia2.

"Een ding dat erg belangrijk voor ons is, is efficiëntie - ervoor zorgen dat zoveel mogelijk mensen modellen kunnen uitvoeren en dat ze dat op de meest kosteneffectieve manier kunnen doen," zei Jeff Boudier, hoofd product en groei bij Hugging Face.

AWS hoopt op zijn beurt meer AI-ontwikkelaars te lokken om zijn clouddiensten te gebruiken voor het leveren van AI. Terwijl Nvidia de markt voor het trainen van modellen domineert, beweert AWS dat zijn chips deze getrainde modellen - een proces dat inference wordt genoemd - na verloop van tijd tegen lagere kosten kunnen uitvoeren.

"U traint deze modellen misschien één keer per maand. Maar u voert de inferentie misschien wel tienduizenden keren per uur uit. Dat is waar Inferentia2 echt schittert," zegt Matt Wood, die toezicht houdt op kunstmatige intelligentieproducten bij AWS. (Verslag door Stephen Nellis in San Francisco; Bewerking door Michael Perry)