Företag som försöker använda generativ AI i dag har ett stort problem. Om de använder en kommersiell plattform som Open AI måste de skicka data upp till molnet, vilket kan strida mot efterlevnadskrav och är dyrt. Om de laddar ner och kör en modell som Llama 2 lokalt behöver de veta mycket om hur man finjusterar den, hur man konfigurerar vektordatabaser för att mata den med live-data och hur man operationaliserar den.
VMwares nya partnerskap med Nvidia är tänkt att lösa dessa problem genom att erbjuda en helt integrerad, startklar plattform för generativ AI som företag kan köra på plats, i colocation-anläggningar eller i privata moln. Plattformen kommer att innehålla Llama 2 eller ett urval av andra stora språkmodeller, samt en vektordatabas för att mata in aktuell företagsinformation till LLM.
Produkten, VMware Private AI Foundation with Nvidia, kommer att innehålla generativ AI-programvara och accelererad databehandling från Nvidia, och den kommer att byggas på VMware Cloud Foundation och optimeras för AI.
Mer information hittar du hos vår amerikanska systersajt Network World.