Hoppa till huvudinnehåll
Floating Chat Icon Title Floating Chat Icon Text Floating Chat Icon Text
2022-06-16

Här är AI-paketeringen alla kan använda

Många behöver AI, men tekniken kan vara både omständlig och kostsam att implementera. Istället för att bygga in dig i silos kan du dra nytta av AI som virtuell resurs i den VMware-miljö du är van vid, med full support för hela stacken.

Företag och verksamheter söker ständigt efter övergripande och enkla lösningar som kan implementeras på bred front. Att hitta rätt är inte alltid enkelt, speciellt inte när man ger sig ut på outforskade territorier som AI ofta är för organisationer. Genom att slå ihop sin kompetens i ett unikt samarbete kan Atea, NVIDIA och VMware presentera en lösning som kan hantera utmaningarna som kommer med den moderna it-infrastrukturen.

Emil Darrell, erbjudandeansvarig på Atea

– Vi ser stora organisationer som utvecklat sina AI-algoritmer på NVIDIAs lösningar, förklarar Emil Darrell som arbetar som erbjudandeansvarig på Atea. De påbörjade projekten för flera år sedan men nu kollar man på AI Enterprise för att managera AI-applikationerna i produktionsmiljöer. Paketeringen gör det lättare att få ut AI i verksamheten. Vi ser flera fall som detta.

Att AI är en nödvändighet för företag och myndigheter är knappast en nyhet. Det svåra för många har istället varit att hitta en balans där verksamheten kan hitta ett samspel med it-infrastrukturen.

– Tidigare blev mycket AI byggt i silos ute i verksamheterna, men vill man skala ut på ett snabbt och säkert sätt så behöver it rätt förutsättningar för att lyckas. Det är inte alltid som it är redo för möta verksamhetens krav på AI-förmågor, förklarar Fredrik Esplund, Account Executive på VMware.

Läs mer om NVIDIA, VMware och Ateas samarbete kring AI

Smidig och enkel applicering i stor skala

VMware vill tillsammans med konsultbolaget Atea driva på demokratiseringen av AI med hårdvara i form av grafikprocessorer (GPU) från NVIDIA i botten. Det hela ska ske med de ramverk som behövs för att träna AI-modellerna, och en plattform som gör att administratörer på ett enkelt och välbekant sätt kan provisionera ut AI-resurser till användare och utvecklare.

– Det blir lite mindre exotiskt, och man kan använda de VMware-miljöer man har idag. Det höjer nyttjandegraden och för ut styrkan med AI på bredden i organisationen, förklarar Fredrik Esplund.

Ytterligare en fördel är att hela den så kallade AI-stacken stöds av NVIDIA som en helhetslösning, vilket enligt Fredrik Esplund är viktigt för större organisationer.

NVIDIA och VMware tillhandahåller AI-system tillsammans med Atea, som ser en “dubbelvinst” i en bekant miljö utan speciallösningar. Det genererar i sin tur en “stor vinst för it-avdelningen”, menar Emil Darrell.

”Vi kan hjälpa till med alla delar, från workshops till att sätta upp ett färdigt system.”

– Vi kan hjälpa till med alla delar, från workshops till att sätta upp ett färdigt system. Vi hjälper även till ur ett datavetenskapligt perspektiv, och med legala frågor så kunden får kontroll över sin data, säger Emil Darrell.

Enklare AI-leverans till verksamheten

Rent tekniskt är NVIDIAs certifierade AI-lösning en paketering med NVIDIAs GPU:er i botten. Ovanpå ligger VMwares applikationsplattform som heter Tanzu, som bland annat innehåller orkestreringsmotorn Kubernetes och de verktyg man behöver för att hantera containerbaserade applikationer på ett professionellt sätt. På toppen ligger NVIDIAs ramverk och verktyg för att bygga avancerade AI-tillämpningar.

– Tanzu är väl integrerat med den övriga VMware-plattformen och sänker insteget till Kubernetes-världen. Det är ett härdat lösningspaket som kan konsumeras med full support för hela stacken. Jag tycker också det är viktigt att poängtera att Tanzu bygger på open source och inga märkligheter. Moderna containerbaserade applikationer byggda för Kubernetes hör hemma i Tanzu, säger Fredrik Esplund.

NVIDIA tillhandahåller två arkitekturer – Ampere och den senaste Hopper. Båda stödjer den så kallade MIG-tekniken som möjliggör att grafikkorten kan virtualiseras.

”Vi kan sänka tröskeln för kunderna att börja med AI.”

– Den stora vinsten vi ser från Atea med AI Enterprise är att vi kan erbjuda de verktyg som behövs för att göra AI-utveckling paketerat tillsammans med Tanzu. Poängen med AI Enterprise från Atea är de verktyg som behövs för att göra AI-utveckling paketerat med Tanzu. De flesta kör redan VMware idag, vilket är en stor fördel. Vi kan sänka tröskeln för kunderna att börja med AI, säger Emil Darrell.

Enligt Fredrik Esplund startar många sina AI-projekt i en publik molnplattform, vilket gör det enkelt att komma igång, men vill man skala upp användandet kan kostnaderna dra iväg. Genom att komplettera sin existerande VMware-plattform med GPU-resurser kan man bibehålla kostnadskontroll och compliance i sina AI-projekt.

Om VMware och NVIDIA står för den tekniska lösningen är Atea möjliggöraren för företag och organisationer. Emil Darrell säger att Atea hjälper till att skapa en dialog mellan utvecklare och it-avdelningen, något som i en förlängning utgör en brygga mellan olika delar av organisationen.

– Vi kan sätta upp en lösning och komma igång med utbildning, men man kan också testa hela sviten i en molntjänst. Det ger kunden en möjlighet att provköra lösningen och se hur den ser ut, förklarar Emil Darrell.

Läs mer om NVIDIA, VMware och Ateas samarbete kring AI

Stora ramverk, brett bibliotek

Det unika med AI-lösningen är hur GPU-baserade resurser kan virtualiseras och delas inom organisationen, precis som med klassisk virtualisering. De bästa grafikkorten är allt annat än billiga, men kan nyttjas mer kostnadseffektivt då alla som behöver dem kan dela på resursen. Prestandaförlusten som uppstår genom virtualiseringen är försumbar, menar Fredrik Esplund.

Med i paketet kommer även de största ramverken för olika typer av analyser och ett brett bibliotek med verktyg. Paketet är således praktiskt för en rad verksamheter, exempelvis högskolor som vill erbjuda sina forskare AI-verktyg på begäran.

– En kund körde först på CPU:er där en körning tog fyra timmar. Samma jobb på en instegs-GPU tog fem minuter för att man kan hantera parallellprocessering som gör jobbet mycket mer effektivt, förklarar Emil Darrell.