Svenska företag är väl positionerade för att ta vara på möjligheterna inom generativ AI, men samtidigt lite väl försiktiga. Så kan man sammanfatta omdömet från Tom Soderstrom som är global enterprise-strateg på AWS och har uppgiften att hjälpa företagsledningar att förstå innovation och digital transformation.
När CS träffar honom på AWS kontor i centrala Stockholm har han träffat en rad svenska kunder och det stora samtalsämnet är givet.
– När jag pratar med kunder nu, oavsett vad ämnet är, kommer det att komma in på generativ AI, säger Tom Soderstrom och utvecklar sina intryck av de svenska företagen:
– Jag generaliserar, men svenskar är väldigt välutbildade och de är väldigt måttfulla. De tenderar inte att hajpa lika mycket som vissa andra. Så när det närmar sig produktionsfas är allt mer sparsamt och det är mer sannolikt att det lyckas.
– Å andra sidan är jag inte säker på att de experimenterar tillräckligt. De borde experimentera snabbare. Och det är där Sverige kan hamna efter vissa andra. Så jag tror att ett svenskt företag som bestämmer sig för att prova generativ AI kommer att bli ett framgångsrikt företag.
Kanske är det ett omdöme som passar även för AWS, åtminstone på området generativ AI. För molnjätten var allt annat än först ut på banan i det AI-rally som drogs igång när Chat GPT lanserades i slutet av november förra året.
Redan i januari lanserade Microsoft tack vare sitt täta samarbete med Open AI den första versionen av Open AI på Azure. Och under en period var det många som undrade var AWS, klar marknadsledare i molnet, höll hus egentligen. Först i mitten av april – en eon av tid under en hajp – presenterades Amazon Bedrock, en tjänst som låter kunder bygga applikationer på en rad olika stor språkmodeller (LLM).
– AWS är till sitt dna byggt för att möjliggöra för utvecklare. Så det är väldigt tekniskt och det är mycket mindre marknadsföringsfokuserat. Så vi tenderar att vara lite tysta om saker tills vi verkligen ser att det finns där, säger Tom Soderstrom.
Lager på lager
AWS ser AI i tre lager: i det nedersta lagret finns de cpu- och lagringintensiva (och dyra) grundmodellerna. Amazon har sin egen LLM, Titan, men erbjuder också modeller från startups som Anthropic, Stability AI och AI21 Labs.
– Vi stöder andra stora språkmodeller eftersom vi ärligt talat inte vet vad som kommer att bli framgångsrikt. Det går så fort och vi är bara dag ett på den här långa resan. Vi är tre steg in i ett maratonlopp, säger Tom Soderstrom.
I nästa lager finns verktygen för utvecklare och data scientists som kanske inte är AI-experter men som vill använda tekniken för att bygga verktyg till sina företag och organisationer. Och på den översta nivån hamnar tjänsterna som kan användas av människor direkt som de är.
Lite (eller mycket) av allt alltså, och det var väl egentligen ingen som trott att AWS skulle landa i något annat.
– Det handlar om att ge företaget valfrihet, sammanfattar Tom Soderstrom strategin, samtidigt som han också lyfter fram säkerheten som en central aspekt.
– Säkerhet, integritet, etik – allt det är inbyggt i allt vi gör. Om det inte är säkert kommer det inte att bli framgångsrikt. Sättet vi tänker på detta är att alla data krypteras i vila, vilket innebär att ingen kan snoka i dem. Sedan flyttar vi de smarta algoritmerna till kundens data och den lämnar aldrig det virtuella privata molnet, så kunderna kan vara säkra på att det bara är deras data som används.
– Vi är också mycket noga med att inte använda deras data för att träna vår modell. För då kommer de att gå till konkurrenterna.
– Jag tror att det är en av anledningarna till att vi har tagit ett tag på oss att släppa saker som Bedrock, för att se till att vi kan dyka djupt och förstå alla dessa saker.
Tom Soderstrom är svensk men flyttade till USA redan som 19-åring och har en lång bakgrund inom Nasa innan han kom till AWS. När CS träffade honom för ett år sedan var generativ AI inte ett ämne som låg på agendan, men mycket har som bekant hänt sedan dess.
Så hur ser han, och AWS, på AI-hajpen? Och är den faktiska efterfrågan ute bland företag på samma nivå som hajpen? Tom Soderstrom konstaterar att hajp-cykeln känns igen från andra teknikgenombrott, oavsett om det handlar om internet eller tryckpressen.
– Det är verklig entusiasm, men också rädsla. Och rädslan är att det kommer att påverka människor. De kommer att förlora sina jobb. Det kommer att döda oss alla. Det blir överdrivet och folk glömmer att tänka på vart det är på väg framåt. Det är den hajpen vi är i nu.
– Alla vill veta mer om det. Så om styrelseordföranden frågar, vad gör vi med generativ AI? Då är fel svar: ”vad är generativ AI?” Det rätta svaret är att vi utforskar det för vår marknadsföring, för vår dagliga verksamhet och för översättning av olika språk. Det är där vi ser användningsområdena.
– Hajpen är större än vad folk kan göra med tekniken just nu. Men, och jag tror att det här är kontroversiellt, hajpen kan vara mindre än vad folk kommer att kunna göra med tekniken. Vi tror att generativ AI är en av de revolutioner som är lika stor som internet var.
För företagsledningar och cio:er är utmaningen nu att förstå vilken nivå man ska lägga sig på och hur man ska börja, enligt Tom Soderstrom som ger ett exempel på hur det kan låta.
– Vad gör vi med generativ AI? Låt oss bygga en egen språkmodell! Okej, det blir 15 miljoner dollar, är du intresserad av det? Nej.
– Jag tror att de håller på att försöka klura ut det.
Börja litet
Tom Soderstrom rekommenderar istället starkt att börja med att ta reda på vad man vill uppnå. Att vara målinriktad och fokusera på vad som faktiskt är vettigt är ett bättre sätt att få budget från styrelsen än att säga att man ska revolutionera världen.
Och till en cio är rådet att börja med att brainstorma. Tom Soderstrom tipsar om en enkel tankeövning han utvecklade under sin tid på Nasas Jet Propulsion Laboratory:
– Jag kom på ett koncept som kallas frågeodling som utgår från frågan ”vad önskar du att du visste?” Så jag frågade säkerhetschefen, vad önskar du att du visste? Jag önskar att jag visste om någon hackade oss. Hur skulle du veta det? De skulle kryptera data. Okej. Hur skulle de få ut det? De skulle stjäla det på port 440. Okej! Nu hade vi något vi kunde arbeta med och mäta.
– Så börja med frågan: vad önskar vi att vi visste eller vad önskar vi att vi kunde göra? Gör sedan ett riktat experiment med en liten grupp, en mycket liten grupp, ett pizzateam. Ett team som kan mättas med en pizza, eller två, men inte en stor.
– Och gör det snabbt, mycket snabbt. Fienden är tid och pengar. För mycket tid blir för mycket pengar. Eftersom dessa människor sugs upp av viktigare projekt så det måste gå snabbt, vara målinriktat och experimentellt. Använd resultatet för att informera dig om vad som är vettigt. Och skapa en demo som du kan visa för många människor, eftersom du kommer att få massor av idéer.
– Så tänk långsiktigt, men börja i liten skala och iterera och experimentera. Och belöna sedan de som experimenterar, vad som än händer. Skapa den energin, för alla vill leka med det här och cheferna vill prata om det här.
– Det handlar om att tänka igenom ett slutanvändarproblem, använda generativ AI för att lösa det och sedan berätta storyn. Storyn är, som vi lärde oss av Steve Jobs, tre punkter. I det här fallet, vad gjorde vi tidigare? Vad har vi gjort nu? Och vad blev resultatet?
– Jag tror att cio:erna kommer att bli mycket respekterade om de gör detta. Och prata inte om infrastruktur och servrar. Ingen vill höra talas om det på ledningsnivå. De vill höra om resultaten.