AWS

AI presser frem en helt ny type infrastruktur, og AWS viser hvordan den fremtiden bygges

Under årets nest siste keynote på AWS re:Invent 2025 ble det tydelig at vi står midt i et tektonisk skifte. Ikke bare innen kunstig intelligens, men i hele den digitale grunnmuren som driver alt vi bygger, lagrer, kommuniserer og automatiserer. AI endrer ikke bare produktene våre, den endrer selve infrastrukturen de kjører på.

AI endrer skyens fundament, ikke bare dens funksjoner

To av toppsjefene i AWS, Peter DeSantis, Dave Brown og en rekke kunder, inkludert Apple, sto på scenen og beskrev et bilde som går langt dypere enn nye instanser og mer effektive datasentre. De prøvde ikke å selge et nytt produkt. De forklarte hvordan hele infrastrukturen må bygges om fordi AI introduserer helt nye krav til ytelse, tilgjengelighet, kostnader og skalerbarhet.

Det som var spesielt interessant i løpet av denne keynoten, var hvor lite de snakket om fremtidige teknologiske muligheter, og hvor mye de snakket om både begrensninger og fysiske realiteter. Utfordringer relatert til energibruk, minnebåndbredde, nettverksarkitektur og tidsforsinkelser er ikke lenger detaljer for spesielt interesserte, det er nå snakk om strategiske spørsmål som avgjør hvilke nasjoner, selskaper og sektorer som lykkes med AI.

For første gang på lenge opplevde jeg en keynote som ikke var “AI-show” på overflaten, men “AI-realitet” i dypet.

Fra virtualisering til spesialisering

En stor del av presentasjonen handlet om hvorfor AWS sin egen silisiumpolitikk er blitt så kritisk. Nitro-systemet var det første svaret, som beskrev en måte å flytte virtualisering og sikkerhet ned i egen maskinvare. Nå ser vi fortsettelsen i form av Graviton, og nå Graviton5. Disse er AWS sin respons på at generelle x86-prosessorer rett og slett ikke er optimale for verken kostnadene eller energibruken AI krever.

Graviton5 har 192 kjerner i én fysisk pakke, fem ganger så stort mellomlager og en arkitektur som løser reelle problemer Amazon har møtt i praksis, ikke bare teoretiske. Apple bekreftet at de har sett 30 prosent lavere kostnader og 40 prosent bedre ytelse ved å gå fra Java og x86 til Swift og ARM på Graviton.

Dette er ikke bare en ingeniørbragd, men et makroøkonomisk signal som handler om at energikrisen innen kunstig intelligens kommer til å definere det neste tiåret. Men også at prosessor-arkitektur blir geopolitikk og at skyleverandører i praksis blir maskinvareleverandører.

//Artikkelen fortsetter etter annonsen//

 

Infrastruktur uten synlige deler

AWS lanserte også en av de mest interessante modellendringene på lenge, i det de omtalte som Lambda Managed Instances. Dette betyr i praksis slutten på skillet mellom serverless og tradisjonelle servere. Du får ytelsen og fleksibiliteten til tradisjonelle servere, men uten driftsansvar, uten kapasitetsplanlegging og uten kompleksiteten som tradisjonelle miljøer krever.

For virksomheter betyr dette at de kan bruke kraftigere maskinvare uten å ansette folk som kan drifte den. For offentlig sektor betyr det mindre teknisk gjeld. Og for utviklere betyr det at AI-tjenester kan skaleres uten at de trenger å forstå datasenterarkitektur.

Sagt på enkelt norsk, betyr det at “serverless” blir nå et prinsipp, ikke en teknologi. 

Når hele verdens kunnskap blir søkbar på nytt

Et av de mest fremtidsrettede budskapene handlet om vektordata. AWS introduserte S3 Vectors og en multimodal embeddingsmodell som kan representere tekst, bilder, lyd, video og dokumenter i samme vektorrom. Det høres både komplisert og abstrakt ut, men implikasjonen er “enkel”. Det innebærer at all ustrukturert informasjon som bedrifter sitter på, alt fra møter, videoer, dokumenter, kundedialog, opplæring, forskning, nå kan plutselig knyttes sammen og søkes i som om det var strukturert.

Her snakker vi om: 

12Labs demonstrerte dette ved å koble flere år med AWS-keynotes sammen til et søkbart videounivers. De fant øyeblikk, temaer, uttrykk og konsepter, på tvers av visuelle og verbale spor. Det gir en smakebit på hvor kraftig vektorbasert infrastruktur blir når det skaleres.

Dette er ikke søk slik vi kjenner det. Det er digital hukommelse.

Jeg ser for meg selv hvordan plutselig hele mitt video-bibliotek kan bli søkbart, ned på når jeg for eksempel sto på en fjelltopp og smilte til kameraet, men bare der hvor det var hav i bakgrunnen (Les: Lofoten). 

//Artikkelen fortsetter etter annonsen//

 

Kampen om AI-økonomi og energi

Trainium3 var nok keynote-ens største løft. Ikke fordi chipen er “imponerende” på papiret, men fordi AWS adresserer et av de mest presserende problemene: AI er dyrt. Kostnadene øker. Energiforbruket øker. Og etter hvert som modellene vokser, løper vi rett inn i fysiske begrensninger. Det Trainium3 tilbyr var mildt sagt imponerende, om ikke banebrytende: 

Dette betyr at AI-økonomien beveger seg fra luksus til bærekraft. Det betyr at flere modeller kan trenes av flere organisasjoner, ikke bare av de få som har råd til tusenvis av GPU-er.

Og kanskje viktigst betyr det at AI ikke nødvendigvis må være ensbetydende med en energikrise. 

Real-time Visual Intelligence: En helt ny kategori av AI

Decart AI sto for keynote-ens mest spektakulære øyeblikk da de viste sanntidsgenerert video basert på kombinasjonen av LLM-resonnering, video-diffusjon og Trainium3. Alt ble generert live, på scenen, uten merkbar forsinkelse.

Her var jeg ekstra oppmerksom og rakk akkurat å få filmet et par sekunder av denne demonstrasjonen live på scenen: 

Abonner på YouTube-kanalen min nå

Det vi så, var ikke bare underholdning. Det var et blikk inn i en fremtid hvor video:

De neste årene kommer denne teknologien til å flytte seg fra scenedemoer til mobilapper, smartkameraer, AR-briller, bilskjermer og ikke minst innenfor robotikk.

//Artikkelen fortsetter etter annonsen//

 

Hva dette egentlig betyr i et større perspektiv

Når man sitter i en sal med flere tusen utviklere og teknologer, er det lett å tro at dette handler om bedre API-er og raskere maskinvare. Men sett utenfra, som teknolog og rådgiver, ser jeg noe annet.

Her ser jeg tre fundamentale utviklingstrekk:

Fremtidens AI bygges ikke av de som lager modellene, men av de som bygger grunnmuren

re:Invent 2025 viste med all tydelighet at AI ikke bare er et programvarefenomen. Det er et infrastrukturskifte. Et økonomisk skifte. Et energiskifte. Og i stor grad et geopolitisk skifte.

Det ble også tydelig at AWS ikke forsøker å vinne AI-kappløpet alene. De prøver å sørge for at resten av verden kan delta uten å være avhengig av gigantiske investeringer i GPU-infrastruktur.

Spørsmålet er ikke lenger hvem som bygger den beste modellen, men om hvem som bygger fundamentet alle modellene kommer til å stå på.

Og etter årets keynote virker det mer klart enn noen gang at kampen om AI-fremtiden starter langt under programvaren, helt nede i silisiumet.

 

Disclaimer: Jeg har for andre gang blitt invitert av AWS for å være med på hele re:invent-konferansen i Las Vegas. AWS har betalt for reise og opphold, men har ikke stilt noen krav til hva jeg skriver og hvordan jeg dekker konferansen.