Yuval Noah Harari

Hvem får (ikke) definere AI-fremtiden?

Bakgrunnen for denne teksten er en engasjert LinkedIn-post publisert 3. februar av teknolog og foredragsholder Elin Hauge, hvor hun går hardt ut mot Yuval Noah Hararis innlegg om kunstig intelligens under årets World Economic Forum i Davos. Harari blir avfeid som teknisk uvitende, fryktdrevet og ute av stand til å forstå hva AI faktisk er. I forsøket på å korrigere detaljene, risikerer vi å miste blikket for hvilken retning AI-utviklingen tar.

En teknisk korreksjon, og en større fortrengning

3. februar publiserte Elin Hauge et innlegg på LinkedIn som raskt skapte stort engasjement. Med tydelig frustrasjon beskrev hun Hararis tale som en sammenblanding av hype og frykt, løsrevet fra hvordan matematiske algoritmer og programvare faktisk fungerer. Hun pekte på at Harari er historiker, ikke teknolog, og at hans autoritet i AI-debatten i stor grad er et resultat av popularitet og «elite-endorsement», ikke respekt for fagfeller. 

Kommentarfeltet fyltes raskt opp av teknologer, forskere og ingeniører som støttet kritikken og avfeide Harari som irrelevant, useriøs eller i beste fall underholdende. Bare så det er klart, jeg er enig i at mye av kritikken er legitim. Dagens AI-systemer har (enn så lenge) ingen vilje, intensjon og bevissthet. De forstår ikke verden. De optimaliserer sannsynlighet. Når AI fremstilles som en selvstendig aktør med egne mål, skaper det naturlig nok forvirring. 

Det er viktig å korrigere feil. Problemet oppstår når korrigeringen blir så snever at den samtidig fungerer som en effektiv fortrengning av en langt mer ubehagelig diskusjon. 

Kortsiktig presisjon versus langsiktig retning

Når det er sagt opplever jeg at AI-debatten i dag preges i stor grad av et grunnleggende spenningsforhold som sjelden adresseres eksplisitt:

Teknologer har ofte helt rett i sine korreksjoner. Samtidig forteller historien oss at samfunnsomveltende teknologi sjelden forstås fullt ut gjennom sine tidlige tekniske begrensninger. Trykkpressen handlet ikke bare om bøker. Internett handlet ikke bare om informasjon. Sosiale medier handlet ikke bare om kommunikasjon, osv. 

Konsekvensene oppsto over tid, i samspillet mellom teknologi, makt, økonomi og menneskelig atferd. Og det er her Harari er mest av alt tydelig i sine advarsler. 

Her er jeg fristet til å sitere Roy Amaras, som allerede i 1978 slo fast at

vi har en tendens til å overvurdere effekten av en teknologi på kort sikt og undervurdere effekten på lang sikt.

//Artikkelen fortsetter etter annonsen//

 

Når beslutninger flytter inn i infrastrukturen

Midt i den opphetede debatten dukket det opp en kommentar fra Anette Mellbye som jeg mener fanget noe helt sentralt. Hun skrev at beslutningene ikke har forsvunnet, de har flyttet inn i infrastrukturen. Dette er et avgjørende perspektiv. 

AI tar ikke moralske valg (det er det for øvrig mange mennesker som heller ikke gjør, det vises blant annet i omsetningsveksten til Meta). Men AI implementerer mål. Den prioriterer, rangerer og filtrerer i en enorm skala. Når slike systemer bygges inn i plattformer, organisasjoner og offentlige tjenester, slutter vi gradvis å oppleve dem som valg. Det blir “bare slik ting fungerer”. Det som tidligere var menneskelige vurderinger, blir teknologiske standarder. 

Ansvar blir vanskeligere å plassere. Kontroll blir mer diffus. Dette skjer (ofte) uten onde intensjoner, men gjennom mange små, rasjonelle beslutninger, tatt over tid av ulike aktører. Nettopp derfor er det så vanskelig å gripe tak i.

Endringer vi ikke ser mens de skjer

I foredragene mine sier jeg ofte at endringer tar lengre tid enn vi tror, men kortere tid enn vi ser. Fra dag til dag opplever vi sjelden dramatiske sprang. Det er først når vi ser bakover at vi forstår hvor fundamentalt samfunnet og livene våre har endret seg.

Derfor er det verdt å stille et annet spørsmål enn om Harari har rett eller feil i 2026. Hvordan vil vi i 2040 se tilbake på advarslene som ble reist i år? Vil vi være fornøyde med at vi var teknisk presise, eller vil vi undre oss over hvorfor vi var så opptatt av å korrigere detaljer at vi overså retningen utviklingen tok?

Hvem har rett til å mene noe?

Mye av temperaturen i AI-debatten handler i realiteten om faggrenser og autoritet. Hvem har rett til å uttale seg? Historikere bes holde seg til historien. Filosofer til filosofien. Ingeniører til teknologien, osv. 

Men AI er ikke bare et teknisk fenomen. Det er et kulturelt, økonomisk og politisk system som griper inn i alle deler av samfunnet. Når vi diskvalifiserer alle som ikke er tekniske eksperter fra å delta i fremtidsdebatten om AI, snevrer vi inn samtalen på en måte som i praksis flytter makt. Verdidebatten overlates til dem som bygger systemene. Samfunnsanalysen til dem som optimaliserer effektivitet. Demokratisk styring til markedskrefter.

Det er ikke teknologisk nøytralitet, men teknokrati.

I et teknokrati er det ikke folkevalgte politikere, partier eller ideologier som primært styrer, men eksperter med faglig og teknisk kompetanse. Tanken er at komplekse samfunn bør styres av dem som faktisk forstår systemene, økonomer, ingeniører, forskere, teknologer, fremfor politikere som først og fremst er valgt på verdier, retorikk eller popularitet.

Det kan minne litt om Freedom Cities-prosjektet til Peter Thiel, som jeg har skrevet om i anledning av hva som kan være den egentlige bakgrunnen til at Donald Trump vil ta over Grønland.

//Artikkelen fortsetter etter annonsen//

 

Kontroll, avhengighet og menneskelig verdi

Forholdet vårt til teknologi handler ikke bare om nytte, men om kontroll og avhengighet. Dette berører også kjernen i det jeg har skrevet om i boken Mennesket vs Maskinen. Jo mer vi overlater beslutninger, vurderinger og prioriteringer til systemer vi ikke fullt ut forstår eller kontrollerer, desto mer avhengige blir vi av dem. Og desto vanskeligere blir det å trekke i nødbremsen.

Reguleringer, etiske rammeverk og politisk styring er derfor ikke bremseklosser for innovasjon. De er forutsetninger for en menneskevennlig teknologisk utvikling. Spørsmålet er ikke om vi skal bruke AI, men på hvilke premisser, med hvilke verdier, og under hvilken form for demokratisk kontroll.

Retningen betyr mer enn presisjonen

Yuval Noah Harari tar ofte feil i detaljer. Han forenkler, overdriver og provoserer. Men han peker på noe mange helst vil slippe å forholde seg til: at når makt flyttes inn i teknologi, flyttes den også bort fra demokratiske institusjoner hvis vi ikke aktivt gjør noe med det.

For eksponentielle teknologier er det sjelden presisjonen som avgjør fremtiden. Det er retningen. Og hvis vi først fullt ut forstår konsekvensene når vi ser dem i bakspeilet, er det allerede for sent å velge annerledes.

 

Bilde: Skjermdump fra YouTube-videoen hvor Yuval Noah Harari taler under årets WEF-konferanse