teknologitrender

Tekoligarkene og kampen om vår emosjonelle infrastruktur

I artikkelen «Det er farlig å overlate følelsene våre til tekoligarkenes algoritmer» tok jeg til orde for at kunstig intelligens kan være en livline i krise, men samtidig representere en ny og urovekkende maktkonsentrasjon. Denne gangen går jeg dypere inn i hva som står på spill når emosjonell støtte blir en digital tjeneste eid av globale teknologigiganter. For det handler ikke bare om mental helse, men om hvem som kontrollerer den infrastrukturen som former våre tanker, følelser og i siste instans vårt demokrati.

Fra personlig erfaring til strukturell bekymring

Om du har har fulgt med hva jeg har skrevet og snakket om i løpet av de siste to årene, er sannsynligheten stor for at du har fått med deg at jeg brukte AI som samtalepartner i en av de mest krevende periodene i mitt liv. Den erfaringen har jeg vært åpen om. Den hjalp meg med å strukturere kaos, regulere tankekjør og finne retning da systemet rundt meg ikke hadde kapasitet. Det ville være uærlig å underslå hvor viktig den støtten var.

Men nettopp fordi jeg vet hvor kraftfull teknologien kan være på individnivå, kjenner jeg også på et større ansvar for å analysere hva som skjer når denne typen emosjonell støtte skaleres og integreres i globale plattformer.

I boken Tilkoblet og til stede skrev jeg om behovet for å ta kontroll over teknologien før den tar kontroll over oss. I Mennesket vs Maskinen gikk jeg enda lenger og stilte spørsmål ved hva som skjer når stadig flere menneskelige funksjoner automatiseres. Det jeg ser nå, er at også den emosjonelle infrastrukturen er i ferd med å digitaliseres.

//Artikkelen fortsetter etter annonsen//

 

Følelser som infrastruktur

Når emosjonell støtte blir en digital tjeneste, blir den også en del av en digital infrastruktur. Infrastruktur er aldri nøytral. Den eies, forvaltes og styres av noen. I dag eies den i hovedsak av noen få globale teknologiselskaper med en dokumentert historikk der vekst og annonseinntekter har veid tyngre enn hensynet til sannhet, tillit og demokratisk stabilitet. Og vår egen mentale helse. 

De siste ti årene har vist oss hvordan algoritmer kan forsterke polarisering, spre desinformasjon og optimalisere for avhengighet. Interne dokumenter fra Meta, rettssaker i USA og omfattende journalistisk arbeid har avdekket hvordan barn og unges psykiske helse ble underordnet målet om økt engasjement. Dette er ikke retorikk, men empirisk dokumenterte forhold. Når de samme aktørene nå beveger seg inn i feltet for emosjonell støtte gjennom AI samtalepartnere, er det naturlig å stille langt strengere krav enn vi har gjort tidligere.

Fra datapunkt til psykologisk makt

Når vi deler våre innerste tanker med en AI, skaper vi mer enn tekst. Vi skaper mønstre, psykologiske profiler og prediktive signaler. I en økonomi der oppmerksomhet allerede er valuta, vil emosjonell innsikt være neste nivå av kommersiell verdi. Forskning innen atferdsøkonomi og prediktiv analyse viser at detaljerte psykologiske profiler øker treffsikkerheten i påvirkning dramatisk. Cambridge Analytica skandalen demonstrerte hvordan data om personlighet og sårbarhet kan brukes til politisk påvirkning. Når AI systemer får tilgang til direkte emosjonell regulering, flyttes maktbalansen ytterligere.

Dette handler ikke lenger bare om plattformer, men om kontroll over psykologisk infrastruktur.

Risikoen for gradvis irrelevans

I Mennesket vs Maskinen drøftet jeg hvordan automatisering kan gjøre deler av menneskelig kompetanse overflødig. I dag ser vi at også refleksjon, motivasjon og emosjonell strukturering kan håndteres av algoritmer.

Overflødighet skjer sjelden gjennom dramatisk utslettelse. Den skjer gjennom gradvis irrelevans. Når beslutninger, analyser og regulering kan gjøres raskere og mer effektivt av maskiner, reduseres vår rolle til tilskuere eller brukere. Dersom vi i tillegg overlater våre emosjonelle kompass til de samme systemene, svekkes også vår indre motstandskraft.

Ledende forskere innen AI-sikkerhet har advart mot utviklingen av stadig mer autonome systemer uten tilstrekkelig demokratisk kontroll. Når denne teknologiske utviklingen kombineres med ekstrem maktkonsentrasjon hos noen få teknologimilliardærer, står vi overfor en situasjon uten historisk parallell.

//Artikkelen fortsetter etter annonsen//

 

Samfunn brytes ned innenfra

Samfunn kollapser sjelden kun på grunn av ytre press. De svekkes innenfra gjennom redusert tillit, fragmentert offentlighet og lavere evne til kollektiv handling. Når algoritmer påvirker hva vi tror, hvem vi stoler på og hvordan vi regulerer følelsene våre, kan den sosiale sammenhengskraften gradvis forvitre.

Denne utviklingen skjer ikke dramatisk, men gjennom kontinuerlig optimalisering. Når sannhet relativiseres og offentlig samtale polariseres, samtidig som individer søker emosjonell støtte i private digitale rom fremfor fysiske fellesskap, kan resultatet bli et samfunn som er mindre robust og mer fragmentert.

Det gjør oss ikke fysisk utslettet, men politisk og sosialt svekket.

Hva bør gjøres

Jeg mener ikke at løsningen er å avvise teknologien. Tvert imot. Kunstig intelligens kan være et kraftfullt supplement i psykisk førstelinjestøtte. Men infrastrukturen må forankres demokratisk.

Europa har tatt viktige steg gjennom AI-forordningen, men regulering må også omfatte emosjonell databruk og manipulasjonsrisiko. Teknologien må forbli et verktøy, ikke en styringsmekanisme.

Et valg om retning

Teknologien i seg selv er ikke fienden. Den kan bidra til innsikt, struktur og støtte i krevende perioder. Jeg vet det av egen erfaring. Men historien viser at makt uten tilstrekkelig regulering fører til misbruk. Dersom vi ikke tar kontroll over den emosjonelle infrastrukturen nå, kan vi våkne opp i et samfunn der våre innerste tanker og følelser er en del av en kommersiell maskin vi selv har bidratt til å bygge.

Vi kan fortsatt velge en annen retning. En retning der kunstig intelligens brukes til å styrke menneskelig autonomi og fellesskap, ikke til å undergrave det. Det krever politisk mot, teknologisk forståelse og en befolkning som insisterer på at menneskelig verdighet ikke skal være en forretningsmodell.

 

Bilde: Headshots.no