Når AI brukes til å avsløre AI, forsvinner sannheten

I en tid der kunstig intelligens kan brukes både til å skrive tekster og til å «avsløre» dem, risikerer offentligheten å miste sitt viktigste anker: etterprøvbar sannhet. Når mistanke blir metode, er det ikke bare enkeltpersoner som rammes, men selve tilliten til medier og samfunn.

Debatten om kunstig intelligens i Aftenposten har de siste månedene tatt en ny og mer alvorlig dreining. Det handler ikke lenger bare om hvordan AI påvirker språk og offentlighet, men om hvordan mistanke i seg selv er i ferd med å bli et legitimt vurderingsgrunnlag.

I en kronikk i Aftenposten hevdet professor Petter Bae Brandtzæg at kronikker signert Asle Toje og Paul M. H. Buvarp i betydelig grad fremstår som kunstig intelligens-genererte. Påstandene ble begrunnet med språklige og stilistiske kjennetegn som etter Brandtzægs vurdering «utløste AI-alarm». Buvarp avviste senere anklagene, men mistanken var allerede etablert i offentligheten.

Når alt kan være kunstig, kan alt avvises. Og når alt kan avvises, settes selve sannheten i fare.

Det er denne logikken jeg ønsker å undersøke nærmere. Ikke for å rette mistanke mot Petter Bae Brandtzæg, men for å teste hva som faktisk kan skje hvis vi for eksempel begynner å bruke kunstig intelligens, og AI-baserte analyseverktøy, som dommere over andres tekster.

For dersom mistanke kan produseres av de samme systemene som vi frykter former språket, står vi overfor et langt større problem enn spørsmålet om hvem som har skrevet hva. 

Likevel er det nettopp denne typen verktøy som i økende grad tas i bruk.

Jeg tok Brandtzægs egen kronikk og limte den inn i to fritt tilgjengelige AI-deteksjonsverktøy: Humalingo og JustDone. Begge tjenestene oppgir at de dobbeltsjekker analysene sine mot kjente tredjepartsverktøy som Originality.ai, Scribbr, GPTZero og CopyLeaks.

Resultatet var oppsiktsvekkende.

Begge verktøyene konkluderte med at Brandtzægs tekst i betydelig grad fremstår som AI-generert. JustDone indikerte 97 prosent sannsynlighet for AI-generert innhold, mens Humalingo viste en høy AI-score kombinert med lav «human score».

Humalingos AI-analyse av teksten til Petter Bae Brandtzæg:

Skjermdump fra Humalingo-verktøyet for å «avsløre» AI-generert tekst.

 

JustDones AI-analyse av teksten til Petter Bae Brandtzæg:

Kunstig intelligens

Skjermdump fra JustDone-verktøyet for å «avsløre» AI-generert tekst.

//Artikkelen fortsetter etter annonsen//

 

Her er det viktig for meg å understreke to ting: 

Poenget mitt er noe helt annet, og langt mer alvorlig.

Når verktøyene undergraver seg selv

Disse resultatene sier ikke først og fremst noe om Brandtzægs tekst. De sier noe om verktøyene. Og om den nye logikken vi er i ferd med å akseptere. For hvis menneskeskrevne tekster kan klassifiseres som AI-genererte, hvis AI-genererte tekster kan «humaniseres» til å fremstå som menneskelige, og hvis analysene utføres av nettopp kunstig intelligens, da har vi ikke lenger et objektivt vurderingsgrunnlag. 

Det er her sirkelargumentet blir åpenbart ved at AI brukes til å avgjøre om AI er brukt, og at konklusjonen fører til en autoritet AI ikke (nødvendigvis) fortjener. Dette er ikke etterprøvbarhet, men en simulert sikkerhet.

Mistanke som selvforsterkende mekanisme

Det virkelig problematiske oppstår når slike verktøy tas i bruk som et legitimerende grunnlag for mistanke. Ikke nødvendigvis eksplisitt, men implisitt. Når språklig presisjon, struktur og klarhet i seg selv blir indikatorer på noe mistenkelig, spiller det ingen rolle lenger om teksten faktisk er skrevet av et menneske, fordi den alltid kan avvises. Og nettopp derfor er dette farlig.

Vi beveger oss inn i en situasjon der sannhet ikke lenger må motbevises. Den trenger bare å betviles. For i en verden der alt kan være AI, vil mistanken alltid være plausibel. Og i sosiale medier og algoritmestyrte flater er plausibilitet mer enn nok. Det har også redaktørstyrte medier lært seg for lenge siden, hvor hastighet, negative følelser og sensasjonelle overskrifter og innhold har på mange måter erstattet etterrettelighet, nøyaktighet og innsikt. 

//Artikkelen fortsetter etter annonsen//

 

Pressens ansvar i en tid uten holdepunkter

Når Aftenposten publiserer mistenkeliggjøring av navngitte kronikkforfattere basert på språklige kjennetegn og antatt AI-bruk, bidrar de, uavhengig av intensjon, til å normalisere en praksis der mistanke veier tyngre enn dokumentasjon. Når slike anklager fremsettes i en tid der selv gratisverktøy kan «avsløre» nær sagt hvem som helst for å ha brukt AI, blir konsekvensen forutsigbar: Vi kan ikke lenger stole på noe som helst.

Og når tilliten først forsvinner, vet vi at den er svært vanskelig å vinne tilbake. 

Derfor er det avgjørende at redaktørstyrte medier ikke bidrar til å skape en slags metodeløs mistanke mot alt som skrives. Det er udiskutabelt at kunstig intelligens kommer til å bli brukt til å skrive. Og til å analysere tekst. Derfor mener jeg at det avgjørende spørsmålet ikke handler om hvor vidt AI har vært involvert eller ikke, men hvordan vi som samfunn velger å forholde oss til det. Hvis svaret er at vi erstatter ansvarlig avsender, dokumentasjon og argumentasjon med algoritmisk sannsynlighet, har vi et langt større problem enn kunstig intelligens.

Da har vi satt sannheten i spill. Og nettopp derfor må redaktørstyrte medier være ekstremt varsomme. For når mistanke blir metode, og AI blir dommer i sin egen sak, er det ikke bare teknologien som feiler, men offentligheten.