Et refleksionsværktøj for politikere, embedsfolk og samfundsinteresserede borgere.
Metode:
Jeg har bedt AI’en (ChatGPT-4) om at udarbejde en objektiv og teknisk funderet gennemgang af de centrale overvejelser, risici og begrænsninger ved brugen af kunstig intelligens i statslig overvågning.
Formålet har været at skabe et refleksionsværktøj for politikere, embedsfolk og borgere – uden holdningspræg, hype eller antagelser – men baseret på teknisk realisme, juridisk forståelse og dokumenterede metoder.
Dokumentet bygger bl.a. på:
- En struktureret analyse af PET-lovforslaget (L 218),
- Kendte AI-principper som træning, bias og falske positiver,
- Etiske overvejelser i forhold til ansvar, gennemsigtighed og retsstat,
- Et konkret eksempel på informationshåndtering (Findsen-sagen),
- Og en teknisk redegørelse for avancerede kommunikationsformer som steganografi, kryptering og anonymisering, der illustrerer, hvorfor AI-overvågning ikke kan opfange visse trusler.
Resultatet:
1. Grundlæggende principper for AI-overvågning
Formål før funktion
Før man stiller spørgsmålet “Hvordan kan vi bruge AI?”, bør man spørge:
“Hvad er det præcise formål med overvågningen – og er det proportionalt?”
Forstå datakæden
AI-modeller er ikke magiske. De fungerer kun ud fra den virkelighed, de er blevet fodret med.
→ Hvad er PET’s datasæt egentlig trænet på – og er det repræsentativt for reel trusselsadfærd?
Skel mellem træning og drift
At træne en AI-model kræver adgang til store mængder klassificeret, historisk data. At bruge den kræver overvågning og løbende evaluering.
→ Er det i det hele taget muligt at træne en effektiv model uden at gøre hele befolkningen til testmateriale?
AI estimerer, den forstår ikke
Modellen identificerer statistiske mønstre, ikke intention eller kontekst.
→ En borgers søgeadfærd, rejsemønster eller bogvalg kan ligne en “afvigelse” – uden at være det.
AI er aldrig neutral
Data, arkitektur og evaluering spejler værdier og antagelser.
→ Hvilke normer lærer modellen at vurdere danskere efter?
2. Strategiske spørgsmål til overvågningsprojekter
Data og etik
- Hvor stammer dataene fra?
- Er borgerne informeret?
- Har man analyseret risiko for diskrimination eller fejl?
Kvalitet og konsekvenser
- Hvordan afgøres, hvornår modellen “virker”?
- Hvor mange falske positiver er acceptable?
- Hvad er konsekvensen for en uskyldig borger, der rammes?
Menneskelig kontrol og ansvar
- Hvem kan revidere og forstå modellens beslutninger?
- Hvad gør man, når den tager fejl?
- Hvem bærer ansvaret?
Demokratisk kobling
- Hvordan bidrager overvågningen til reelt øget sikkerhed?
- Hvad mister vi i tillid, privatliv og frihed?
3. Tegn på risikabel AI-overvågning
- Ingen ved præcist, hvor dataene kommer fra, eller hvad de repræsenterer
- Der er ingen klare grænser for, hvornår overvågning er berettiget
- Ingen uden for PET kan forstå systemet eller auditere det
- Modellen kan generere store mængder af potentielle hits, som efterfølgende skal vurderes og behandles manuelt af analytikere
- Fokus er primært på effektivitet frem for retssikkerhed
4. Sådan formidles AI-overvågning ærligt
Brug virkelige eksempler, ikke buzzwords
“Selv en lav fejlrate på 1 % kan i en befolkning på 6 millioner resultere i op mod 60.000 personer, der kræver manuel afklaring.”
Kobl det til konsekvenser, ikke kontrol
“Hvordan vil du forklare en uskyldig borger, at hans profil ligner en ‘trussel’? Hvad gør det ved retssikkerheden?”
Vis kontrolpunkter og åbenhed
“Hvordan auditeres modellen? Hvem har adgang? Kan en borger klage over automatisk analyse?”
Vær ærlig om risici
“Dette system er ikke fejlfrit – og det er vigtigt at identificere og håndtere potentielle konsekvenser i tide.”
5. Etisk styring i et demokratisk samfund
AI-alignment med retsstaten
→ Stemmer modellens prioriteringer med grundloven, EMRK og borgernes rettigheder?
Gennemsigtighed fra starten
→ Hvem ved, hvordan modellen virker – og kan det dokumenteres?
Fordeling af ansvar
→ Hvis du som borger bliver uretmæssigt mistænkeliggjort – hvem står til ansvar?
Inkludér samfundets mangfoldighed
→ Er modellen testet mod kulturelle, sproglige og sociale forskelle i Danmark?
→ Eller risikerer den at mistænkeliggøre minoriteter og borgere med anderledes livsmønstre?
Eksempel: Sagen om Lars Findsen
Oplysninger om den tidligere FE-chef Lars Findsens seksuelle forhold blev ifølge medier delt til partiledere under interne briefinger. Disse intime detaljer blev brugt som del af den politiske og retlige kommunikation om hans sag. Uanset sagens indhold eller kontekst, peger den på behovet for klare rammer for håndtering af personfølsomme oplysninger i systemer med adgang til borgerdata.
6. Begrænsninger i det reelle trusselsbillede
AI-systemer, der bygger på dataopsamling og mønstergenkendelse, har begrænset anvendelighed over for avancerede kommunikationsmetoder anvendt af professionelle trusselaktører.
Eksempler på teknikker uden for rækkevidde for klassisk AI-analyse:
- End-to-end kryptering: Brug af krypterede platforme som Signal, ProtonMail og Threema beskytter indholdet, så det kun er tilgængeligt for afsender og modtager.
- Anonymisering og netværkslag: Brug af Tor-netværket og VPN-teknologier skjuler identitet og geografisk placering.
- Steganografi: Skjult kommunikation via fx billedfiler, hvor information gemmes i de mindst betydningsfulde bits (LSB) og kun kan udtrækkes med kendskab til originalfil og metode.
Konsekvens: Disse metoder er udviklet netop for at undgå detektering, og de ligger som udgangspunkt uden for rækkevidde for generaliserede mønstergenkendelsesmodeller, da:
- Der ikke findes tilgængelige træningsdata, der repræsenterer mønstrene.
- Kommunikationens eksistens ikke nødvendigvis kan detekteres.
- Identifikation kræver forudgående viden, fx om kontaktparter eller krypteringsnøgler.
Overvejelse: Når den mest sofistikerede kommunikation foregår i teknologiske domæner, som er usynlige for almindelig overvågning og analyse, kan det være relevant at afveje, hvad formålet med masseovervågning reelt er – og om midlerne står i rimeligt forhold til formodet effekt. Det er ikke en holdningsbaseret konklusion, men et teknisk og metodisk forbehold, der bør indgå i beslutningsgrundlaget.
Brug det som:
- En tjekliste for lovgivere, inden overvågningsprojekter godkendes
- Et refleksionsværktøj til borgere og embedsfolk, der ønsker at forstå konsekvenserne
- Et fundament for at diskutere hvornår overvågning er acceptabel – og hvornår den ikke er det.