Blog

Sådan bygger vi sikker AI i den offentlige sektor – erfaringer fra vores seneste webinar

Den offentlige sektor står i dag over for en presset situation. Kravene stiger, ressourcerne falder, og mængden af information, der skal håndteres, vokser hurtigt. Samtidig er AI blevet et stadig vigtigere værktøj til at effektivisere arbejdet, skabe bedre service og aflaste medarbejdere.

Men spørgsmålet står stadig: Hvordan bruger vi AI på en måde, der er sikker, etisk og lovlig – især når følsomme oplysninger er involveret?

Den 23. oktober afholdt vi et webinar sammen med Birger Moëll, AI-forsker ved KTH og psykolog i baggrund, hvor vi gennemgik netop dette: hvilke risici der findes, hvilke muligheder der åbner sig, og hvilke skridt der gør det muligt at bruge AI uden at gå på kompromis med privatlivets fred.

AI – fra fremtidsprojekt til nødvendighed

AI er i dag en central del af, hvordan den offentlige sektor kan imødekomme stigende krav og levere effektiv service. Bruges den korrekt, kan AI:

  • automatisere tidskrævende, repetitive arbejdsopgaver
  • strukturere og sprede intern viden
  • skabe hurtigere og mere tilgængelig service for borgere

Men med mulighederne følger også ansvar. Det største spørgsmål, vi ofte møder, er:
Hvordan beskytter vi følsomme data, når vi bruger AI?

Moment 22: Test uden at røre dataen

For at vurdere, om AI er sikker, skal den testes på rigtige data.
Men for at bruge rigtige data skal vi først bevise, at teknologien er sikker.

Denne Moment 22-situation har fået mange organisationer til at stoppe, før de overhovedet er begyndt. Men i dag findes der løsninger, der gør testning mulig uden at risikere nogens privatliv.

Værktøjskassen til sikker AI

Der findes tre centrale teknikker, der gør det muligt at arbejde med data på en tryg måde:

  • Pseudonymisering: Personoplysninger erstattes med neutrale identiteter.
  • Anonymisering: Al forbindelse til individer fjernes helt.
  • Syntetiske data: Kunstigt skabte data, der efterligner virkelige mønstre – men ikke indeholder nogen ægte oplysninger.

Især syntetiske data fungerer som stuntmen for de rigtige data. Det gør det muligt at teste, udvikle og forbedre AI-løsninger, før man arbejder med reelt indhold.

Bild birger
Foto: Birger Moëll, AI-forsker ved KTH

Sådan kommer I i gang – fra tanke til handling

Mange organisationer hænger fast i spørgsmålet: ”Må vi bruge AI?”
Men det mere konstruktive spørgsmål er: ”Hvordan bruger vi AI på en sikker måde?”

Det er sjældent nødvendigt at starte stort. Tværtimod skaber små og kontrollerede skridt bedre forståelse og større tryghed.

Et godt sted at starte er at:

  1. Identificere en tidskrævende, repetitiv opgave – gerne noget, der allerede i dag er en hindring eller flaskehals.
  2. Kortlægge de data, der bruges – hvor følsomme er de, og hvordan skal de håndteres?
  3. Teste en AI-løsning med anonymiserede eller syntetiske data i lille skala.
  4. Evaluere effekten og resultatet.
  5. Skalere op først, når værdien er tydelig, og organisationen føler sig tryg.

Denne type kontrollerede pilotprojekter bygger både intern kompetence og tillid. Det sikrer også, at AI implementeres med kvalitet.

Hvorfor forbud ikke virker

I nogle organisationer har man forbudt brugen af AI-værktøjer som ChatGPT. Intentionen er at beskytte data – men resultatet bliver ofte det modsatte.

Når værktøjer forbydes, bruges de i stedet:

  • privat
  • uden styring
  • uden for organisationens sikkerhedsrammer

En bedre vej er at stille sikre, interne AI-værktøjer til rådighed, hvor data beskyttes, og brugen er kontrolleret. Så kan medarbejdere arbejde mere effektivt, samtidig med at organisationen bevarer kontrollen.

Opsummering – tre principper at tage med videre

For at tage næste skridt på jeres AI-rejse er det værdifuldt at bygge på tre grundprincipper:

  • Fra “skal” til “mulighed”
    AI er ikke et fremtidsspørgsmål – det er allerede en del af opgaven.
  • Fra “om” til “hvordan”
    Fokus bør være at finde sikre måder at bruge data på, ikke at undgå teknologien.
  • Fra “alt på én gang” til “ét skridt ad gangen”
    Start småt, lær undervejs, og skaler op, når effekten er bevist.

Formpipe viser vejen

Afslutningsvis viste vi, hvordan Formpipes AI-løsninger kan hjælpe den offentlige sektor med at skabe værdi direkte – på en tryg og sikker måde.

Kontakt os, så viser vi, hvordan I kan komme i gang – sikkert og trin for trin.

Relaterede artikler

Adoxa blev Formpipes allervigtigste system i 2024 – og der er der én særlig grund til...

Læs mere

PETER SILJERUD: “AI giver den offentlige sektor mulighed for at fokusere på dét, der virkelig betyder noget.” 

Læs mere

Anders Munk Andersen: “Der er gået sport i at se, hvor langt vi kan rykke grænsen”

Læs mere

Abonner på vores nyhedsbrev.