Den offentlige sektor står i dag over for en presset situation. Kravene stiger, ressourcerne falder, og mængden af information, der skal håndteres, vokser hurtigt. Samtidig er AI blevet et stadig vigtigere værktøj til at effektivisere arbejdet, skabe bedre service og aflaste medarbejdere.
Men spørgsmålet står stadig: Hvordan bruger vi AI på en måde, der er sikker, etisk og lovlig – især når følsomme oplysninger er involveret?
Den 23. oktober afholdt vi et webinar sammen med Birger Moëll, AI-forsker ved KTH og psykolog i baggrund, hvor vi gennemgik netop dette: hvilke risici der findes, hvilke muligheder der åbner sig, og hvilke skridt der gør det muligt at bruge AI uden at gå på kompromis med privatlivets fred.
AI er i dag en central del af, hvordan den offentlige sektor kan imødekomme stigende krav og levere effektiv service. Bruges den korrekt, kan AI:
Men med mulighederne følger også ansvar. Det største spørgsmål, vi ofte møder, er:
Hvordan beskytter vi følsomme data, når vi bruger AI?
For at vurdere, om AI er sikker, skal den testes på rigtige data.
Men for at bruge rigtige data skal vi først bevise, at teknologien er sikker.
Denne Moment 22-situation har fået mange organisationer til at stoppe, før de overhovedet er begyndt. Men i dag findes der løsninger, der gør testning mulig uden at risikere nogens privatliv.
Der findes tre centrale teknikker, der gør det muligt at arbejde med data på en tryg måde:
Især syntetiske data fungerer som stuntmen for de rigtige data. Det gør det muligt at teste, udvikle og forbedre AI-løsninger, før man arbejder med reelt indhold.
Foto: Birger Moëll, AI-forsker ved KTH
Mange organisationer hænger fast i spørgsmålet: ”Må vi bruge AI?”
Men det mere konstruktive spørgsmål er: ”Hvordan bruger vi AI på en sikker måde?”
Det er sjældent nødvendigt at starte stort. Tværtimod skaber små og kontrollerede skridt bedre forståelse og større tryghed.
Et godt sted at starte er at:
Denne type kontrollerede pilotprojekter bygger både intern kompetence og tillid. Det sikrer også, at AI implementeres med kvalitet.
I nogle organisationer har man forbudt brugen af AI-værktøjer som ChatGPT. Intentionen er at beskytte data – men resultatet bliver ofte det modsatte.
Når værktøjer forbydes, bruges de i stedet:
En bedre vej er at stille sikre, interne AI-værktøjer til rådighed, hvor data beskyttes, og brugen er kontrolleret. Så kan medarbejdere arbejde mere effektivt, samtidig med at organisationen bevarer kontrollen.
For at tage næste skridt på jeres AI-rejse er det værdifuldt at bygge på tre grundprincipper:
Afslutningsvis viste vi, hvordan Formpipes AI-løsninger kan hjælpe den offentlige sektor med at skabe værdi direkte – på en tryg og sikker måde.
Kontakt os, så viser vi, hvordan I kan komme i gang – sikkert og trin for trin.