Gå til hovedindhold

Retningslinjer for brug af generativ AI

– herunder ChatGPT og Copilot

Indhold


    Formål:

    Begrænse eksponering af sensitive data, herunder personoplysninger og sikre overholdelse af juridiske, lovmæssige, regulatoriske og kontraktuelle krav.


    Kontrolbeskrivelse:

    Datamaskering skal bruges i overensstemmelse med organisationens emnespecifikke politik om adgangsstyring og andre relaterede emnespecifikke politikker og forretningskrav, under hensyntagen til gældende lovgivning.

    Indhold

    Generativ AI har åbnet nye muligheder for at gøre aspekter af vores daglige arbejde nemmere og mere effektivt hvilket potentielt kan føre til at vi yder en endnu bedre service til vores borgere.

    Vi skal dog samtidig huske på at anvendelsen af sådanne nye teknologier ikke må ske ukritisk og vi skal sørge for at borgernes data fortsat behandles på en sikker måde og at vores opgaveløsning altid sker på et fagligt og sandfærdigt grundlag.

    Retningslinjerne som er angivet på denne side, giver en ramme for hvordan du som medarbejder kan arbejde med generative AI-løsninger, såsom ChatGPT og Copilot.


    Generelle retningslinjer for medarbejdere i Frederiksberg Kommune

    1. Du må ikke anvende generativ AI til sagsbehandling, faglige vurderinger eller til at træffe afgørelser. Det er dig som fagperson der træffer beslutningerne og du må alene anvende generativ AI som et hjælpeværktøj.
    2. Generativ AI kan ikke anvendes til udsøgning af fakta. Denne type løsninger anvender sprogmodeller og man kan ikke stole på at det som præsenteres af løsningen som fakta, rent faktisk er fakta. Du skal derfor altid sandhedstjekke det indhold som du modtager.
    3. Når du anvender generativ AI skal du, have for øje, at denne type løsninger har en tendens til at repetere og forstærke fordomme, myter og generaliseringer, der eksisterer i samfundet, og at der dermed er en risiko forbundet med, at ukritisk anvendelse medfører manglende blik for og hensyntagen til minoriteter og andre sårbare grupperinger.
    4. Du må ikke indtaste personoplysninger (eller andre personhenførbare oplysninger) om borgere i sprogmodeller, såsom ChatGPT, Copilot mv. 

    Brug din sunde fornuft og forhold dig altid kritisk og faktatjek de svar du modtager fra løsningen. 

    Brug generativ AI som et understøttende værktøj, men sørg for altid selv at gennemtjekke og 
    bearbejde indholdet.

     
    ”Gratis” løsninger, såsom ChatGPT, Gemini, Claude eller Le Chat bør ikke anvendes

    Der findes en række løsninger som bygger på generativ AI og som er karakteriseret ved at de er gratis at anvende. Det kræver blot at man opretter sig som bruger og så kan man ellers gå i gang. Det særlige for disse løsninger er at man egentlig anvender dem som individ og ikke som organisation. Det kan lidt sammenlignes med, hvis man foretager en søgning på Google.

    Dette betyder også at der ikke forelægger noget formelt aftalegrundlag i form af en kontrakt eller databehandleraftale. Ligeledes kan man ved anvendelse ikke kan sætte krav til fx sikkerheden i løsningen og man anvender derfor løsningen udelukkende på leverandørens præmisser. Vi kan derfor ikke vide os sikre på, hvordan de indtastede oplysninger håndteres, opbevares og anvendes videre i andre sammenhænge af leverandøren.


    Ud over de generelle retningslinjer er der følgende særlige retningslinjer for de gratis løsninger:

    1. Du må ikke indtaste person- eller værdioplysninger (eller andre personhenførbare oplysninger om hverken borgere og medarbejdere). Hvis du er i tvivl om oplysningerne du ønsker at indtaste, er personhenførbare, fortrolige eller på anden vis er kritiske eller har værdi for kommunen så lad vær med at indtaste dem.
    2. Du må ikke opfordre borgere (herunder elever) til at anvende de gratis løsninger, men du må gerne rådgive borgere der allerede anvender løsningerne. Dette kan fx være omkring deres muligheder/begrænsninger og gerne også at man skal være varsom med hvilke oplysninger
      man indtaster samt en kritisk tilgang til de svar man modtager.

    Kommercielle løsninger, såsom Copilot

    Coilot er en AI-drevet chatfunktionalitet udviklet af Microsoft, der kombinerer AI-chatfunktionalitet med Microsofts søgemaskine, Bing. Copilot-løsningen er en løsning Frederiksberg Kommune køber, som organisation, igennem vores licensaftale med Microsoft. 

    Dette betyder at løsningen har en højere grad af sikkerhed og vi kan være mere sikre på at oplysningerne bliver inden for kommunen. Hvis man, som medarbejder, ønsker anvende en sprogmodel, som et understøttende arbejdsværktøj bør du derfor anvende Copilot. 


    Der følger særlige retningslinjer for anvendelse af Copilot:

    1. Du må ikke indtaste person- eller værdioplysninger, eller henførbare personoplysninger om borgere, ved din anvendelse af Copilot. Det anbefales i den forbindelse at du er varsom med, hvilke oplysninger du indtaster. Er du i tvivl så lad være. 
    2. Vær meget opmærksom på at det faktisk er Enterprise versionen du anvender (bemærk om du er logget på med din @frbskole-bruger) da Microsoft også har en gratis generativ AI-løsning, der blot hedder Bing Chat (eller Copilot).

     

    Se om du er logget ind med din bruger
    Tjek altid om du er logget ind med din bruger

     

     

     

    Eksempler på korrekt anvendelse af generative AI-løsninger

    Eksempler Beskrivelse

    Kladdeskrivning

    Copilot kan anvendes til at skrive kladder til tekster, herunder f.eks. e-mails: Du kan prompte løsningen med oplysninger som skal indgå i e-mailen, f.eks. en kort beskrivelse af formål, indhold og budskab. Herefter vil du modtage et udkast til en e-mail, som du altid skal læse grundigt igennem og tilpasse

    Resumé

    Copilot kan anvendes til at skrive resuméer af længere tekster. Du kan kopiere en teksten ind i løsningen og prompte den om at skrive et resumé. Du skal altid sikre at resuméet er korrekt og det anbefales derfor at du selv har læst eller har kendskab til den tekst du kopiere ind.

    Inspiration

    Copilot kan bruges til inspiration i din opgaveløsning. F.eks. kan du prompte om hjælp til idéer til undervisningsdifferentier, møde- og workshopformater eller trivsels-aktiviteter. Denne anvendelse kan sammenlignes med når du søger inspiration ved en søgemaskine som Google eller en kollega.

    Eksempler på ukorrekt anvendelse af generative AI-løsninger

    EKSEMPLER BESKRIVELSE

    Sagsbehandling og afgørelser

    Generativ AI, såsom Copliot må ikke avendes til behandling af personoplysninger. Generativ AI må således ikke anvendes til at udføre sagsbehandling eller træffe afgørelser. Du må fx ikke kopiere en borgers journaloplysninger ind og bedre om en udredning. Du må fx heller ikke indtaste økonomiske oplysninger 
    og prompte løsningen om en vurdering af om borgeren er egnet til at få udbetalt ydelser.

    Fakta

    Generativ AI kan ikke anvendes som kilde til fakta. Du kan derfor fx ikke prompte løsningen om at give dig et overblik over eksisterende sager inden for et givent område. Du kan ikke indtaste oplysninger og fx prompte løsningen for hvor mange gange et ord optræder.