ChatGPT: Har du styr på, hvor dine data ender?
Om ChatGPT
ChatGPT er udviklet af OpenAI, og bliver markedsført som værende en model, der takket være sin samtalebaserede struktur kan besvare opfølgende spørgsmål, indrømme egne fejl, udfordre fejlagtige præmisser og afvise upassende forespørgsler.
Platformen er udviklet til at tage ved lære af dens brugere. En metode, der kaldes RLFH, som står for Learning From Human Feedback. Platformen bliver altså klogere jo flere brugere, den har og jo mere data, den bliver fodret med.
Generelt er ChatGPT anset for at være en sikker platform at benytte sig af takket være utallige sikkerhedsforanstaltninger i form af blandt andet datahåndterings- og sikkerhedspolitikker. Men som det er tilfældet med enhver anden teknologi, vi benytter os af i dagligdagen, er ChatGPT ikke immun, når det kommer til bekymringer om sårbarheder og sikkerhedsbrud.

BLOGGEN
IT-rådgivning
Konsulent
IT-revision og -sikkerhedsrådgivning
Anna Julie Abildgaard
Tænk dig om, når du deler dine data med ChatGPT.

ChatGPT indsamler og lagrer datainput
Der er nemlig nogle ting, man som bruger bør være opmærksom på. Et godt eksempel her er det faktum, at ChatGPT i sin konstante læringsproces indsamler og lagrer alle datainput til udvikling af de sprogmodeller, platformen benytter sig af. Disse datainput kan blive læst af ansatte ved OpenAI, såkaldte AI-trænere. Desuden kan ChatGPT ikke slette inputs fra en brugers personlige log, hvorfor det frarådes at indtaste personlige, følsomme eller fortrolige data.
Din idé bliver offentlig ejendom, hvis du deler den med ChatGPT
Indtastning af netop fortrolige data kan blive problematisk, hvis man som virksomhedsejer har fået en god idé til en opfindelse og ønsker at søge patent. Hvis virksomhedsejeren indtaster informationer om opfindelsen i ChatGPT i forbindelse med en eventuel patentansøgningsproces, vil idéen de jure blive offentlig ejendom, allerede inden ansøgningen er skrevet, og patentet kan ikke længere søges.
Dette sker, fordi oplysninger om produktet er lagt ud i ChatGPT's database, og brugeren, i dette tilfælde en virksomhedsejer, ikke længere har kontrol over sine data.

EU et skridt nærmere fælles lovgivning
Qua den rivende udvikling disse generative AI-platforme, såsom ChatGPT, undergår samt de sikkerhedsspørgsmål, som bliver rejst, er der i Europa-Parlamentet netop godkendt et udkast med rettelser og tilføjelser til den eksisterende lovgivning på området, kaldet AI Act. Denne lovgivning vil sikre, at regulering sker på europæisk frem for et nationalt plan, og der derfor kun er et regelsæt at tage stilling til for virksomheder.
Tænk dig om, når du deler dine data med ChatGPT
Tænk derfor over, om de data, du sidder med, kan tåle at komme igennem maskineriet bag ChatGPT, eller om det er bedre at holde tæt med dem.
IT-revision og sikkerhedsrådgivning
Det er Allan Bjerre, der er ansvarlig for vores services inden for data og informationssikkerhed. Allan har arbejdet med kommerciel udvikling inden for it-sikkerhed og databeskyttelse – både som selvstændig og som ansat i og uden for revisionsbranchen.
Eksterne links
The Artificial Intelligence Act: https://www.europarl.europa.eu/committees/da/the-artificial-intelligence-act-/product-details/20220311CHE10007
AI Act: EU et skridt nærmere første AI-lovgivning efter afstemning: https://www.computerworld.dk/art/282915/ai-act-eu-et-skridt-naermere-foerste-ai-lovgivning-efter-afstemning