Gå til hovedindhold

Er ChatGPT sikkert at bruge? Hvad du bør vide

A woman using a laptop

Man kan med sikkerhed sige, at ChatGPT og andre former for IA repræsenterer et revolutionerende skridt fremad med en række anvendelsesformål og potentiale for at blive integreret i mange aspekter i vores liv. Men man gør klogt i at overveje spørgsmålet "Er ChatGPT sikkert at bruge?" I denne vejledning kigger vi på alt, hvad du skal vide.

Hvad er ChatGPT?

Dets udviklere definerer ChatGPT som "en kunstig intelligens, der er trænet til at assistere med forskellige opgaver". I bund og grund er det en AI-drevet chatbot, som kan generere svar i naturligt sprog på brugeres spørgsmål. ChatGPT drives af en maskinel læringsalgoritme, som er blevet trænet på millioner af dokumenter. På grund af den sprogmodel, den bruger, kan ChatGPT producere tekst, der lyder menneskeskabt, og chatte med mennesker (deraf "chat" som en del af navnet).

Enklere versioner af sprogbaseret AI har været offentligt tilgængelige i årevis, men ChatGPT er indtil videre den mest avancerede version. ChatGPT blev skabt af OpenAI, som er et AI- og forskningsselskab.

Hvad står ChatGPT for?

GPT i ChatGPT står for Generative Pre-trained Transformer.

Hvad kan ChatGPT?

ChatGPT har enormt potentiale for naturligt sprogbehandling og evne til at generere hurtige målrettede svar, og kan bruges på en række forskellige virksomhedsområder, f.eks. kundeservice, kundesupport, marketingautomatisering m.m. Mange forudsiger, at ChatGPT vil revolutionere erhvervslivet, selv om den præcise og fulde virkning endnu ikke er fastslået.

Værktøjet er også nyttigt for individuelle brugere. Eksempler på brug af ChatGPT for individuelle brugere kan være:

  • Sammenfatning af et dokument med hovedpunkter eller hovedhandlinger
  • Oversættelse af tekst til andre sprog
  • Skrivning af kode eller fjernelse af virus fra kode
  • Besvarelse af specifikke spørgsmål
  • Forklaring af, hvordan visse opgaver skal udføres
  • Skrivning af musik eller digte

ChatGPT kan bruge på mange sprog og er for det meste tilgængeligt over hele verden (selvom det er bandlyst i nogle lande på grund af databeskyttelseslove). Da ChatGPT's svar genereres af en AI-sprogmodel, er de ikke altid nøjagtige eller fuldstændige. Det er vigtigt at vurdere de oplysninger, ChatGPT giver, og at undersøge andre kilder, hvor det er hensigtsmæssigt.

Er ChatGPT sikker?

En central bekymring er, om AI-sprogmodeller som ChatGPT kan bruges på skadelige måder. Potentielle ChatGPT-sikkerhedsrisici omfatter:

Spam og phishing

En af de mest almindelige onlinetrusler er phishing. Phishingsvindel er ofte nemt at genkende, da det kan indeholde stavefejl, dårlig grammatik og klodsede formuleringer. Det sker sædvanligvis, når svindlere skriver meddelelser i et sprog, som ikke er deres modersmål. ChatGPT giver nu svindlere over hele verden en høj grad af skrivefærdighed på engelsk (og andre sprog) – og hjælper dem med at gøre deres phishingmeddelelser bedre, hvilket gør dem sværere at genkende. Hertil kommer, at det er nemmere end nogensinde før for svindlere at lave overbevisende e-mails i samme stil som den virksomhed, de fremstår som, på grund af den enorme mængde data, modellen er trænet på.

Det er også muligt, at svindlere kan bruge OpenAI-teknologi til at skabe en overbevisende falsk kundeservice-chatbot, som kan have potentiale til at narre penge fra folk.

Datalækager

I marts 2023 identificerede skaberen af ChatGPT, OpenAI, et problem, og ChatGPT var nede i adskillige timer. I løbet af de timer kunne nogle få ChatGPT-brugere se andre brugeres samtalehistorik. Der var også rapporter om, at betalingsrelaterede oplysninger fra ChatGPT-Plus-abonnenter (som betalte for en forbedret version af appen) også kunne være blevet lækket.

OpenAI offentliggjorde en rapport om hændelsen og tog hånd om årsagen til problemet. Det forhindrer ikke, at der kan opstå nye problemer i fremtiden. Med enhver onlinetjeneste er der risiko for utilsigtede lækager og cybersikkerhedsbrud, som skyldes det stigende antal hackere.

Bekymringer omkring privatlivets fred

Muligheden for misbrug af data er en valid sikkerhedsbekymring. OpenAI’s ChatGPT FAQ anviser, at man ikke deler følsomme oplysninger, og advarer brugere om, at prompts ikke kan slettes. Samme FAQ angiver, at ChatGPT gemmer samtaler, som er gennemgået af OpenAI i træningsøjemed.

Medvirken til at sprede falske nyheder og misinformation

I en verden, hvor misinformation, desinformation og falske nyheder kan spredes hurtigt online, er nogen bekymrede over, om ChatGPT kan bidrage til det problem. ChatGPT’s svar er baseret på den information, den var trænet på, og meget af det er hentet fra internettet. Appen opstiller derpå en række ord, som sandsynligvis vil følge efter hinanden, i sit svar. Fordi både misinformation og desinformation eksisterer på internettet, er der også mulighed for, at ChatGPT svarer med forkert information. ChatGPT kan også bruges til at udgive sig for at være en bestemt person og manipulere andre i processen.

Mulighed for partiskhed

Selv om informationen er korrekt, kan den have politisk partiskhed eller anden type for partiskhed. Som med enhver maskinel læringsmodel gengiver ChatGPT sine træningsdatas partiskhed. Hvis de data er partiske, bliver outputtet også partisk, med mulighed for urimelige, diskriminerende eller endda stødende svar. ChatGPT har angivelig taget skridt til at identificere og undgå at besvare politisk ladede spørgsmål – men man skal være opmærksom på eventuel partiskhed, når man bruger tjenesten.

Identitetstyveri og informationsindsamling

Ondsindede aktører kan bruge ChatGPT til at indsamle information i skadeligt øjemed. Da chatbotten er blevet trænet på store mængde data, har den en stor mængde oplysninger, som kan bruges til at gøre skade, hvis de falder i de forkerte hænder. 

Hvis f.eks. ChatGPT blev promptet til at afsløre, hvilket IT-system en bestemt bank bruger. Ved at sammenligne information i det offentlige domæne angav chatbotten de forskellige IT-systemer, som den pågældende bank bruger. Dette er et eksempel på en ondsindet aktør, der bruger ChatGPT til at identificere eller isolere information, som kan bruges til at gøre skade.  

For at håndtere disse bekymringer har Open AI taget skridt til at sørge for, at dens sprogmodeller er sikre. Dette omfatter at etablere strenge adgangskontroller for at forhindre folk i at tilgå systemerne uden tilladelse samt opstille etiske regler for udvikling og brug af AI. Reglerne omfatter en forpligtelse til ansvarlig brug af teknologien samt gennemsigtighed og rimelighed.

Narre ChatGPT til at skrive skadelig kode

ChatGPT kan generere kode, og AI'en er programmeret til ikke at generere skadelig kode eller kode til hackingformål. Hvis der bedes om hackingkode, fortæller ChatGPT brugerne, at dens formål er at “hjælpe med nyttige og etiske opgaver under overholdelse af etiske retningslinjer og politikker.”

Men det er imidlertid ikke umuligt at manipulere ChatGPT, og med tilstrækkelig viden og kreativitet kan ondsindede aktører potentielt narre AI til at generere hackingkode. I hackingforummer har hackere hævdet at have testet chatbotten til at genskabe malware-stammer. I lyset af at sådanne tråde er blevet identificeret offentligt, kan der være mere på det mørke net. Det er mindre alment diskuteret, om ChatGPT selv kan blive hacket. Hvis det skete, kunne trusselaktører bruge det til at sprede misinformation.

ChatGPT-svindel

Når ny teknologi eller nye platforme dukker op, dukker også ny svindel op, når cyberkriminelle ser efter måder, de kan tjene penge på. ChatGPT har rejst enorm interesse siden lanceringen, så det er ikke overraskende at se svindelnumre som f.eks. falske ChatGPT-apps sprede malware, som kan stjæle adgangskoder og penge. Sommetider reklameres der for disse falske apps via meddelelser om gratis, ubegrænset adgang med hurtige hastigheder og de seneste nye funktioner osv.

Som altid gælder den gamle talemåde: hvis noget lyder for godt til at være sandt, så er det oftest tilfældet. Vær forsigtig med ChatGPT-tilbud, der reklameres for via sociale medier eller e-mail. Og vær på vagt over for apps, der hævder at være ChatGPT-apps. Hvis man vil bruge ChatGPT på sin telefon, kan man gøre det enten via sin mobilbrowser eller bruge den officielle app.

ChatGPT kan også hjælpe cybersikkerhedsprofessionelle

Da ChatGPT var et af de første eksempler på en offentlig tilgængelig AI med gode sprogegenskaber, har den afstedkommet meget diskussion om både dens muligheder og dens potentielle risici. Som med alt ny teknologi er det vigtigt at udvise forsigtighed. Det er nemt at blive grebet af spændingen og glemme, at man har med en onlinetjeneste at gøre, som kan blive udnyttet eller misbrugt.

Det er også sandt, at mens ChatGPT kan hjælpe trusselaktører i deres cyberforbrydelser, kan den også hjælpe til forsvarsformål. ChatGPT kan også bruges af cybersikkerhedsprofessionelle som et værktøj i deres arsenal.

Brug et VPN for at være sikker online

Hvor end man bruger ChatGPT, kan man maksimere sin anonymitet online ved at bruge et VPN eller Virtuelt Privat Netværk. Et VPN gør internetforbindelsen anonym og skjuler IP-adressen og forhindrer derved tredjeparter i at spore aktivitet.

Hvis man ønsker at skjule sin IP-adresse og surfe sikkert, samtidig med at man beskytter sine data, er et VPN såsom Kaspersky VPN Secure Connection værd at overveje. Kaspersky VPN Secure Connection gør det sikkert og anonymt at surfe på nettet, med nogle af branchens bedste hastigheder, og giver adgang til globalt indhold, helt uden begrænsninger, uanset hvor man er.

For yderligere sikkerhed kan man også overveje at bruge en password manager – som genererer stærke tilfældige adgangskoder og gemmer dem sikkert i en digital boks.

Relaterede produkter: 

Læs mere: 

Er ChatGPT sikkert at bruge? Hvad du bør vide

ChatGPT rejser forskellige spørgsmål vedrørende sikkerhed og databeskyttelse. Læs vores vejledning om ChatGPT-sikkerhed, og om det er sikkert at bruge ChatGPT.
Kaspersky logo