Bekymret for dit privatliv, når du bruger ChatGPT til arbejde? Her er nogle tips til at holde dine data sikre.

ChatGPT har vist sig at være et uvurderligt værktøj til arbejdet. Alligevel understreger bekymringer om online privatliv behovet for årvågenhed i forbindelse med beskyttelse af følsomme data. Nylige hændelser af ChatGPT-databrud tjener som en skarp påmindelse om, at teknologi er modtagelig over for trusler mod privatlivet. Her er nogle tips til at bruge ChatGPT ansvarligt for at beskytte fortroligheden af ​​dine arbejdsdata.

1. Gem ikke din chathistorik

Et af de enkleste, men effektive trin til at beskytte dit privatliv, er at undgå at gemme din chathistorik. ChatGPT gemmer som standard alle interaktioner mellem brugere og chatbotten. Disse samtaler indsamles for at træne OpenAIs systemer og er underlagt inspektion af moderatorer.

Mens kontomoderering sikrer, at du overholder Open AIs vilkår og tjenester, åbner det også op for sikkerhedsrisici for brugeren. Faktisk, Randen rapporterer, at virksomheder som Apple, J.P. Morgan, Verizon og Amazon har forbudt deres ansatte fra ved at bruge AI-værktøjer på grund af frygt for lækket eller indsamlet fortrolig information, der indtastes i disse systemer.

instagram viewer

Følg disse trin for at deaktivere chathistorik:

  1. Klik på ellipsen eller tre prikker ved siden af ​​dit ChatGPT-kontonavn.
  2. Klik på Indstillinger.
  3. Klik på Datakontroller.
  4. Slå fra Chat historie og træning.

Noter det OpenAI siger, at selv med denne indstilling aktiveret, bevares samtaler i 30 dage med mulighed for, at moderatorer kan gennemgå dem for misbrug før permanent sletning. Alligevel er deaktivering af chathistorik en af ​​de bedste ting, du kan gøre, hvis du vil fortsætte med at bruge ChatGPT.

Tip: Hvis du har brug for adgang til dine data på ChatGPT, skal du eksportere dem først. Du kan også gemme dem ved at tage skærmbilleder, skrive noter manuelt, kopiere og indsætte dem i en separat applikation eller bruge sikker cloud-lagring.

2. Slet samtaler

En af de store problemer med OpenAIs ChatGPT er potentielle databrud. ChatGPT-afbrydelsen, der foranledigede en undersøgelse fra Federal Trade Commission, viser, hvor risikabelt det er at bruge appen.

Ifølge OpenAIs opdatering om udfaldet den 20. marts 2023, forårsagede en fejl i et open source-bibliotek hændelsen. Lækagen gav brugerne mulighed for at se chathistorietitlerne på andre brugere. Den afslørede også betalingsrelaterede oplysninger om 1,2 % af ChatGPT Plus-abonnenterne, herunder navne, kreditkortoplysninger og e-mailadresser.

Sletning af dine samtaler hjælper med at beskytte dine data mod disse mulige trusler. Tag følgende trin for at slette dine chats:

  1. Klik på ellipsen eller tre prikker ved siden af ​​dit ChatGPT-kontonavn.
  2. Klik Indstillinger.
  3. Under Generel, klik Klar for at rydde alle chats.

En anden mulighed er at vælge hver samtale og slette den. Denne metode er nyttig, hvis du stadig vil beholde nogle af dine chats. På listen over samtaler skal du klikke på den chat, du vil slette. Vælg papirkurvsikonet for at fjerne dataene.

3. Giv ikke ChatGPT-følsomme arbejdsoplysninger

Udvis forsigtighed og undlad at give ChatGPT følsomme arbejdsrelaterede oplysninger. En af de mest almindelige myter om privatliv på nettet er, at virksomheder vil beskytte dine data, bare fordi en generel erklæring i deres servicevilkår siger det.

Undgå at dele økonomiske optegnelser, intellektuel ejendom, kundeoplysninger og beskyttede helbredsoplysninger. Du øger risikoen for at dele fortrolige data med cyberkriminelle. Dette kan endda føre til juridiske problemer for dig og din virksomhed.

Det massive ChatGPT-datalæk fra juni 2022 til maj 2023 illustrerer, hvor vigtigt dette punkt er. Søgemaskinejournal rapporterer, at over 100.000 ChatGPT-kontolegitimationsoplysninger blev kompromitteret og solgt på dark web-markedspladser på grund af hændelsen.

Begræns interaktioner med ChatGPT til ikke-fortrolige forespørgsler og undgå at dele proprietære detaljer. Anvend desuden god adgangskodehygiejne og aktiver to-faktor-godkendelse for at forhindre, at din konto kompromitteres.

4. Brug dataanonymiseringsteknikker

Dataanonymiseringsteknikker hjælper med at beskytte den enkeltes privatliv, mens de bevarer indsigt fra datasæt. Når du bruger ChatGPT til arbejde, skal du anvende disse teknikker for at forhindre enhver direkte eller indirekte identifikation af enkeltpersoner i dataene.

Her er et par grundlæggende dataanonymiseringsteknikker fra Persondatabeskyttelseskommissionen i Singapore:

  • Attributundertrykkelse: Fjern en hel del af data, der ikke er nødvendig for din forespørgsel. Lad os sige, at du skal analysere en kundes forbrugsmønstre. Du kan fodre ChatGPT med transaktionsbeløb og købsdatoer. Men del ikke kundens navn og kreditkortoplysninger, da disse ikke er nødvendige for analysen.
  • Pseudonymisering: Erstat identificerbare oplysninger med pseudonymer. For eksempel kan du erstatte patientnavne i en sundhedsjournal med pseudonymer som "Patient001", "Patient002" og så videre.
  • Dataforstyrrelse: Modificer dataværdierne lidt inden for et bestemt område. Når du for eksempel deler patientens aldersdata, kan du tilføje små tilfældige værdier (f.eks. ±2 år) til hver enkelt persons faktiske alder.
  • Generalisering: Reducer data bevidst. For eksempel, i stedet for at afsløre folks nøjagtige alder, kan du generalisere dataene ved at gruppere aldre i bredere intervaller (f.eks. 20-30, 31-40 osv.).
  • Karaktermaskering: Vis kun en del af følsomme data. For eksempel kan du kun skrive de første tre cifre i et telefonnummer og erstatte resten med X (f.eks. 555-XXX-XXXX).

Anonymisering er ikke idiotsikker, da data kan afanonymiseres. Forstå afanonymisering og hvordan man forhindrer det før du bruger nogen af ​​disse teknikker. Evaluer risiciene, før du frigiver anonymiserede data.

5. Begræns adgang til følsomme data

Begrænsning af adgang til følsomme arbejdsdata er afgørende, når arbejdere får lov til at bruge ChatGPT. Hvis du arbejder i en lederrolle, skal du begrænse adgangen til følsomme oplysninger til autoriseret personale, som kræver det til deres specifikke roller.

Implementer desuden adgangskontrol for at beskytte din virksomheds data. For eksempel giver rollebaseret adgangskontrol (RBAC) kun autoriserede medarbejdere adgang til de nødvendige data for at udføre deres job. Du kan også udføre regelmæssige adgangsgennemgange for at sikre, at adgangskontrol er effektiv. Glem ikke at tilbagekalde adgang for medarbejdere, der skifter rolle eller forlader virksomheden.

6. Vær på vagt over for tredjepartsapps

Om tredjeparts ChatGPT-apps og browserudvidelser er sikre er et vigtigt spørgsmål at stille. Før du bruger nogen af ​​disse apps til arbejde, skal du omhyggeligt undersøge og undersøge dem. Sørg for, at de ikke indsamler og opbevarer oplysninger til tvivlsomme formål.

Installer ikke lyssky apps, der beder om tilfældige tilladelser på din telefon. Bekræft deres datahåndteringspraksis for at kontrollere, om de stemmer overens med din organisations privatlivsstandarder.

Brug ChatGPT Responsibly for Work

Det er vanskeligt at bevare privatlivets fred, mens du bruger ChatGPT til arbejde. Hvis du absolut skal bruge ChatGPT til at udføre dit arbejde, skal du forstå de involverede privatlivsrisici. Der er ingen fejlsikker metode til at beskytte dine data, når du først overdrager dem til et AI-værktøj. Men du kan tage skridt til at reducere chancerne for datalæk.

ChatGPT har mange praktiske anvendelser til arbejde, men du bør beskytte dine virksomhedsdata, mens du bruger dem. Forståelse af ChatGPTs privatlivspolitik bør hjælpe dig med at beslutte, om værktøjet er risikoen værd.