Dette indlæg er sponsoreret af Incogni.

Se dig omkring; miljøet bugner af kunstig intelligens og dets næsten mirakuløse muligheder. AI eller kunstig intelligens gør det muligt for en computer eller maskine at ræsonnere, lære og handle intelligent, som et menneske.

Faktisk breder ChatGPT og andre generative AI-teknologier sig i næsten alle brancher - fra sundhedspleje, bankvæsen og fremstilling til kreativ kunst og forbrugersoftware.

Men vil denne bemyndigende nye fremtid, der trives med data, give os vores grundlæggende menneskeret til privatliv?

Hvis lignende tanker krydser dit sind, er dine bekymringer om privatlivets fred med hensyn til kunstig intelligens naturlige. Dit privatliv er vigtigere nu end nogensinde i denne digitale tidsalder.

Hvad er privatlivets fredsrisici forbundet med AI?

Som pr Pew Research undersøgelser, bliver hver fjerde amerikaner bedt om at acceptere en privatlivspolitik hver dag. Alligevel læser kun 22% privatlivspolitikkerne i deres helhed.

Lad os overveje AI-tjenester som ChatGPT, Google Cloud AI, Jupyter, Viso Suite og Chrorus.ai. Deres privatlivspolitikker angiver, at de indsamle dine personlige oplysninger, det indhold, du ser eller engagerer dig i, og endda hente data fra sociale medieplatforme og offentlige databaser.

instagram viewer

Desuden bruges dine data til at træne deres AI-modeller.

Så du kan nyde e-mails og præsentationer, der bliver skrevet på få sekunder; chatte med en kundeservicebot; prøv næsten tilbehør, mens du shopper; eller bare Google som annoncer baseret på dine interesser følger dig over nettet.

Disse handlinger drives af dine data, der indsamles hvert minut. Hvis du betragter det som kunstig intelligens, der invaderer dit privatliv, tager du ikke fejl.

Mens AI-virksomheder hævder, at dine oplysninger er sikre, har talrige databrud begået af cyberkriminelle ført til identitetstyveri, økonomisk tab og skade på ofrenes omdømme verden over.

Fund af Surfsharks Global Data Breach Stats-undersøgelse viser, at USA har haft over 2,6 milliarder registreringer afsløret gennem databrud siden 2004.

Og de fleste AI-modeller er trænet på et stort datasæt fra offentlige kilder, hvoraf de fleste er forudindtaget. Denne skævhed kan føre til alvorlige konsekvenser, såsom krænkelse af din ret til privatliv.

Juridiske og etiske konsekvenser af privatlivets fred i en tidsalder af kunstig intelligens

Gælder vores privatlivslovgivning for AI? Ifølge American Bar Associations podcast om AI-regulering i USA er der på nuværende tidspunkt ingen omfattende føderal lovgivning, der udelukkende er dedikeret til AI-regulering.

Den Europæiske Union har vedtaget AI-loven, hvorved forordningen vil stige i forhold til den potentielle trussel mod privatlivets fred og sikkerhed, som et AI-system udgør. Forhåbentlig vil denne AI-lov katalysere USA, Storbritannien og andre lande til også at vedtage deres love.

Regulering af kunstig intelligens og beskyttelse af privatlivets fred giver dog mange udfordringer, da kunstig intelligens-algoritmer er komplekse.

For det andet er de fleste eksisterende love om beskyttelse af privatlivets fred forankret i en meddelelses- og samtykkemodel for forbrugernes valg. Privatlivspolitikker er et eksempel, som kunder giver samtykke til, men sjældent læser i deres helhed.

Personer, der sælges på AI-revolutionen, kan også frivilligt videregive private oplysninger, hvilket besejrer formålet med at sikre databeskyttelse fra kunstig intelligens.

Ideelt set bør vores nye AI-drevne fremtid også være etikdrevet for at beskytte vores databeskyttelse. Det skal være sikkert, retfærdigt, upartisk og gavnligt for alle. Skabere og udviklere skal træne AI-modeller ved hjælp af data, der er forskelligartede.

For at tjene vores tillid skal AI-modeller være gennemsigtige omkring de beslutninger, der træffes med vores data. Og da AI allerede erstatter en betydelig arbejdsstyrke, bør AI-udvikling føre til skabelsen af ​​bedre job.

Beskyttelse af privatlivets fred i en AI-drevet verden

Du bør have valget mellem at dele de personlige data, du ønsker. Og AI-virksomheder skal indføre forbedrede databeskyttelsesforanstaltninger for at sikre, at dine oplysninger forbliver sikre og private.

Privacy-By-Design-principper bør integreres i alle operationer, i alle aktiviteter og behandlinger, og dermed sikre databeskyttelse gennem hele livscyklussen af ​​et AI-system.

Desuden bør robuste love og regler styre kunstig intelligens-modeller og nye AI-virksomheder, der går rundt.

I den første globale standard nogensinde udviklet af UNESCO, er retten til privatliv og databeskyttelse blandt de 10 kerneprincipper i denne anbefaling til opbygning af AI-teknologier.

Din rolle i at beskytte dit privatlivPerson, der surfer på nettet på en tablet ved hjælp af en VPN

Som pr Surfshark's Attitudes Towards Privacy Survey 2022, 90 % af internetbrugerne er enige i, at online privatliv er vigtigt for dem. Og 32 % angiver, at kvaliteten af ​​tjenesterne er vigtigere end privatlivets fred.

Hvis du skal udforske den nyeste AI-teknologi for at arbejde hurtigere, så gå efter det. Men brug et par minutter på at læse dens privatlivspolitik. Og se efter fravalg af datadeling.

Begynd at administrere dit privatliv med enheden i hånden eller på din pc. Brug en VPN til at browse og nægt lagringstilladelser til apps, du ikke bruger.

Vidste du, at du kan rydde op i dit digitale fodaftryk regelmæssigt? Og fravælge databaser af datamæglere hvem indsamler dine personlige oplysninger?

Tag dit privatliv tilbage med Incogni

Datamæglere søger altid at stjæle dine personlige oplysninger fra offentlige registre og gennem dine browservaner. Hvis du nærmest har prøvet solbriller, ville dit ansigt også være i en database.

Inkogni viser datamæglere, der sandsynligvis har kunders oplysninger, såsom CPR-nummer, fysisk adresse, helbredsoplysninger, telefonnummer eller e-mailadresse. Sådanne data sælges til investerings-, sundheds-, finans-, marketing- eller rekrutteringsvirksomheder. Eller bruges til at snyde dig eller fange dig i hvalfangstforsøg.

Alt dette kan resultere i uønskede annoncer, påvirke din låneberettigelse eller forsikringssatser og øge risikoen for cyberangreb.

Men Incogni sender anmodninger om fjernelse af data til datamæglere på dine vegne, selv efter at dine data er slettet, da datamæglere begynder at indsamle dine oplysninger igen.

Du kan overvåge processen og se potentielle fundne databaser, sendte anmodninger og afsluttede anmodninger på dit brugervenlige Incogni-dashboard.

Du kan tage dit privatliv tilbage nu ved at tage en 1-års Incogni-abonnement med 50 % rabat— kun $6,49 pr. måned — og hold dine data væk fra markedet og sikre.

AI og dit privatliv: Behovet for en revolutionær balance

Denne nye fremtid for kunstig intelligens er utvivlsomt tilbøjelig til privatlivsrisici, hvilket gør det vigtigt at håndtere disse. Og Incogni kunne være en vej ud.

Faktisk er forandringshjulet for at regulere kunstig intelligens-virksomheder og beskytte dit privatliv begyndt at rulle. Forhåbentlig vil det tage fart at blive en revolution som AI – og udfylde behovet for en afbalanceret tilgang til AI-udvikling og beskyttelse af privatlivets fred.

Dette er et sponsoreret indlæg. Produktvalgene og meningerne udtrykt i denne artikel er fra sponsoren og afspejler ikke MakeUseOfs eller dets personales redaktionelle retning.