I august 2021 afslørede Apple sine planer om at scanne iPhones efter billeder af seksuelt misbrug af børn. Dette skridt applaus fra børnebeskyttelsesgrupper, men rejste bekymring blandt privatlivs- og sikkerhedsexperter om, at funktionen kunne misbruges.

Apple planlagde oprindeligt at inkludere scanningsteknologien CSM (Child Sexual Abuse Material) i iOS 15; det har i stedet på ubestemt tid forsinket funktionens udrulning for at anmode om feedback før den blev frigivet fuldstændigt.

Så hvorfor blev CSAM -detekteringsfunktionen genstand for heftig debat, og hvad fik Apple til at udsætte udrulningen?

Hvad gør Apples fotoskanningsfunktion?

Apple annoncerede at implementere fotoscanningsfunktionen i håb om at bekæmpe seksuelt misbrug af børn. Alle billederne på enhederne af Apple -brugere scannes for pædofili indhold ved hjælp af "NueralHash" -algoritmen oprettet af Apple.

Derudover vil alle Apple -enheder, der bruges af børn, have en sikkerhedsfunktion, der automatisk vil sløre voksne billeder, hvis de modtages af et barn, og brugeren ville blive advaret to gange, hvis de forsøgte at åbne dem.

instagram viewer

Bortset fra at minimere eksponering for voksenindhold, hvis forældre registrerer de enheder, der ejes af deres børn til ekstra sikkerhed, ville forældrene blive underrettet, hvis barnet modtager eksplicit indhold fra nogen online.

Læs mere: Hvad du behøver at vide om Apples beskyttelse af børnesikkerhed

Hvad angår voksne, der bruger Siri til at lede efter alt, hvad der seksualiserer børn, foretager Siri ikke den søgning og foreslår andre alternativer i stedet.

Data fra enhver enhed, der indeholder 10 eller flere fotos, der anses for mistænkelige af algoritmerne, vil blive dekrypteret og udsat for menneskelig gennemgang.

Hvis disse fotos eller andre på enheden viser sig at matche noget fra databasen leveret af Nationalt center for savnede og udnyttede børn, vil det blive rapporteret til myndighederne, og brugerens konto vil blive suspenderet.

Vigtigste bekymringer vedrørende fotoskanningsfunktionen

CSAM -detekteringsfunktionen ville være gået live med lanceringen af ​​iOS 15 i september 2021, men i ansigtet af udbredt ramaskrig, besluttede Apple at tage mere tid til at indsamle feedback og foretage forbedringer af dette funktion. Her er Apples fulde erklæring om forsinkelsen:

"I sidste måned annoncerede vi planer om funktioner til formål at hjælpe med at beskytte børn mod rovdyr, der bruge kommunikationsværktøjer til at rekruttere og udnytte dem og begrænse spredningen af ​​seksuelt misbrug af børn Materiale.

Baseret på feedback fra kunder, fortalergrupper, forskere og andre, har vi besluttet at tage ekstra tid de kommende måneder for at indsamle input og foretage forbedringer, inden vi frigiver denne kritisk vigtige børnesikkerhed funktioner".

Næsten halvdelen af ​​bekymringerne vedrørende Apples fotoscanningsfunktion drejer sig om privatlivets fred; resten af ​​argumenterne inkluderer den sandsynlige unøjagtighed af algoritmer og potentiel misbrug af systemet eller dets smuthuller.

Lad os dele det op i fire dele.

Mulig misbrug

At vide, at materiale, der matcher børnepornografi eller kendte billeder af seksuelt misbrug af børn, vil få en enhed ind på listen "mistænkelig", kan sætte cyberkriminelle i gang.

De kan forsætligt bombardere en person med upassende indhold via iMessage, WhatsApp eller andre midler og få personens konto suspenderet.

Apple har forsikret, at brugere kan klage, hvis deres konti er blevet suspenderet på grund af en misforståelse.

Insidermisbrug

Selvom den er designet til en velvillig årsag, kan denne funktion blive til en total katastrofe for visse mennesker, hvis deres enheder er registreret i systemet, med eller uden deres viden, af pårørende, der er interesseret i at overvåge deres kommunikation.

Selvom det ikke sker, har Apple oprettet en bagdør for at gøre brugernes data tilgængelige i slutningen af ​​dagen. Nu er det et spørgsmål om motivation og beslutsomhed for folk at få adgang til andres personlige oplysninger.

Relaterede: Hvad er en bagdør, og hvad gør den?

Det letter ikke kun et stort brud på privatlivet, men baner også vejen for krænkende, giftige eller kontrollerende slægtninge, værger, venner, kærester, omsorgspersoner og ekser for yderligere at invadere nogens personlige rum eller begrænse deres frihed.

På den ene side er det beregnet til at bekæmpe seksuelt misbrug af børn; på den anden side kan den bruges til at videreføre andre former for misbrug.

Regeringens overvågning

Apple har altid fremført sig selv som et mere privatlivsbevidst mærke end sine konkurrenter. Men nu går det måske ind på en glat skråning af at skulle opfylde de uendelige krav om gennemsigtighed i brugerdata fra regeringer.

Systemet, det har oprettet til at detektere pædofili indhold, kan bruges til at registrere enhver form for indhold på telefoner. Det betyder, at regeringer med en kultmentalitet kan overvåge brugere på et mere personligt plan, hvis de får fingrene i det.

Undertrykkende eller ej, regeringens engagement i dit daglige og personlige liv kan være ubehageligt og er en krænkelse af dit privatliv. Tanken om, at du kun behøver at være bekymret for sådanne invasioner, hvis du har gjort noget forkert, er fejlagtig tankegang og kan ikke se den førnævnte glatte skråning.

Falske alarmer

En af de største bekymringer ved at bruge algoritmer til at matche billeder med databasen er falske alarmer. Hashing -algoritmer kan fejlagtigt identificere to fotos som kampe, selvom de ikke er de samme. Disse fejl, kaldet "kollisioner", er især alarmerende i forbindelse med indhold om seksuelt misbrug af børn.

Forskere fandt flere kollisioner i "NeuralHash", efter at Apple meddelte, at de ville bruge algoritmen til at scanne billeder. Apple besvarede forespørgsler om falske alarmer ved at påpege, at resultatet vil blive gennemgået af et menneske i slutningen, så folk behøver ikke bekymre sig om det.

Er Apples CSAM -pause permanent?

Der er mange fordele og ulemper ved Apples foreslåede funktion. Hver af dem er ægte og holder vægt. Det er stadig uklart, hvilke specifikke ændringer Apple kunne introducere til CSAM-scanningsfunktionen for at tilfredsstille sine kritikere.

Det kan begrænse scanningen til delte iCloud -album i stedet for at involvere brugernes enheder. Det er meget usandsynligt for Apple at droppe disse planer helt, da virksomheden typisk ikke er tilbøjelig til at give efter på sine planer.

Det er dog klart fra den udbredte modreaktion og Apples holdning til sine planer, det virksomheder bør indarbejde forskningsmiljøet fra begyndelsen, især for ikke -testede teknologi.

DelTweetE -mail
Internetsikkerhed: 50+ tips til at holde dine børn sikre online

Børn er primære mål for online rovdyr og cybermobber. Disse praktiske tips kan lære forældre, hvordan de kan beskytte dem online.

Læs Næste

Relaterede emner
  • Sikkerhed
  • IPhone
  • Beskyttelse af personlige oplysninger for smartphones
  • Æble
  • Online privatliv
  • Overvågning
Om forfatteren
Fawad Ali (19 artikler udgivet)

Fawad er en IT- og kommunikationsingeniør, håbefuld iværksætter og forfatter. Han trådte ind på arenaen for indholdsskrivning i 2017 og har siden arbejdet med to digitale marketingbureauer og adskillige B2B & B2C -klienter. Han skriver om sikkerhed og teknologi på MUO med det formål at uddanne, underholde og engagere publikum.

Mere fra Fawad Ali

Abonner på vores nyhedsbrev

Tilmeld dig vores nyhedsbrev for tekniske tips, anmeldelser, gratis e -bøger og eksklusive tilbud!

Klik her for at abonnere