Apple annoncerede planer om at scanne dit iCloud-indhold for materiale om seksuelt misbrug af børn (CSAM) i august 2021 for at beskytte børn mod misbrug fra rovdyr.
Virksomheden planlagde at lancere en ny CSAM-detektionsfunktion i iCloud Photos, der ville scanne for sådant indhold og rapportere matchende billeder til Apple, mens brugernes privatliv bevares.
Den nye funktion blev dog mødt med blandede reaktioner. Over et år siden den første meddelelse dropper Apple officielt sin plan om at scanne iCloud Photos for CSAM.
Apple dropper sin plan om at scanne iCloud for materiale om misbrug af børn
Ifølge en rapport fra KABLET, Apple går væk fra sin plan om at scanne din iCloud for indhold af misbrug af børn. Værktøjet ville scanne billeder gemt på iCloud for at finde dem, der matcher kendte CSAM-billeder som identificeret af børns sikkerhedsorganisationer. Det kunne derefter rapportere disse billeder, fordi besiddelse af CSAM-billeder er ulovligt i de fleste jurisdiktioner, inklusive USA.
Hvorfor Apple annullerede sin plan om at scanne iCloud-fotos
Efter den første meddelelse i 2021, mødte Apple modreaktioner fra kunder, grupper og enkeltpersoner, der gik ind for digitalt privatliv og sikkerhed på verdensplan. iPhones tilbyder typisk mere sikkerhed end Android-enheder, og mange betragtede dette som et skridt tilbage. Selvom det var en sejr for børnesikkerhedsorganisationer, skrev over 90 politiske grupper et åbent brev til Apple senere samme måned, hvor de fortalte virksomheden at annullere planen.
Brevet argumenterede, at mens værktøjet har til hensigt at beskytte børn mod overgreb, kunne det udnyttes til at censurere ytringsfrihed og true brugernes privatliv og sikkerhed. På grund af stigende pres stoppede Apple sine lanceringsplaner for at indsamle feedback og foretage nødvendige justeringer af funktionen. Feedback favoriserede dog ikke Apples plan om at scanne iCloud Photos, så virksomheden dropper officielt planerne for altid.
I en erklæring til WIRED sagde virksomheden:
"Vi har... besluttede ikke at gå videre med vores tidligere foreslåede CSAM-detektionsværktøj til iCloud-fotos. Børn kan beskyttes, uden at virksomheder gennemsøger personlige data, og vi vil fortsætte med at arbejde med regeringer, børneadvokater og andre virksomheder for at hjælpe med at beskytte unge mennesker, bevare deres ret til privatliv og gøre internettet til et mere sikkert sted for børn og for os alle."
Apples nye plan for at beskytte børn
Apple omdirigerer sine bestræbelser på at forbedre kommunikationssikkerhedsfunktionerne, der blev annonceret i august 2021 og lanceret i december samme år.
Kommunikationssikkerhed er valgfri og kan bruges af forældre og værger til at beskytte børn mod både at sende og modtage seksuelt eksplicitte billeder i iMessage. Funktionen slører automatisk sådanne billeder, og barnet vil blive advaret om de involverede farer. Det advarer også nogen, hvis de forsøger at søge efter CSAM på Apple-enheder.
Med planerne om at lancere et CSAM-detektionsværktøj aflyst, ser virksomheden frem til at forbedre funktionen yderligere og udvide den til flere kommunikationsapps.