apple-uccide-il-suo-piano-per-scansionare-le-tue-foto-per-csam.-ecco-cosa-c'e-dopo

Ad agosto , Apple ha annunciato un piano per scansionare le foto che gli utenti archiviato in iCloud per materiale pedopornografico (CSAM). Lo strumento doveva preservare la privacy e consentire all’azienda di contrassegnare contenuti potenzialmente problematici e offensivi senza rivelare nient’altro. Ma l’iniziativa è stata controversa, e ha presto attirato critiche diffuse da parte di ricercatori sulla privacy e sicurezza e gruppi di diritti digitali che erano preoccupati che la capacità di sorveglianza stessa potesse essere abusato per minare la privacy e la sicurezza degli utenti iCloud in tutto il mondo. All’inizio di settembre ,

Apple ha dichiarato che avrebbe sospeso il lancio della funzione per “raccogliere input e apportare miglioramenti prima di rilasciare queste funzioni di sicurezza per bambini di fondamentale importanza”. In altre parole, un lancio era ancora in arrivo. Ora l’azienda afferma che in risposta al feedback e alle indicazioni ricevute, lo strumento di rilevamento CSAM per le foto di iCloud è morto.

Invece, Apple ha dichiarato a WIRED questa settimana , sta concentrando i propri sforzi e investimenti anti-CSAM sulle funzionalità di “Sicurezza della comunicazione”, che la società aveva inizialmente annunciato ad agosto 2021 e lanciato lo scorso dicembre. Genitori e tutori possono attivare le protezioni tramite gli account iCloud di famiglia. Le funzionalità funzionano in Siri, nella ricerca Spotlight di Apple e nella ricerca Safari per avvisare se qualcuno sta guardando o cercando materiale pedopornografico e fornisce risorse sul posto per segnalare il contenuto e chiedere aiuto. Inoltre, il fulcro della protezione è la sicurezza delle comunicazioni per i messaggi, che gli operatori sanitari possono impostare per fornire un avviso e risorse ai bambini se ricevono o tentano di inviare foto che contengono nudità. L’obiettivo è fermare lo sfruttamento minorile prima che accada o diventi radicato e ridurre la creazione di nuovi CSAM.

“Dopo un’ampia consultazione con esperti per raccogliere feedback sulla protezione dei minori iniziative che abbiamo proposto lo scorso anno, stiamo approfondendo il nostro investimento nella funzionalità di sicurezza delle comunicazioni che abbiamo reso disponibile per la prima volta a dicembre 2021″, ha dichiarato la società a WIRED in una dichiarazione. “Abbiamo inoltre deciso di non andare avanti con il nostro strumento di rilevamento CSAM precedentemente proposto per iCloud Photos. I bambini possono essere protetti senza che le aziende raccolgano i dati personali e continueremo a lavorare con i governi, i sostenitori dei bambini e altre aziende per aiutare a proteggere i giovani, preservare il loro diritto alla privacy e rendere Internet un luogo più sicuro per i bambini e per tutti noi .”

L’aggiornamento CSAM di Apple arriva insieme all’annuncio odierno che l’azienda sta espandendo notevolmente le sue offerte di crittografia end-to-end per iCloud, inclusa l’aggiunta della protezione per i backup e le foto archiviate sul servizio cloud. Gli esperti di sicurezza dei bambini e i tecnologi che lavorano per combattere il CSAM si sono spesso opposti a un’implementazione più ampia della crittografia end-to-end perché rende i dati degli utenti inaccessibili alle aziende tecnologiche, rendendo più difficile per loro scansionare e contrassegnare il CSAM. Allo stesso modo, le forze dell’ordine di tutto il mondo hanno citato il terribile problema degli abusi sessuali sui minori nell’opporsi all’uso e all’espansione di end-to- terminare la crittografia, sebbene molte di queste agenzie siano state storicamente ostili nei confronti della crittografia end-to-end in generale perché può rendere alcuni indagini più impegnative. La ricerca ha consistentemente mostrato, tuttavia, la crittografia end-to-end è uno strumento di sicurezza vitale per proteggere le persone diritti e che gli svantaggi della sua implementazione non superano i vantaggi.

Sicurezza delle comunicazioni per i messaggi è opt-in e analizza le immagini allegate che gli utenti inviano e ricevono sui propri dispositivi per determinare se una foto contiene nudità. La funzione è progettata in modo che Apple non abbia mai accesso ai messaggi, la crittografia end-to-end offerta da Messaggi non venga mai violata e Apple non venga nemmeno a sapere che un dispositivo ha rilevato nudità.

La società ha dichiarato a WIRED che, sebbene non sia pronta ad annunciare una tempistica specifica per l’espansione delle sue funzionalità di sicurezza delle comunicazioni, la società sta lavorando per aggiungere la possibilità di rilevare la nudità nei video inviati tramite Messaggi quando la protezione è abilitato. L’azienda prevede inoltre di espandere l’offerta oltre i messaggi alle sue altre applicazioni di comunicazione. In definitiva, l’obiettivo è consentire agli sviluppatori di terze parti di incorporare gli strumenti di sicurezza delle comunicazioni nelle proprie applicazioni. Più le funzionalità possono proliferare, afferma Apple, più è probabile che i bambini ottengano le informazioni e il supporto di cui hanno bisogno prima di essere sfruttati.