[ad_1]
Aggiornamento Apple
Iscriviti a myFT Daily Digest e sii il primo a conoscere le novità di Apple Inc.
Secondo persone che hanno familiarità con i suoi piani, Apple intende installare sull’iPhone statunitense un software per scansionare immagini di abusi sui minori, cosa che ha destato l’allarme dei ricercatori di sicurezza, che hanno avvertito che potrebbe aprire i dispositivi personali di milioni di persone. porta.
Secondo due ricercatori di sicurezza che hanno ascoltato il briefing della conferenza virtuale, Apple all’inizio di questa settimana ha dettagliato il suo sistema proposto chiamato “neuralMatch” ad alcuni studiosi americani. Hanno detto che questi piani potrebbero essere annunciati più ampiamente già questa settimana.
Se il sistema automatizzato ritiene che sia stata rilevata un’immagine illegale, avviserà in modo proattivo un gruppo di revisori umani e quindi, se il materiale può essere verificato, contatteranno le forze dell’ordine. Il piano sarà inizialmente lanciato solo negli Stati Uniti.
Apple ha rifiutato di commentare.
Queste proposte sono il tentativo di Apple di trovare un compromesso tra il suo impegno a proteggere la privacy dei clienti e le continue richieste del governo, delle forze dell’ordine e degli attivisti per la sicurezza dei bambini di fornire maggiore assistenza nelle indagini penali, tra cui terrorismo e pornografia infantile.
Aziende tecnologiche come Apple e Facebook hanno difeso il loro crescente utilizzo della crittografia nei loro prodotti e servizi e le tensioni tra le forze dell’ordine sono state segnalate dal produttore di iPhone all’FBI nel 2016 per aver acquisito l’iPhone di un sospetto terrorista Si è intensificata da quando è andato in tribunale. Dopo la sparatoria a San Bernardino, in California.
Sebbene i ricercatori di sicurezza sostengano gli sforzi per combattere gli abusi sui minori, temono che Apple possa consentire ai governi di tutto il mondo di cercare l’accesso ai dati personali dei suoi cittadini, il che potrebbe andare ben oltre la sua intenzione originale.
“Questa è un’idea assolutamente scioccante, perché porterà ai nostri telefoni cellulari e laptop”, ha affermato Ross Anderson, professore di ingegneria della sicurezza presso l’Università di Cambridge.
I ricercatori hanno affermato che sebbene il sistema sia attualmente addestrato per rilevare gli abusi sessuali su minori, può essere adattato per scansionare qualsiasi altra immagine e testo mirato, come decapitazioni terroristiche o segni antigovernativi nelle proteste. Il precedente di Apple potrebbe anche aumentare la pressione su altre aziende tecnologiche affinché utilizzino tecnologie simili.
“Questo romperà la diga: il governo richiederà a tutti di farlo”, ha affermato Matthew Green, professore di sicurezza presso la Johns Hopkins University, considerato il primo ricercatore Invia un tweet su questo problema.
Il ricercatore di sicurezza e attivista per la privacy Alec Muffett (Alec Muffett), un ricercatore di sicurezza e attivista per la privacy che ha lavorato presso Facebook e Deliveroo, ha affermato che la mossa di Apple è stata “strutturale” e un “grande passo indietro nella privacy personale”.
“Apple sta restituendo la privacy per abilitare 1984,” Lui dice.
I sistemi di archiviazione di foto basati su cloud e i siti di social network hanno scansionato immagini di abusi sui minori, ma il processo diventa più complicato quando si tenta di accedere ai dati archiviati su dispositivi personali.
Alan Woodward, professore di sicurezza informatica presso l’Università del Surrey, ha affermato che il sistema Apple è meno invadente perché lo screening viene effettuato su un telefono cellulare e “le notifiche vengono inviate ai ricercatori solo quando c’è una corrispondenza”. “Se segui davvero questa strada, questo approccio decentralizzato è l’approccio migliore che puoi adottare”.
L’algoritmo neuralMatch di Apple scansiona continuamente le foto archiviate sull’iPhone degli utenti statunitensi e le carica sul suo sistema di backup iCloud. La foto dell’utente viene convertita in una stringa di numeri attraverso un processo chiamato “hashing”, che verrà confrontata con le foto in un database di immagini note di abusi sessuali su minori.
Il sistema è stato addestrato su 200.000 immagini di abusi sessuali raccolte dal National Center for Missing and Exploited Children statunitense senza scopo di lucro.
Secondo persone che hanno familiarità con la questione, ogni foto caricata su iCloud negli Stati Uniti riceverà un “certificato di sicurezza” che indica se è sospetta. Una volta che un certo numero di foto è contrassegnato come sospetto, Apple decrittograferà tutte le foto sospette e le trasmetterà alle autorità competenti se è chiaramente illegale.
[ad_2]
Source link