0 00 4 minuti 3 anni 12

(foto: Unsplash)

Apple ha annunciato di stare lavorando a nuovi strumenti per i propri dispositivi che rileveranno potenziali immagini di abusi sui minori. Negli Stati Uniti, le nuove versioni di iOs e iPadOs, che saranno lanciate il prossimo autunno, avranno nuove applicazioni per aiutare a limitare la diffusione di materiale pedopornografico. Apple lancerà una tecnologia che consentirà alla società di rilevare e segnalare alle forze dell’ordine materiale noto per abusi sessuali su minori, proteggendo anche la privacy degli utenti, secondo quello che riporta la società.

Apple ha dichiarato a TechCrunch che il rilevamento di materiale pedopornografico è una delle numerose nuove funzionalità per proteggere meglio i bambini che utilizzano i suoi servizi. Tra queste ci sono i filtri per bloccare le foto potenzialmente sessualmente esplicite inviate e ricevute tramite l’account iMessage di un bambino. Un’altra funzione interverrà quando un utente tenterà di cercare termini relativi a questi materiali tramite Siri e Cerca, con un avviso e una spiegazione.

L’implementazionepiù invasiva e potenzialmente controversa, secondo The Verge, è il sistema che esegue la scansione sul dispositivo prima che venga eseguito il backup di un’immagine in iCloud, chiamato Neural Hash. Questa intelligenza artificiale confronterà le immagini con un database fornito da organizzazioni per la protezione dei minori come il National Center for Missing & Exploited Children e altre. La notizia, poi confermata da Apple, è arrivata dal noto esperto di sicurezza Matthew Green, professore associato presso il Johns Hopkins Information Security Institute

La maggior parte dei servizi cloud – Dropbox, Google e Microsoft per citarne alcuni – esegue già la scansione dei file degli utenti alla ricerca di contenuti che potrebbero violare i loro termini di servizio o essere potenzialmente illegali. Apple ha resistito a lungo alla scansione dei file degli utenti nel cloud, offrendo agli utenti la possibilità di crittografare i propri dati prima che raggiungano i server iCloud. La crittografia end-to-end si sa, però, rende più difficile controllare crimini e potenziali abusi che corrono sui dispositivi mobili.

Apple ha giustificato questa svolta assicurando di avere aggiunto diverse restrizioni per proteggere la privacy degli utenti. La società ha riferito di non apprendere nulla sulle immagini che non corrispondono ai parametri noti per la pedopronografia e che il rischio che il sistema segnali erroneamente un account è estremamente basso. Apple esamina poi manualmente tutte le segnalazioni inviate.

La preoccupazione è però quella che Apple stia creando un precedente da cui è difficile tornare indietro. “Indipendentemente da quali siano i piani a lungo termine di Apple, hanno inviato un segnale molto chiaro. Secondo la loro (molto influente) opinione, è sicuro costruire sistemi che scansionano i telefoni degli utenti alla ricerca di contenuti proibiti”, ha scritto il professor Green.

The post Apple inizierà a scandagliare le foto di iCloud in cerca di pedopornografia appeared first on Wired.

Il nuovo sistema si basa su un database di immagini note di abusi e, almeno secondo la società, garantirà comunque la privacy degli utenti
The post Apple inizierà a scandagliare le foto di iCloud in cerca di pedopornografia appeared first on Wired.
Wired (Read More)

Dicci la tua, scrivi il tuo commento: