
“C’è stata molta confusione intorno alla nostra comunicazione”, ha detto Craig Federighi (nella foto), capo di Apple, in un’intervista al Wall Street Journal.
Il dirigente ha chiarito la sua posizione in merito al nuovo software ideato dalla società per combattere la pornografia infantile anche se il nuovo servizio ha sollevato preoccupazioni sulla difesa della privacy per l’iPhone. Federighi ha evidenziato che il nuovo sistema sarà verificabile pur ammettendo degli errori nella presentazione della scorsa settimana dei due nuovi strumenti.
Il primo ha l’obiettivo di identificare le immagini sessualmente esplicite di bambini memorizzate nel servizio di cloud storage della società, mentre il secondo permetterà ai genitori di monitorare meglio quali immagini vengono condivise con e dai loro figli attraverso i messaggi di testo.
“Molti messaggi sono stati confusi in termini di comprensione delle cose”, ha spiegato Federighi. “Avremmo voluto che la novità fosse più chiara per tutti, perché ci sentiamo sicuri di quello che stiamo facendo”. Il gruppo di Cupertino si è costruito una reputazione per difendere la privacy degli utenti e l’azienda ha inquadrato i nuovi strumenti come un modo per continuare su questa linea, tutelando anche i bambini. Apple e altre aziende tecnologiche hanno affrontato la pressione dei governi di tutto il mondo che chiedevano accesso ai dati degli utenti per sradicare la pornografia infantile illegale. Gli sforzi di Apple si è così attirata sia lodi che critiche. Una lettera aperta contro queste tecnologie è stata firmata da varie Ong e oltre 7.700 persone, tra cui l’ex informatico della Cia e whistleblower Edward Snowden.
Il dubbio principale è se Apple può usare il software che identifica il materiale illegale senza che il sistema sia sfruttato da altri soggetti, come per esempio i governi. Tesi che Apple nega fortemente. Federighi ha spiegato che i nuovi sistemi sarà protetto da “più livelli di verificabilità”.
“Noi ci consideriamo assolutamente all’avanguardia sulla privacy, vediamo quello che stiamo facendo come un avanzamento dello stato dell’arte nella privacy, per consentire un mondo più privato”, ha aggiunto Federighi. Uno degli strumenti, annunciato la scorsa settimana, prevede un allarme nel momento in cui qualcuno carica foto pornografiche di bambini sul servizio di cloud storage della società, noto come iCloud. A differenza di altri fornitori di cloud, Apple non scansiona tutto ciò che si trova nell’account online di un utente. Apple ha ideato un mezzo per identificare le immagini sull’iPhone che corrispondono a un database di immagini illegali conosciute. Se una persona non carica mai immagini su iCloud, allora Apple non verrà avvisata. Se un numero sufficiente di immagini offensive viene caricato su iCloud, il sistema avvisa Apple e l’azienda controlla quelle specifiche immagini per confermare che siano vietate prima di segnalarle al National Center for Missing and Exploited Children, il centro per le segnalazioni di abusi sui minori.