Apple ha avanzato una posizione pubblica eccezionale e articolata nei confronti del Digital Markets Act (DMA) dell‘Unione Europea, introducendo per la prima volta il modello di sicurezza "Trusted OS Agent". Nel documento di 38 pagine, il produttore contesta le misure interlocutorie (Draft Measures, DM) inviate dalla Commissione europea a Google nel mese di aprile, evidenziando gravi minacce alla protezione dei dati, alla privacy e alla stabilità degli apparecchi. L‘iniziativa si basa sull‘articolo 6(7) del DMA, che obbliga Google entro giugno 2026 a condividere accesso esteso agli strumenti di Android con gli assistenti AI concorrenti.

Obiezioni di Apple alle normative dell‘UE

Il produttore critica le restrizioni temporanee per la scarsa considerazione delle minacce poste dagli scenari AI in un periodo storico di aumento esponenziale delle frodi digitali. Apple sottolinea che gli interventi esporranno funzioni critiche del sistema operativo a possibili sfruttamenti malintenzionati: microfono sempre acceso, accesso diretto agli schermi, controllo trans-applicativo e risorse di sistema privilegiate. Secondo il gruppo, la Commissione europea sta conducendo un esperimento sperimentale per l‘sicurezza globale e i dati sensibili dei consumatori UE.

Collaborazione e critiche interne

L‘azienda accusa la Commissione europea di ignorare le iniziative dell‘proprio ufficio per la digitalizzazione e la governance AI. Kyle Andeer, esperto di regolamentazione di Apple, aveva già denunciato il mancato coinvolgimento del Comitato UE per la Protezione dei Dati (EDPB) e dell‘autorità europea per la sicurezza informatica (ENISA) nonostante ripetuti richieste. Apple insiste sul fatto che la mancanza di valutazioni esterne compromette la capacità dell‘Unione Europea di bilanciare innovazione e protezione civile.

Quattro rischi di sicurezza fondamentali

    • Attivazione vocale: Le norme permetterebbero le app di terze parti di registrare parole d‘ordine personalizzate, aumentando il rischio di utilizzo abusivo. Apple teme che i comandi vocali siano manipolati o registrati per lunghe ore.
    • Accesso ai dati sensibili: Le app potrebbero accedere ai messaggi, alle notifiche, ai contatti, agli schermi e alla lista delle applicazioni installate. Apple indica che questa combinazione di dati permetterebbe la costruzione di profili personali vulnerabili, esponendo informazioni mediche, sessuali e finanziarie.
    • Attacchi overlay: Il DMA impone di disabilitare le API di Android che bloccano la sovrapposizione di grafica da una app a un‘altra. Questo aprirebbe la porta alle truffe finanziarie, come quelle perpetrate dai Banking Trojan, che sfruttano questa tecnica per ingannare gli utenti.
    • Overload del dispositivo: L‘esecuzione simultanea di modelli AI per riconoscimento del risveglio vocale (Wake-Word) da diverse entità terza comporterebbe un consumo eccessivo di CPU. Apple osserva che un singolo modello su dispositivi analoghi occupa già il 50% delle risorse, causando riscaldamento, riduzione della batteria e lentezza di funzionamento.

Modello alternativo: “Trusted OS Agent”

Apple suggerisce un sistema protetto che abbia il controllo finale sull‘accesso alla funzionalità critiche del software. L‘agente operativo certificato verificherebbe in tempo reale le autorizzazioni richieste dagli assistenti AI di terze parti, assicurando compatibilità con i protocolli di sicurezza. Il modello è inteso come un compromesso tra apertura tecnologica e protezione legale, ma richiede l‘implementazione di un framework di gestione centrale e non decentralizzato.

La posizione di Apple solleva un dibattito sull‘equilibrio tra mercato aperto e innovazione sicura. L‘azienda rifiuta di aderire ai principi del DMA, sostenendo che le normative esistenti non tengano conto di un livello avanzato di integrazione AI. Tuttavia, il produttore non fornisce alternative concrete per le altre aziende, concentrando le soluzioni tecnologiche sul proprio ecosistema di dispositivi.