Anthropic Mythos e la strategia del miedo
Claude Mythos, presentato da Anthropic, ha destato scalpore nel 2026 per le sue capacità di rilevare vulnerabilità quasi impossibili da individuare. I creatori hanno scelto di non rilasciarlo pubblicamente, sottolineando che per garantire sicurezza ai sistemi digitali, è indispensabile affidarsi a tecnologie simili. L’approccio di paura e incertezza ha spinto gobierni e istituzioni finanziarie, come il Banco Centrale Europeo, a preparare misure cautelative. In un contesto di crescenti minacce informatiche, la promessa di Anthropic è diventata chiara: l’AI non serve solo per sviluppare codice, ma per proteggere i dati sensibili.
La replica di OpenAI: GPT-5.5-Cyber e Daybreak
OpenAI ha risposto all’annuncio di Anthropic con il modello GPT-5.5, seguito da una versione specializzata in analisi di sicurezza, GPT-5.5-Cyber. L’azienda ha definito l’approccio di Anthropic come una mossa da “marketing”, non prima di replicarlo lanciando Daybreak, un’iniziativa volta a integrare la IA con gli strumenti tradizionali di sicurezza. Tra le organizzazioni con accesso figurano giganti come Akamai, Cisco, Cloudflare e Oracle. Anche OpenAI ha adottato l’accordo di accesso limitato, permettendo scan di sicurezza e interazioni con il team vendite.
Google e la nuova frontiera delle minacce
Google, pur non presentando modelli competitivi, ha confermato l’allarme con un rapporto del suo Gruppo Intelligence sulle Minacce (GTIG). Gli esperti hanno rivelato di aver identificato e bloccato un exploit completamente sviluppato con AI. Sebbene l’azienda non abbia rivali dirette in questo campo, la sua posizione rafforza il messaggio condiviso da Anthropic e OpenAI: la tecnologia AI sarà la principale fonte di rischi informatici futuri.
La fine della finestra dei 90 giorni
La pratica di divulgare vulnerabilità con un periodo di 90 giorni prima del patching è messa in discussione. Himanshu Anand, esperto in sicurezza, ha spiegato come l’AI riesca a trasformare un exploit in strumento operativo in pochi minuti, rendendo inutile qualsiasi garanzia di tempo. “Se decine di ricercatori identificano lo stesso bug in sei settimane, ma l’IA crea un exploit in 30 minuti, a chi serve la finestra dei 90 giorni?” ha chiesto Anand, evidenziando il fallimento della vecchia logica di protezione.
I limiti di Anthropic Mythos
Nonostante le sue ambizioni, Mythos non è perfetto. Daniel Stenberg, sviluppatore di curl, ha sottolineato come l’AI abbia individuato cinque falle in un progetto complesso come curl (176mila righe di codice C), ma solo una fosse reale. Tre risultavano falsi positivi, mentre un altro non costituiva un serio problema di sicurezza. Stenberg ha ribadito che, anche migliorando, l’AI non supera in modo decisivo gli strumenti tradizionali, sebbene apprezzi il suo progresso nel campo dell’analisi del codice.
La guerra del mercato globale
Il confronto tra grandi player come Anthropic, OpenAI e Google definisce il panorama attuale. L’approccio basato sul miedo non è unico: ciascuna azienda cerca di posizionarsi come leader nello sviluppo di modelli di sicurezza, mentre i governi e le aziende si affannano ad adottare le nuove tecnologie. Gli sforzi commerciali sono paralleli, con Anthropic che si mantiene esclusiva rispetto a OpenAI e Google.
Casi concreti: Firefox e la verifica in tempo reale
Piattaforme come Firefox dimostrano l’efficacia di str