Tecnologia

Un’IA ha scritto un exploit zero-day funzionante — Google l’ha intercettato per primo

Susan Hill

L’exploit prendeva di mira l’autenticazione a due fattori, lo strato di verifica che protegge la maggior parte degli account che contano: posta, banca, archiviazione in cloud, accessi di lavoro. La vulnerabilità, un difetto di logica semantica nel codice Python dello strumento, permetteva a un aggressore già in possesso di credenziali rubate di superare il controllo 2FA innescando un’eccezione codificata che gli sviluppatori non avevano mai voluto esporre. Google ha individuato il bug, lo ha comunicato al fornitore perché rilasciasse una patch e ha disinnescato l’attacco previsto prima che cominciasse. Ciò che rende la scoperta una novità non è il bug in sé, ma il modo in cui è stato trovato.

Gli analisti di Google sostengono che il codice dell’exploit portasse impronte inconfondibili di un grande modello linguistico: commenti in stile tutorial, formattazione molto strutturata, uno stile di scrittura che descrivono come tipico dei dati di addestramento di un LLM. Il team ha concluso con alta confidenza che a portare il peso della scoperta e della trasformazione in arma sia stata un’IA, e non una persona che lavora da sola. L’azienda colpita, la banda criminale e il nome dello strumento restano non divulgati.

La distinzione conta perché il difetto trovato è esattamente quello che si supponeva le macchine non sapessero individuare. Gli scanner classici cercano crash e corruzioni di memoria. Questo era una contraddizione tra la logica di applicazione del 2FA e un’eccezione codificata a mano — il tipo di bug che un revisore attento può scoprire leggendo migliaia di righe di codice in cerca di incoerenze. I modelli più avanzati, nota Google, sanno fare questa lettura contestuale a velocità che nessun team di audit può sostenere.

Il rapporto descrive anche uno schema più ampio che non riguarda le bande criminali. Un cluster vicino a Pechino, tracciato come UNC2814, ha usato l’IA per accelerare la ricerca di vulnerabilità sui dispositivi embedded. APT45, gruppo nordcoreano, ha alimentato un modello con migliaia di prompt ripetitivi per analizzare ricorsivamente le voci del catalogo CVE e validare prove di concetto. Operatori diversi, stessa tecnica: trasformare il modello in un assistente di ricerca instancabile.

Il racconto di Google ha limiti che vanno indicati. La società non ha reso noto né lo strumento colpito, né l’attore della minaccia, né il calendario della patch, e chiede ai lettori di fidarsi della conclusione sulle impronte dell’IA solo sulla base della sua analisi interna. Nessuna delle conferme indipendenti pubblicate questa settimana aggiunge un esame forense indipendente del codice dell’exploit. La valutazione di alta confidenza è la parola di GTIG contro il silenzio della banda criminale. Resta anche vero che il difetto di fondo — un’eccezione codificata a mano — è esattamente il tipo di errore che gli sviluppatori umani commettono da decenni senza alcun aiuto dell’IA. Il modello può aver accelerato la scoperta; il bug è più vecchio del sistema che lo ha trovato.

Per la maggior parte degli utenti non c’è un’azione immediata — il bug è in software gestito dai team IT, non sui dispositivi personali — ma l’implicazione di fondo è diretta. Il perimetro difensivo su cui ci affidiamo, dai gestori di password ai single sign-on aziendali, è stato pensato per attaccanti umani a velocità umana. Un aggressore assistito da IA legge una base di codice come un ingegnere esperto legge un paragrafo. I difensori dovranno imparare a fare lo stesso.

Quel che è confermato è che il fornitore colpito è stato avvisato e sta distribuendo la patch. L’analisi più ampia è stata pubblicata come parte della serie di intelligence sulle minacce di Google Cloud che traccia l’uso dell’IA nella sicurezza offensiva, l’11 maggio 2026. Il responsabile dell’analisi delle minacce di Google, John Hultquist, ha detto alla stampa nei giorni successivi che la corsa tra IA e difensori è già cominciata, non è imminente. Un rapporto di approfondimento sugli strumenti potenziati dall’IA è atteso entro la fine del secondo trimestre.

Discussione

Ci sono 0 commenti.