I rapidi progressi dell’intelligenza artificiale (IA) stanno aprendo nuove possibilità per il nostro modo di lavorare e accelerando l’innovazione in campo scientifico, tecnologico e non solo. Nel campo della cybersecurity, l’IA è pronta a trasformare la difesa digitale, potenziando i difensori e migliorando la nostra sicurezza collettiva. I modelli linguistici di grandi dimensioni (LLM) aprono nuove possibilità per i difensori, dal vaglio della telemetria complessa alla codifica sicura, alla scoperta di vulnerabilità e alla semplificazione delle operazioni. Tuttavia, alcune di queste stesse capacità dell’IA sono disponibili anche per gli aggressori, il che comporta comprensibili ansie riguardo al potenziale uso improprio dell’IA per scopi dannosi.
Gran parte dell’attuale discorso sull’uso improprio dell’IA da parte degli attori delle minacce informatiche si limita alla ricerca teorica. Se da un lato questi studi dimostrano il potenziale di sfruttamento malevolo dell’IA, dall’altro non riflettono necessariamente la realtà di come l’IA viene attualmente utilizzata dagli attori delle minacce in natura. Per colmare questa lacuna, condividiamo un’analisi completa di come gli attori delle minacce hanno interagito con Gemini, l’assistente di Google dotato di intelligenza artificiale. La nostra analisi si è basata sull’esperienza del Threat Intelligence Group (GTIG) di Google, che combina decenni di esperienza nel seguire gli attori delle minacce in prima linea e nel proteggere Google, i nostri utenti e i nostri clienti da aggressori sostenuti da governi, exploit 0-day mirati, operazioni informative coordinate (IO) e reti di criminalità informatica gravi.