Ad oggi, tuttavia, sono stati pubblicati pochi contenuti sui possibili attacchi a sistemi completi costruiti con l’AI come parte integrante di più componenti. Questo dipende in gran parte dal fatto che questo tipo di tecnologia è emersa solo recentemente.
L’ultima versione dell’AI generativa ChatGPT, ovvero GPT-4, è stata rilasciata solo pochi mesi fa. Pertanto, pensare di poter attaccarla con tecniche consolidate non è realistico. Tuttavia, non abbiamo mai assistito ad una tecnologia che sia stata utilizzata in applicazioni reali con la stessa velocità dell’IA degli ultimi tempi.
Quando i prodotti e i servizi basati sull’AI diventeranno sempre più disponibili, ci troveremo di fronte a nuove tipologie di vulnerabilità da affrontare. Ecco alcuni esempi e spunti che possono essere utili sia agli operatori della sicurezza offensiva, sia a coloro che devono difendere e utilizzare questi sistemi.
È importante ricordare che la superficie di attacco dell’AI non si limita ai modelli. Il linguaggio naturale è diventato il principale mezzo di attacco per i sistemi di AI basati su LLM e può essere utilizzato per attaccare i componenti dei sistemi di AI in tutto lo stack.
(F.S)