Nel mondo della cyber security aziendale, le minacce evolvono costantemente. Uno degli attacchi più subdoli e tecnicamente sofisticati degli ultimi anni è l’Input Perturbation Attack.
Questo tipo di attacco prende di mira i sistemi di intelligenza artificiale e machine learning (AI/ML), sempre più utilizzati dalle imprese per automatizzare processi, analizzare dati e prendere decisioni.
In questo articolo esploreremo cos’è un Input Perturbation Attack, come può colpire le aziende e come difendersi.
Nel panorama della cybersecurity, una delle minacce più subdole e sofisticate che sta emergendo è l’Input Perturbation Attack.
Si tratta di un tipo di attacco avversariale che manipola in modo sottile i dati in ingresso a modelli di apprendimento automatico (machine learning), con l’obiettivo di farli classificare in modo errato o “ingannare” il sistema senza che l’alterazione venga rilevata dall’osservatore umano.
Anche sistemi di sicurezza come i sistemi di rilevamento delle intrusioni (IDS) basati su modelli ML possono risultare vulnerabili: bastano modifiche impercettibili ai dati in input per far sì che il sistema non riconosca un attacco reale o classifichi erroneamente traffico legittimo come pericoloso.
Modifiche minime, effetto massiccio: l’attaccante apporta perturbazioni lievi — spesso inesistenti per il giudizio umano — ma sufficienti a ingannare il modello.
Attacchi “evasivi” (evasion attacks): l’input perturbato mira a eludere i controlli di sicurezza, venendo a volte classificato come benigno anziché dannoso.
Ambiti di applicazione: non solo immagini, ma anche dati tabulari (es. metadati utenti, accessi, log di rete) sono bersaglio di questo tipo di attacco.
Tecniche di difesa: per contrastare l’attacco, si possono usare tecniche come l’addestramento avversariale (includere esempi perturbati nel dataset), la sanificazione degli input, l’uso di modelli robusti e la verifica di coerenza dei dati.
Per le organizzazioni che rientrano nell’ambito della Direttiva NIS2, la comparsa di attacchi sofisticati come gli input perturbation attack rafforza la necessità di adottare misure tecniche avanzate:
Occorre che le imprese non considerino i modelli ML come “scatole sicure”, ma verifichino la robustezza contro attacchi avversariale.
Le linee guida tecniche di enti come ENISA (già citate nel vostro portale) dovranno tenere conto anche di queste minacce emergenti, traducendo i principi generali in misure concrete applicabili ai modelli AI/ML.
Durante auditorie e controlli, gli strumenti di verifica dovranno considerare scenari di manipolazione sottile dei dati e non solo attacchi “classici”.