Come usare l’intelligenza artificiale per mitigare il rischio cyber (Parte II)

di LUISA DI GIACOMO*

Siamo arrivati al termine di questo breve, ma speriamo interessante viaggio attraverso il ripensamento della cybersecurity in chiave umana, tenendo l’uomo al centro e passando dall’intelligenza umana a quella artificiale, senza farci spaventare dall’avvento delle macchine, ma anzi sfruttandole a nostro vantaggio. Dopo aver visto, la scorsa settimana, quali sono le principali debolezze di una strategia di prevenzione cyber tradizionale, vediamo oggi insieme quali sono le soluzioni possibili che ci vengono offerte dall’intelligenza artificiale.

Utilizzo di machine learning nella cybersecurity

Innanzi tutto, è bene precisare (forse ripetere, ma sappiamo che repetita iuvant) quando parliamo di soluzioni di sicurezza basate su machine learning, ci riferiamo ad un modello particolare di intelligenza artificiale, una sottocategoria possiamo dire. Il machine learning si concentra sull’apprendimento automatico da dati. Gli algoritmi di machine learning analizzano i dati, identificano modelli e traggono conclusioni senza essere esplicitamente programmati per compiti specifici. L’intelligenza artificiale, invece, rappresenta un campo più ampio che cerca di creare sistemi in grado di eseguire attività che richiedono intelligenza umana. Il machine learning è uno degli approcci utilizzati nell’ambito dell’IA.

Focus sulla precisione nel machine learning

Nel contesto del machine learning, la “precisione” si riferisce alla capacità di un modello di fornire risultati accurati o di apprendere da dati senza essere influenzato da rumore o variazioni casuali. Questo è particolarmente importante nella cybersecurity, dove, come abbiamo visto la scorsa settimana, errori di classificazione o errori umani potrebbero avere gravi conseguenze. Nel machine learning, gli algoritmi apprendono dai dati per ottimizzare le loro prestazioni per una specifica attività. L’obiettivo è trovare la soluzione più adatta, anche se non necessariamente ideale. Questo processo è spesso guidato dall’ottimizzazione di metriche specifiche, come la precisione o l’accuratezza.

Infine, arriva il momento più importante, in cui l’interpretazione dei risultati e la comprensione del contesto devono essere effettuati ed è qui che entra in gioco la responsabilità umana. Gli operatori umani devono valutare la validità delle conclusioni del modello e adottare decisioni informate in base alle informazioni fornite dal sistema di sicurezza. Il machine learning eccelle nell’affrontare attività noiose e complesse, come l’identificazione di modelli in grandi volumi di dati. Vediamo qualche esempio pratico.

Classificazione dei dati. La classificazione dei dati può utilizzare algoritmi di machine learning per assegnare automaticamente categorie a diverse tipologie di dati. Nel contesto della sicurezza informatica, ciò significa etichettare i dati in base alle caratteristiche che possono indicare attività dannose o innocue.
Applicazione pratica: Un sistema di rilevamento delle minacce può utilizzare la classificazione dei dati per identificare automaticamente i comportamenti sospetti, generando avvisi quando rileva attività potenzialmente dannose.

Clustering dei dati. Il clustering dei dati può impiegare algoritmi di machine learning per raggruppare insieme dati simili o anomali. In termini di sicurezza informatica, questo significa identificare modelli o comportamenti inattesi che potrebbero indicare un attacco. Ad esempio, il clustering potrebbe evidenziare gruppi di attività anomale che potrebbero costituire una minaccia.
Applicazione pratica: Un sistema di sicurezza potrebbe utilizzare il clustering per individuare nuovi tipi di attacchi o per evidenziare modelli di comportamento anomalo che non erano noti in precedenza.

Linee guida. Le linee guida da adottare presso l’Ente potrebbero coinvolgere l’uso di modelli di machine learning per fornire suggerimenti su come rispondere a una minaccia. Questi suggerimenti si basano su modelli comportamentali passati e decisioni precedenti. Ad esempio, se in passato è stata intrapresa una specifica azione in risposta a un certo tipo di attacco, il sistema può suggerire di adottare una strategia simile in futuro.
Applicazione pratica: Un sistema di sicurezza potrebbe utilizzare le linee guida consigliate per automatizzare alcune risposte alle minacce, migliorando così l’efficienza delle operazioni di sicurezza.

Nuovi scenari basati su apprendimento precedente. Se è vero che gli umani imparano dai propri errori, a maggior ragione si può dire delle macchine, che sarebbero in grado di creare nuove prospettive o scenari basati sull’apprendimento da dati precedenti e nuovi set di dati. In termini pratici, significa utilizzare il machine learning per identificare possibili scenari futuri basati su ciò che è stato osservato in passato.
Applicazione pratica: Un sistema di sicurezza potrebbe utilizzare la sintesi delle possibilità per anticipare nuovi punti deboli o scenari di minaccia, consentendo agli operatori di adottare misure preventive prima che si verifichino.

Previsione predittiva. La previsione predittiva coinvolge l’uso di modelli di machine learning per anticipare potenziali risultati futuri. Nel contesto della sicurezza informatica, questo significa prevedere e prepararsi per le minacce emergenti valutando i dati esistenti.
Applicazione pratica: Un sistema di previsione predittiva potrebbe essere utilizzato per identificare potenziali nuove modalità di attacco o per prevedere possibili vulnerabilità nei sistemi, consentendo alle organizzazioni di adottare misure preventive o correttive in anticipo.

Ma come si fa in pratica?

Abbracciare il futuro della cybersecurity richiede un approccio olistico che comprenda investimenti tecnologici, integrazione di intelligenza artificiale, aggiornamenti regolari alle politiche e una cultura di collaborazione e formazione continua all’interno dell’organizzazione. Come abbiamo detto più volte, è necessario un cambiamento radicale di mentalità e un incremento sostanziale delle competenze, perché tutto questo non è futuro lontano, stiamo parlando del presente e, come spesso diciamo, se vogliamo ottenere risultati diversi e migliori dobbiamo smettere di fare sempre le stesse cose. Quindi:

  1. Investire in tecnologie avanzate:

chi più spende, meno spende e mai come in questo caso si tratta di pura verità. Mantenere tecnologie obsolete o affidarsi a metodologie manuali può esporre a rischi maggiori, che sì possono farci risparmiare nell’immediato, ma che ci potrebbero costare care in futuro. Molto, molto care.

  1. Integrare l’intelligenza artificiale nei team IT:

Integrare l’intelligenza artificiale nei team IT consente di sfruttare al massimo le capacità di apprendimento automatico, senza sostituire completamente il personale. La collaborazione tra intelligenza artificiale e team umani crea un ambiente di sicurezza più resiliente.

  1. Aggiornare i criteri di gestione dei dati:

Mantenere i criteri di gestione dei dati allineati alle normative sulla privacy è essenziale per evitare sanzioni e proteggere la reputazione dell’ente. Poiché le normative cambiano, è importante aggiornare regolarmente le politiche e i protocolli.

  1. Implementare misure di sicurezza proattive:

Passare da un approccio reattivo a uno proattivo alla sicurezza può ridurre il rischio di exploit. Utilizzare l’intelligenza artificiale per identificare potenziali vulnerabilità e adottare misure preventive prima che si verifichino gli incidenti.

  1. Favorire la collaborazione e la formazione continua:

Ultimo, ma di certo non meno importante, creare un ambiente che favorisca la collaborazione tra i team di sicurezza, promuovendo la condivisione di conoscenze e l’apprendimento continuo. L’organizzazione di sessioni di formazione regolari, che incentivino la partecipazione, la cultura della sicurezza dei dati e delle nuove tecnologie al servizio dei dipendenti e quindi dell’ente, per la sua maggiore efficienza, è certamente e senza alcun dubbio il passo numero uno da compiere per ripensare la strategia di cybersicurezza in chiave umana per il tramite dell’intelligenza artificiale, in un contesto in cui saranno i robot al servizio dell’essere umano e mai viceversa.

>> L’ARCHIVIO INTEGRALE DELLA RUBRICA DELL’AVV. LUISA DI GIACOMO.

DPO in pillole: privacy e cybersecurity* Luisa Di Giacomo è avvocato da oltre quindici anni, dal 2012 è consulente privacy presso diverse aziende nel nord Italia e dal 2018 ricopre l’incarico di DPO presso diverse Pubbliche Amministrazioni (Comuni, Enti di ricerca, Enti socio assistenziali) e società private. Dal 2022 fa parte del pool di consulenti esperti in Data Protection Law istituito presso l’European Data Protection Board.
Formata nell’ambito del diritto civile e commerciale, negli ultimi dieci anni si è dedicata in via esclusiva al diritto di internet, delle nuove tecnologie, della protezione dei dati personali e della cybersecurity.
Ha svolto periodi di studio e di lavoro all’estero, è docente e formatore per Maggioli spa, responsabile della sezione cybersecurity del portale diritto.it, redattrice per la Gazzetta degli Enti Locali.
Parla inglese e francese a livello madrelingua, ed ha una discreta conoscenza dello spagnolo e del portoghese.
Ama scrivere narrativa e dedicarsi all’attività di formazione in aula e online, già autrice per La Gazzetta degli Enti Locali della rubrica I martedì della cybersecurity.
Le piace definirsi Cyberavvocato.

 

© RIPRODUZIONE RISERVATA

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *