Intelligenza artificiale

Come l’AI generativa sta trasformando la sicurezza informatica

Le applicazioni spaziano dal rilevamento di codice open-source dannoso, all’identificazione di attacchi informatici generati dall’AI stessa. Un’arma a doppio taglio, in quanto può essere sia una risorsa che un rischio della sicurezza informatica

Aggiornato il 27 Ott 2023

Giovanni Sisinna

Direttore Program Management

L’intelligenza artificiale generativa sta rivoluzionando il campo della sicurezza informatica grazie alla sua capacità di analizzare grandi volumi di dati, identificare modelli e prevedere potenziali minacce. Le sue applicazioni spaziano dal rilevamento di codice open-source dannoso all’identificazione di attacchi informatici generati dall’IA.

Tuttavia, la potenza dell’IA generativa è un’arma a doppio taglio, in quanto costituisce sia una risorsa che un evidente rischio nella cybersecurity. Se da un lato può essere infatti utilizzata per migliorare il rilevamento e la risposta alle minacce, dall’altro gli hacker possono sfruttare i contenuti generati dall’IA per eseguire attacchi molto sofisticati. Dato il suo potenziale impatto, l’IA generativa è diventata quindi una preoccupazione primaria per i governi di molti paesi, che ne stanno monitorando gli effetti sul panorama delle minacce informatiche.

I principali attori del settore

Diversi attori importanti sono all’avanguardia nell’integrazione dell’IA generativa nelle loro soluzioni di cybersecurity, tra cui Microsoft, Google e OpenAI.

  • Microsoft ha recentemente collaborato con OpenAI per sviluppare Security Copilot, una soluzione di sicurezza guidata dall’intelligenza artificiale che sfrutta il GPT-4 e il modello di intelligenza artificiale di Microsoft incentrato sulla sicurezza.
  • Google ha anche introdotto il suo modello linguistico di grandi dimensioni specifico per la sicurezza, Sec-PaLM, per migliorare le sue offerte di cybersecurity.

Aziende come Accenture, SentinelOne e Veracode stanno esplorando l’uso dell’IA generativa nei rispettivi prodotti e servizi di sicurezza. Accenture ha esteso la sua partnership di sicurezza con Google Cloud per includere Sec-PaLM. SentinelOne ha recentemente presentato Purple AI, il suo strumento di individuazione minacce basato sull’IA generativa, per migliorare le sue capacità di sicurezza. Veracode sta sfruttando l’IA generativa per fornire suggerimenti di correzione per le falle nella sicurezza del codice e prevede di esplorare altre aree di implementazione dell’IA (12).

La collaborazione tra operatori del settore, ricercatori ed enti normativi sarà essenziale per sfruttare il potenziale dell’IA generativa, mitigando al contempo i rischi che essa comporta nella cybersecurity.

Vantaggi e sfide dell’AI generativa nella cibersicurezza

I vantaggi

L’AI generativa promette dei benefici evidenti nel campo della cybersecurity, offrendo numerosi vantaggi alle organizzazioni e ai professionisti della sicurezza.

  • Miglioramento del rilevamento e della risposta alle minacce: L’intelligenza artificiale generativa offre vantaggi significativi nel rilevamento e nella risposta alle minacce. Gli strumenti basati sull’IA possono rilevare e mitigare minacce precedentemente sconosciute, adattarsi all’evoluzione delle tattiche degli aggressori e aiutare le organizzazioni a fronteggiare i criminali informatici. Sfruttando grandi volumi di dati e algoritmi avanzati, i sistemi basati sull’IA possono identificare e mitigare minacce e vulnerabilità precedentemente sconosciute (5). Inoltre, l’IA generativa è in grado di adattarsi alle nuove tattiche e tecniche impiegate dagli aggressori, rendendola uno strumento potente per contrastare i più agguerriti criminali informatici.
  • Maggiore automazione ed efficienza: Le soluzioni di cybersecurity basate sull’intelligenza artificiale consentono alle organizzazioni di automatizzare le attività che richiedono tempo e lavoro, migliorando l’efficienza e riducendo gli errori umani. Tali sistemi possono analizzare i dati per rilevare potenziali minacce molto più rapidamente di altri metodi, consentendo alle organizzazioni di rispondere in modo più efficace agli incidenti. Inoltre, questi strumenti basati sull’intelligenza artificiale sono in grado di monitorare costantemente sistemi e reti, assicurando che le potenziali vulnerabilità vengano identificate e affrontate tempestivamente.

Le sfide

L’IA generativa presenta diverse sfide nello sfruttamento del suo pieno potenziale per scopi di cybersicurezza.

  • Adattamento e sviluppo di nuove contromisure: Una sfida significativa è rappresentata dalla rapida evoluzione delle minacce generate dall’intelligenza artificiale, che richiede un costante adattamento e lo sviluppo di nuove contromisure (2). Man mano che i modelli generativi di IA diventano sempre più sofisticati, distinguere tra contenuti legittimi e dannosi diventa sempre più difficile, rendendo più complessi gli sforzi di rilevamento.
  • Privacy e sorveglianza: l’aumento dell’uso dell’IA nella sicurezza informatica solleva inoltre questioni relative alla privacy e alla sorveglianza, in quanto i sistemi di IA potrebbero inavvertitamente raccogliere ed elaborare dati sensibili senza il consenso dell’utente.
  • Crescente prevalenza di strumenti di IA open-source: un’altra sfida è rappresentata dalla crescente diffusione di strumenti di IA open-source, che possono essere utilizzati da soggetti malintenzionati per sviluppare cyberattacchi avanzati (7). La disponibilità diffusa di questi strumenti aumenta il rischio di minacce guidate dall’IA e rende necessario un approccio proattivo per identificare e mitigare i potenziali rischi per la sicurezza.
  • Requisiti di qualità e quantità dei dati: L’IA generativa si basa molto sui dati per apprendere e migliorare le proprie capacità di rilevamento delle minacce. L’efficacia delle soluzioni di cybersecurity basate sull’IA dipende dalla qualità e dalla quantità di dati disponibili per l’analisi (12). Dati imprecisi o incompleti possono portare a falsi positivi e altri errori, compromettendo l’efficacia degli strumenti guidati dall’IA. Inoltre, la necessità di grandi volumi di dati può creare problemi alle organizzazioni con risorse o accesso ai dati limitati.
  • Ai generativa

Se da un lato le tecnologie basate sull’IA forniscono alle organizzazioni strumenti più efficaci per rilevare e prevenire i cyberattacchi, dall’altro possono essere utilizzate come armi da malintenzionati per creare minacce più sofisticate e mirate. Questa applicazione ambivalente dell’IA ha sollevato preoccupazioni tra i funzionari statunitensi, che devono bilanciare i benefici delle misure di cybersicurezza basate sull’IA con i potenziali rischi che esse comportano (1).

Minacce emergenti nel panorama delle minacce informatiche

Secondo un recente rapporto (3), l’IA generativa è tra le minacce emergenti nel panorama delle minacce informatiche del 2023.

  • La proliferazione di contenuti generati dall’intelligenza artificiale, come deepfakes e fake news, rappresenta una preoccupazione significativa per i funzionari statunitensi, in quanto può essere utilizzata per manipolare l’opinione pubblica, distorcere o compromettere le elezioni e minare la fiducia nelle istituzioni.
  • Inoltre, gli hacker utilizzano sempre più spesso l’intelligenza artificiale generativa per automatizzare e migliorare i loro metodi di attacco, rendendoli più difficili da individuare e contrastare.
  • Un’altra minaccia emergente è rappresentata dagli attacchi di IA “avversaria”, in cui gli stessi aggressori utilizzano i sistemi di IA per sfruttare le vulnerabilità delle misure di cybersecurity basate sull’IA.

Questi attacchi possono compromettere l’efficacia degli strumenti guidati dall’IA e introdurre nuovi rischi per le organizzazioni che a questi si affidano per la sicurezza informatica.

Inoltre, il crescente utilizzo di strumenti di IA open-source da parte di soggetti malintenzionati è una preoccupazione crescente per i funzionari statunitensi (2). La disponibilità diffusa di questi strumenti consente agli hacker di sviluppare più facilmente attacchi informatici avanzati, rendendo necessario un approccio proattivo per identificare e mitigare i potenziali rischi per la sicurezza.

Implicazioni per la sicurezza nazionale

Gli effetti dell’IA sulla sicurezza informatica hanno implicazioni significative per la sicurezza nazionale degli Stati Uniti. Il potenziale delle minacce guidate dall’IA di compromettere le infrastrutture critiche, violare i dati sensibili e minare la stessa fiducia del pubblico pone sfide considerevoli.

Per rispondere a queste preoccupazioni, il governo statunitense le sue agenzie stanno monitorando attentamente lo sviluppo delle tecnologie di IA generativa e il loro impatto sulla sicurezza. L’NSA, ad esempio, si sta concentrando su tre aree chiave: il rilevamento di contenuti dannosi generati dall’IA, l’identificazione di attacchi informatici generati dall’IA e lo sfruttamento dell’IA per la scoperta di vulnerabilità (1).

  • Rilevare i contenuti dannosi generati dall’IA. Il rapido sviluppo delle tecnologie guidate dall’intelligenza artificiale ha portato a un aumento dei deepfakes e delle fake news da questi generati, che rappresentano una minaccia significativa per le organizzazioni e i singoli individui. Gli sforzi dell’NSA in questo settore mirano a sviluppare metodi e strumenti per identificare e ridurre tali contenuti prima che causino danni.
  • Identificare i cyberattacchi generati dall’IA. Poiché gli hacker utilizzano l’IA generativa per automatizzare e migliorare i loro metodi di attacco, la necessità di contromisure efficaci diventa fondamentale. Monitorando e analizzando questi modelli di attacco, l’NSA cerca di sviluppare strategie per riconoscere e prevenire tali attacchi, migliorando in ultima analisi il panorama generale della sicurezza informatica.
  • Individuazione delle vulnerabilità guidata dall’IA. Gli strumenti di individuazione delle vulnerabilità basati sull’intelligenza artificiale possono aiutare a identificare falle di sicurezza precedentemente sconosciute, consentendo alle organizzazioni di affrontarle in modo proattivo. Integrando l’IA generativa nei processi di valutazione delle vulnerabilità, l’NSA mira ad aumentare l’efficienza e l’efficacia delle misure di sicurezza informatica e a ridurre il rischio di attacchi informatici riusciti.

La collaborazione tra agenzie governative e organizzazioni del settore privato è essenziale per affrontare efficacemente le implicazioni per la sicurezza nazionale delle minacce informatiche guidate dall’IA. Le partnership, come quella tra Microsoft e OpenAI, mirano a far progredire lo sviluppo e la diffusione delle tecnologie di IA generativa nella sicurezza informatica, contribuendo a mitigare i rischi e a migliorare le difese informatiche nazionali (11).

I funzionari statunitensi sostengono inoltre la necessità di aumentare gli investimenti in ricerca e sviluppo per rimanere al passo con la rapida evoluzione del panorama delle minacce guidate dall’IA. Ciò include lo sviluppo di nuovi strumenti e strategie basati sull’IA per contrastare le minacce emergenti, nonché l’istituzione di quadri normativi per disciplinare l’uso dell’IA nella sicurezza informatica (2).

Come gli hacker utilizzano l’intelligenza artificiale generativa negli attacchi

Gli stessi algoritmi di IA utilizzati dai professionisti della sicurezza per analizzare e prevedere le minacce informatiche possono essere impiegati dagli attori malintenzionati per anticipare le misure difensive e ideare attacchi più efficaci.

I criminali informatici possono sfruttare gli strumenti guidati dall’intelligenza artificiale per creare attacchi sofisticati, rendendo più difficile per le organizzazioni rilevare e contrastare le minacce (7).

  • Attacchi avversari dell’IA: con la crescente integrazione dei sistemi di IA nei processi di cybersecurity, aumenta la possibilità di attacchi avversari dell’IA a questi sistemi (6). È importante rimanere vigili e assicurarsi che gli strumenti guidati dall’IA utilizzati non introducano inavvertitamente nuove vulnerabilità o creino opportunità di sfruttamento da parte di attori malintenzionati.
  • Attacchi di ingegneria sociale guidati dall’IA. L’intelligenza artificiale generativa ha reso possibile agli hacker la creazione di attacchi di ingegneria sociale più sofisticati, in quanto questi algoritmi possono generare contenuti deepfake altamente realistici, impersonare persone fidate e manipolare gli utenti per indurli a divulgare informazioni sensibili. Sfruttando l’IA, gli aggressori possono creare contenuti audio, video o testuali convincenti che possono essere utilizzati per manipolare le vittime o addirittura per infiltrarsi in sistemi sicuri (3).
  • Email e siti web di phishing generati dall’IA. Un altro uso nefasto dell’intelligenza artificiale generativa è la creazione di e-mail e siti web di phishing altamente ingannevoli. Gli strumenti guidati dall’IA possono infatti analizzare lo stile di scrittura, il tono e le preferenze di contenuto delle potenziali vittime per creare messaggi di phishing personalizzati e consapevoli del contesto che hanno quindi una maggiore probabilità di riuscire nell’inganno (1). Inoltre, l’IA generativa può automatizzare il processo di generazione di siti web di phishing molto simili a quelli legittimi, aumentando ulteriormente le possibilità di ingannare utenti ignari per convincerli a fornire le proprie credenziali o altre informazioni sensibili (6).

Impatto commerciale dei sistemi di sicurezza informatica basati sull’IA generativa

L’adozione di sistemi di cybersecurity basati sull’IA generativa può portare a significativi risparmi sui costi e all’ottimizzazione delle risorse per le aziende. Automatizzando il rilevamento e la risposta alle minacce, le organizzazioni possono ridurre la necessità di interventi manuali, minimizzando così i costi di manodopera e liberare tempo prezioso per i professionisti della cybersecurity che possono concentrarsi su attività più strategiche (5). Inoltre, i sistemi di intelligenza artificiale generativa possono aiutare le organizzazioni ad individuare e correggere le vulnerabilità in modo più efficiente, riducendo le potenziali perdite finanziarie associate alle violazioni dei dati (12).

Maggiore protezione per i dati e gli asset sensibili

I sistemi di cybersecurity basati sull’IA generativa possono fornire una maggiore protezione per i dati e le informazioni sensibili. Utilizzando modelli di IA in grado di analizzare grandi volumi di dati per rilevare modelli di attività dannose, le organizzazioni possono migliorare la loro capacità di identificare e contrastare le minacce in tempo reale (15). Questo maggiore livello di protezione può aiutare a prevenire l’accesso non autorizzato a informazioni sensibili, salvaguardando la reputazione di un’organizzazione e la fiducia dei clienti (9).

Creare fiducia negli ecosistemi digitali

In un panorama digitale sempre più interconnesso, la fiducia negli ecosistemi digitali è fondamentale per la prosperità delle aziende e delle organizzazioni in genere. I sistemi di cybersecurity basati sull’IA generativa possono aiutare le organizzazioni a rafforzare e mantenere questa fiducia, offrendo una solida protezione contro le minacce. Rilevando e affrontando in modo proattivo le vulnerabilità, l’IA generativa può ridurre il rischio di violazione dei dati e rafforzare la postura di sicurezza complessiva di un’organizzazione (13). Questo può portare a una maggiore fiducia tra le parti interessate, compresi clienti, partner e autorità di regolamentazione, con il risultato di un ecosistema digitale più sicuro e resiliente (8).

SEC-PALM di Google, cos’è, a cosa serve

Google ha sviluppato un modello di IA generativa denominato SEC-PALM al fine di migliorare la propria offerta nell’ambito della cybersecurity (13). Questa soluzione avanzata mira a rafforzare la sicurezza utilizzando le capacità dell’IA generativa per rilevare e rispondere alle minacce informatiche in modo più efficace (14). Le caratteristiche principali di SEC-PALM includono:

  • Rilevamento e risposta alle minacce migliorati grazie all’IA generativa
  • Integrazione con i servizi di sicurezza di Google Cloud
  • Analisi dei dati in tempo reale per un rapido processo decisionale
  • Apprendimento continuo e adattamento alle minacce in evoluzione

Sfruttare l’IA generativa per migliorare il rilevamento delle minacce

SEC-PALM utilizza l’IA generativa per analizzare dati in tempo reale, consentendo di individuare minacce e vulnerabilità anche sconosciute (10). Imparando dai dati esistenti e aggiornando continuamente le proprie conoscenze, SEC-PALM è in grado di rilevare le minacce emergenti e di adattarsi proattivamente a quelle emergenti. Questo approccio offre diversi vantaggi rispetto ai tradizionali sistemi di cybersecurity basati su regole, quali:

  • Rilevamento più rapido e accurato delle minacce
  • Difesa proattiva contro le nuove vulnerabilità
  • Riduzione della dipendenza dall’intervento manuale
  • Scalabilità per gestire grandi quantità di dati

Integrazione con Google Cloud Security

Come parte del portafoglio di sicurezza di Google Cloud, SEC-PALM è progettato per integrarsi perfettamente con i servizi di sicurezza esistenti, fornendo una difesa completa contro le minacce (15). Questa integrazione consente alle organizzazioni che utilizzano Google Cloud di sfruttare la potenza dell’intelligenza artificiale generativa per rafforzare la propria posizione di sicurezza, beneficiando al contempo della comodità di una piattaforma unificata.

L’integrazione di SEC-PALM con i servizi di sicurezza di Google Cloud offre diversi vantaggi, tra cui:

  • Rilevamento e risposta alle minacce migliorati nei servizi Google Cloud
  • Operazioni di sicurezza semplificate grazie a una piattaforma unificata
  • Implementazione e gestione semplificata delle soluzioni di sicurezza
  • Accesso all’ampio ecosistema di strumenti e risorse per la sicurezza di Google Cloud

Sfruttando le capacità dell’IA generativa, SEC-PALM offre una soluzione innovativa alle organizzazioni che desiderano rafforzare le proprie difese di sicurezza informatica. Grazie all’integrazione con i servizi di sicurezza di Google Cloud, SEC-PALM offre un approccio completo, scalabile e facile da gestire per affrontare le crescenti sfide poste dalle minacce informatiche. Con la continua evoluzione della tecnologia, si prevede che i modelli di intelligenza artificiale generativa come SEC-PALM svolgeranno un ruolo sempre più critico nel proteggere le organizzazioni da minacce informatiche sofisticate e in continua evoluzione.

Copilot Security di Microsoft

Microsoft e OpenAI hanno stretto una partnership per sviluppare Microsoft Security Copilot, una soluzione di cybersecurity all’avanguardia basata sull’intelligenza artificiale. Questa collaborazione sfrutta l’esperienza di entrambe le aziende per creare un potente strumento che potenzia le capacità di rilevamento e risposta alle minacce, migliorando in ultima analisi la sicurezza generale delle organizzazioni. Alcune delle caratteristiche principali di Security Copilot sono:

  • Rilevamento e risposta proattiva alle minacce grazie all’IA generativa
  • Integrazione con gli strumenti e i servizi di sicurezza esistenti di Microsoft
  • Apprendimento continuo e adattamento alle minacce informatiche in evoluzione.

Security Copilot è stato progettato per affiancare i professionisti della sicurezza umana, aumentando le loro capacità e fornendo loro preziose informazioni per prendere decisioni più informate nella lotta contro le minacce informatiche. Questo approccio innovativo dimostra il potenziale delle soluzioni di cybersecurity basate sull’intelligenza artificiale per trasformare il modo in cui le organizzazioni proteggono i loro asset digitali.

Il ruolo di GPT-4 nel modello di IA di Microsoft

La partnership tra Microsoft e OpenAI ha permesso l’integrazione di GPT-4, un modello di intelligenza artificiale generativa all’avanguardia, in Security Copilot di Microsoft. La capacità di GPT-4 di elaborare e analizzare grandi quantità di dati consente al modello di IA di identificare schemi sospetti, automatizzare le informazioni sulle minacce e consentire una risposta più efficiente agli incidenti.

La tecnologia AI generativa consente a Security Copilot di imparare continuamente dai dati disponibili e di adattarsi alla natura dinamica delle minacce informatiche, fornendo alle organizzazioni un sistema di difesa proattivo. Alcuni vantaggi di questo approccio sono:

  • Identificazione rapida di minacce e vulnerabilità precedentemente sconosciute
  • Difesa proattiva contro le minacce informatiche nuove ed emergenti
  • Operazioni di sicurezza semplificate con interventi manuali ridotti
  • Scalabilità per gestire il crescente volume di dati e minacce

Sfruttando la potenza del GPT-4, Security Copilot può fornire alle organizzazioni funzionalità avanzate di cybersecurity, tra cui l’identificazione di potenziali vulnerabilità, la previsione del comportamento degli aggressori e il suggerimento di contromisure appropriate (11). Questa combinazione di tecnologie guidate dall’IA segna un progresso significativo nel campo della sicurezza, evidenziando il potenziale dell’IA generativa nel rivoluzionare il modo in cui le organizzazioni si proteggono dalle minacce.

L’impatto dei dati sull’efficacia delle soluzioni di cybersecurity basate sull’AI

I dati svolgono un ruolo cruciale nel determinare l’efficacia delle soluzioni di cybersecurity basate sull’IA. La qualità e la quantità di dati utilizzati per addestrare e perfezionare i modelli generativi di IA sono fattori essenziali per garantire che questi strumenti siano in grado di rilevare e rispondere con precisione alle minacce emergenti.

Con l’evoluzione delle minacce alla cybersecurity, è imperativo che le soluzioni basate sull’IA possano imparare continuamente dai nuovi dati, adattandosi al mutevole panorama delle minacce e mantenendo la loro efficacia nell’identificare e mitigare i rischi (12). Ciò sottolinea l’importanza dei dati nello sviluppo e nel perfezionamento dei modelli generativi di IA, nonché la necessità per le organizzazioni di investire in una solida raccolta di dati e in pratiche di gestione per massimizzare i benefici degli strumenti di cybersecurity guidati dall’IA.

Sfruttando dati di alta qualità e la potenza del GPT-4, la partnership tra Microsoft e OpenAI esemplifica il potenziale dell’IA generativa nella cybersecurity, offrendo alle organizzazioni una soluzione avanzata per proteggere meglio i loro beni digitali e stare davanti alle minacce emergenti.

Il futuro dell’AI generativa nella sicurezza informatica

Il futuro dell’IA generativa nella sicurezza informatica dipende dalle attività di ricerca e sviluppo in corso. Con la maturazione della tecnologia, si prevede che verranno sviluppati nuovi modelli e tecniche di IA per rilevare, analizzare e contrastare meglio le minacce informatiche (5). I ricercatori stanno inoltre continuando a esplorare il potenziale dei contenuti generati dall’IA per migliorare le capacità di risposta agli incidenti (8). Questi progressi contribuiranno probabilmente ad aumentare l’adozione e l’efficacia dell’IA generativa nella cybersecurity.

Tendenze e opportunità emergenti

Di seguito si elencano alcune linee di tendenza ed opportunità emergenti relative al futuro dell’IA generativa nella cybersecurity:

  • Integrazione delle soluzioni basate sull’IA con altri strumenti di cybersecurity: Man mano che l’IA generativa si diffonde, è probabile che venga sempre più integrata con altri strumenti e piattaforme di cybersecurity, migliorandone le capacità e l’efficacia (11).
  • Sviluppo di contromisure per l’IA avversaria: Con il crescente utilizzo dell’IA da parte dei criminali informatici, i ricercatori stanno lavorando allo sviluppo di tecniche di IA avversaria per rilevare e contrastare i contenuti maligni generati dall’IA (7).
  • Sfruttare l’IA per trovare e mitigare le minacce interne: L’IA generativa ha il potenziale per aiutare le organizzazioni a identificare e mitigare le minacce interne analizzando il comportamento degli utenti e identificando le anomalie che possono indicare attività dannose (12).
  • Espansione delle capacità di intelligence delle minacce guidate dall’IA: Man mano che l’IA generativa diventa più sofisticata, può aiutare le organizzazioni a migliorare le loro capacità di intelligence sulle minacce automatizzando la raccolta, l’analisi e la diffusione delle informazioni sulle minacce (16).

Conclusioni

Poiché l’IA generativa si sta affermando nel campo della sicurezza informatica, è fondamentale che le parti interessate ne comprendano il potenziale per migliorare il rilevamento delle minacce, la risposta e la difesa informatica in generale (5). La tecnologia ha dimostrato la sua capacità di migliorare le misure di sicurezza automatizzando le attività ripetitive, identificando il codice maligno e fornendo soluzioni innovative per affrontare le minacce emergenti (4, 8). Adottando tecnologie generative basate sull’IA, le organizzazioni possono mantenersi all’avanguardia nel panorama della cybersecurity in continua evoluzione (3).

Bilanciare innovazione e responsabilità

Sebbene l’IA generativa offra numerosi vantaggi nel campo della sicurezza informatica, è fondamentale bilanciare l’innovazione con la responsabilità. Garantire una diffusione etica e sicura delle soluzioni basate sull’IA richiede uno sforzo collettivo da parte di fornitori di tecnologia, organizzazioni e autorità di regolamentazione (5). Ciò implica la promozione della trasparenza, della collaborazione e del dialogo aperto tra le parti interessate per sviluppare le migliori pratiche, stabilire standard industriali e affrontare i potenziali rischi associati all’IA generativa (2, 9).

Prepararsi al futuro della difesa informatica

Poiché l’IA generativa continua a rivoluzionare la cybersecurity, le organizzazioni devono essere preparate ad affrontare sia le opportunità che le sfide che presenta. Ciò include l’investimento in istruzione e formazione per i professionisti della cybersecurity, assicurando le competenze e le conoscenze necessarie per implementare e gestire efficacemente le soluzioni (6). Affrontando in modo proattivo il gap di conoscenze sulla cybersecurity dell’IA generativa e rimanendo aggiornati sugli ultimi sviluppi della difesa informatica guidata dall’IA, le organizzazioni possono proteggere meglio i propri asset digitali e mantenere una solida postura di sicurezza di fronte a un panorama di minacce in continua evoluzione (12).

https://www.linkedin.com/in/giovannisisinna/

Note

  1. Matt Kapko, “3 areas of generative AI the NSA is watching in cybersecurity”, May 1, 2023.
  2. James Rundle, “AI’s Effects on Cybersecurity Concern U.S. Officials”, April 26, 2023.
  3. Zachy Hennessey, “Generative AI among emerging threats in 2023’s cyber threat landscape – report”, April 13, 2023.
  4. Chris Teale, Article Title: “Generative AI helps spot malicious open-source code”, April 26, 2023.
  5. David Linthicum, “Generative AI and Cybersecurity: Advantages and Challenges”, April 10, 2023.
  6. Muhammad Zulhusni, Jeremy Pizzala, “Generative AI: friend or foe?”, April 21, 2023.
  7. Sead Adilpašić, “How Hackers Use Generative AI in Their Attacks and What We Can Do About It”, April 26, 2023.
  8. Bill Doerrfeld, “How to Maintain Cybersecurity as ChatGPT and Generative AI Proliferate”, April 23, 2023.
  9. Vish Gain, “Google brings generative AI to cybersecurity, taking on Microsoft”, April 25, 2023.
  10. Kyle Wiggers, “Google brings generative AI to cybersecurity”, April 24, 2023.
  11. Scott Crawford, “Microsoft, OpenAI partnership provides cybersecurity’s generative AI moment”, Apr 26, 2023.
  12. Kyle Alspach, “Generative AI Is Going Viral In Cybersecurity. Data Is The Key To Making It Useful.”, May 02, 2023.
  13. Mike Wheatley, “Google Cloud bolsters cybersecurity with generative AI model Sec-PALM”, April 24, 2023.
  14. Dhanshree Shripad Shenwai, “Google Cloud Takes a Major Step Towards Cybersecurity with Generative AI Model SEC-PALM”, April 26, 2023.
  15. Sunil Potti, “Supercharging security with generative AI”, April 25, 2023.
  16. Martin Kuppinger, “Microsoft Security Copilot: Value-adding Generative AI”, Apr 13, 2023.
  17. Kyle Alspach, “Generative AI Is Going Viral In Cybersecurity. Data Is The Key To Making It Useful.”, May 02, 2023.
  18. Vasu Jakkal, “Introducing Microsoft Security Copilot: Empowering defenders at the speed of AI”, Mar 28, 2023.

Articolo originariamente pubblicato il 27 Ott 2023

@RIPRODUZIONE RISERVATA

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

S
Giovanni Sisinna
Direttore Program Management
Seguimi su

Articolo 1 di 5