Intelligenza Artificiale sempre più nel mirino del cybercrime

In questa fase gli attaccanti stanno cercando di manipolare per scopi dannosi i sistemi di intelligenza artificiale. Per il futuro, il rischio maggiore si chiama Fake News

Pubblicato il 17 Lug 2019

L‘intelligenza artificiale è una tecnologia che negli ultimi anni ha trovato moltissimi campi di applicazione, aprendo nuove opportunità alle persone e alle organizzazioni di tutti i settori. Eppure proprio questo successo sta catturando la crescente attenzione del cybercrime: in particolare, un nuovo rapporto pubblicato dal consorzio SHERPA – un progetto dell’EU che studia l’impatto della AI sull’etica e sui diritti umani a cui F-Secure ha aderito nel 2018 – mette in evidenza come gli attaccanti stiano concentrando la maggior parte dei loro sforzi sulla manipolazione per scopi dannosi dei sistemi di Intelligenza Artificiale esistenti utilizzati dai motori di ricerca, dai social media, dai siti web di recommendation, ecc. Un esempio di questo tipo sono gli attacchi Sybil, che coinvolgono una singola entità che crea e controlla più account fasulli al fine di manipolare i dati che la AI utilizza per prendere decisioni. In questo modo, ad esempio, si riesce a manipolare il posizionamento nei motori di ricerca o dei sistemi di reputazione per promuovere o abbassare determinati contenuti. Tuttavia, questi attacchi possono anche essere usati per il social engineering, ossia le tecniche utilizzate per spingere gli utenti a rivelare password o informazioni bancari).

Secondo F-Secure questi tipi di attacchi sono estremamente difficili da rilevare per i provider di servizi online ed è probabile che questo comportamento sia molto più diffuso di quanto chiunque possa pensare.  Il grande timore per il futuro si chiama Fake News:  l’intelligenza artificiale ha raggiunto il punto in cui può produrre contenuti scritti, audio e visivi estremamente realistici, che potrebbero ingannare e manipolare le persone. Ulteriori motivi di allarme sono rappresentati dal fatto che i cybercriminali impareranno sempre di più a compromettere i sistemi di AI man mano che la tecnologia si diffonderà. Inoltre, esiste la fondata preoccupazione che la protezione dei sistemi di AI contro gli attacchi possa causare problemi etici: ad esempio, un maggiore monitoraggio dell’attività potrebbe violare la privacy degli utenti.

@RIPRODUZIONE RISERVATA

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Argomenti trattati

Aziende

F
F-Secure

Approfondimenti

I
Intelligenza Artificiale

Articolo 1 di 2