Home » News » Cybersecurity

IA generativa: come cambia il modo di lavorare e quali i rischi per i dati aziendali?

Proofpoint IA generativa rischi

Di Intelligenza Artificiale (IA) generativa si parla molto. Come per ogni nuova tecnologia rivoluzionaria il clamore che suscita è elevato.

Perché tale tecnologia promette di cambiare il modo in cui lavoriamo? Come la stanno utilizzando gli utenti? Quali sono i rischi per i dati aziendali e perché c’è una forte spinta a regolamentarla?

Ferdinando Mancini, Director, Southern Europe Sales Engineering, di Proofpoint presenta delle risposte a queste domande.

Che cos’è l’IA generativa?

“L’IA generativa – evidenzia Mancini – è una forma di intelligenza artificiale che prevede l’utilizzo di tecniche di deep learning per creare nuovi contenuti simili a quelli su cui sono stati addestrati i modelli di IA, che possono includere qualsiasi elemento, da testi a immagini, musica, video e codice.

Per addestrare i modelli di intelligenza artificiale generativa si utilizzano in genere grandi quantità di informazioni e algoritmi complessi, affinché apprendano schemi e strutture dei dati. Una volta addestrati, possono poi essere utilizzati per generare nuovi dati simili per stile, tono o contenuto a quelli originali. Ad esempio, il modello GPT-3 di OpenAI è stato addestrato su database di testi provenienti da Internet, tra cui 570 GB ottenuti da libri, testi web, Wikipedia e articoli.

Uno degli strumenti di IA generativa più popolari, ChatGPT, ha raggiunto più di 100 milioni di utenti in poco più di due mesi.

Esempi di come l’IA generativa cambierà il modo in cui lavoriamo

Gli strumenti di IA generativa di oggi sono molto più sofisticati dei chatbot. Pur addestrandosi su modelli linguistici, si spingono molto più in là, utilizzando sintesi di immagini e video, oltre che di musica e arte. Ciò significa che l’IA generativa possiede un’ampia gamma di applicazioni, dalla creazione di contenuti alla progettazione di prodotti fino alla ricerca medica.

Ad esempio – specifica Mancini – DALL-E, sistema basato su OpenAI, produce arte generata dall’IA e chiedendogli di generare un fumetto di un cyber-attaccante, può fornire diverse opzioni in soli tre secondi (Figura 1).

Proofpoint IA generativa rischi
Figura 1. Fumetto di un cybercriminale che accede a una rete, elaborato da DALL-E.

E poi c’è GPT-4, che utilizza un modello linguistico IA avanzato e può aiutare le aziende ad automatizzare l’assistenza clienti perché è in grado di comprendere le richieste dei clienti e rispondere alle domande più comuni. Può anche identificare modelli che indicano attività fraudolente, ad esempio comportamenti di acquisto insoliti.

L’IA generativa ha il potenziale per assistere i professionisti in un’ampia gamma di settori. I consulenti finanziari possono usarla per analizzare le tendenze del mercato e i comportamenti dei consumatori; gli insegnanti per analizzare le esigenze e le preferenze di apprendimento degli studenti e personalizzare le lezioni; e gli analisti della sicurezza per studiare il comportamento degli utenti e identificare i modelli che portano all’esfiltrazione dei dati.

Come ogni nuova tecnologia porta con sé dei rischi.

Quali i possibili rischi che presenta la nuova tecnologia

L’IA generativa – puntualizza Mancini – promette significativi aumenti di produttività, ma come ogni tecnologia rivoluzionaria, presenta anche dei rischi. Eccone alcuni.

  • Perdita di proprietà intellettuale. Quando uno sviluppatore revisiona una parte di codice sorgente in ChatGPT, diventerà di dominio pubblico? E OpenAI ha diritti su quel codice, dal momento che la sua AI ha contribuito a svilupparlo? 
  • Informazioni inesatte. Recentemente, un giudice federale ha respinto una causa e definito una multa di 5.000 dollari agli avvocati di un querelante dopo che avevano usato ChatGPT per ricercare documenti giudiziari che citavano sei casi falsi inventati dallo strumento di intelligenza artificiale generativa.
  • Pregiudizio. Poiché l’IA generativa impara da contenuti esistenti, può essere parziale, anche più degli esseri umani. In un recente studio, Bloomberg ha osservato che “il modello text-to-image di Stable Diffusion amplifica gli stereotipi su razza e genere”.
  • Conformità alla privacy. Senza una piattaforma di protezione delle informazioni, non esiste un modo automatico per impedire ai dipendenti di inserire dati personali identificabili, come quelli sanitari o finanziari, negli strumenti di IA generativa.

Consapevoli di questi rischi, i Paesi sviluppati stanno introducendo normative specifiche che richiedono trasparenza, supervisione umana e altre garanzie per gli strumenti di IA generativa. Molte aziende vogliono sapere come i loro dipendenti utilizzano l’IA generativa, ma desiderano anche mettere in sicurezza la loro proprietà intellettuale e altri dati sensibili. Esistono piattaforme per la protezione delle informazioni che possono aiutare le aziende a monitorare le attività degli utenti sui servizi di IA generativa e prevenire la perdita di dati preziosi, aumentando al contempo produttività e innovazione”, conclude Mancini.

Condividi questo articolo su:

Fiere ed eventi

S NewsLetter

Rimani sempre aggiornato sulle ultime novità della sicurezza.

Ho letto e compreso la vostra privacy policy.