Torna agli insight

Abbiamo intervistato Niclola Aliperti, Data Protection Officer | Digital Transformation Senior advisor

In occasione della sua partecipazione come moderatore durante la 4° edizione di CDO Day, abbiamo incontrato Niclola Aliperti, Data Protection Officer | Digital Transformation Senior advisor e con lui abbiamo approfondito il tema della sicurezza e della protezione dei dati nel campo dell’AI, ML e Deep Lerning.

Leggi ora l’intervista completa:

QUALI SONO LE IMPLICAZIONI LEGATE ALLA SICUREZZA E ALLA PROTEZIONE DEI DATI NEL CAMPO DELL’AI, ML E DEEP LERNING? 

L’intelligenza artificiale (AI) è diventata parte integrante della nostra vita quotidiana, con strumenti come ChatGPT utilizzati per vari scopi, dalla risposta alle domande dei clienti alla creazione di contenuti. Sebbene l’intelligenza artificiale riservi numerosi vantaggi, essa pone anche rischi significativi per la privacy e la protezione dei dati. 

Uno dei principali rischi associati all’AI è quello della violazione dei dati (‘DATA BREACH’) a causa della presenza di dati personali e/o sensibili nell’enorme quantità di dati processati e scambiati con applicazioni AI; questi potrebbero portare a furti di identità, frodi finanziarie e/o altri azioni perseguibili e/o reati. Nel contempo gli algoritmi ‘machine learning’ e gli approcci relativi all’apprendimento automatico come il ‘deep learning’, generano il rischio potenziale di processi decisionali automatici distorti o imparziali là dove i dati, su cui i sistemi sono addestrati, contengono ‘bias’, che replicano tali /dei pregiudizi nelle decisioni: ad esempio, se un sistema di intelligenza artificiale viene addestrato su dati che contengono pregiudizi razziali o di genere, può produrre risultati che discriminano determinati gruppi di persone, generando trattamenti iniqui e discriminatori. Infine, strumenti di intelligenza artificiale come ChatGPT, hanno la capacità di generare contenuti falsi, che potrebbero essere utilizzati per diffondere disinformazione o influenzare l’opinione pubblica.  

Nonostante questi rischi, l’AI può essere impiegata per migliorare la stessa privacy e la protezione dei dati. Ad esempio, ce ne si serve per rilevare e prevenire violazioni di dati, analizzando modelli e anomalie degli stessi, o può essere utilizzata per migliorare l’accuratezza dei sistemi di verifica dell’identità. Per cogliere appieno tali opportunità e garantire che tutti possano beneficiare del potenziale di queste tecnologie, è quindi essenziale investire nella protezione dei dati di questi sistemi e nell’addestramento su dati imparziali ed etici, motivo per cui una governance e regolamentazione efficace assumono un’importanza fondamentale. In attesa di verificare quale sarà il testo definitivo del Regolamento AI Europeo e come l’aspetto della governance verrà declinato, non si potrà prescindere dall’applicazione dei principi GDPR, partendo da una sistematizzazione del ‘privacy by design & by default’. In attesa si può suggerire alle aziende pubbliche e private di mappare dove l’AI viene utilizzata (o si intende utilizzarla) al fine di creare processi e governance circa le sue applicazioni; investire tempo e spazio di comprensione e consapevolezza dei relativi rischi e opportunità all’interno delle organizzazioni.  

COME VIENE GESTITO IL RISCHIO DI PERPETUARE I ‘BIAS’ O LE DISCRIMINAZIONI PRESENTI NEI DATI DI ADDESTRAMENTO?  

Per gestire e mitigare questo importante rischio è necessario agire principalmente sulla governance dei processi di apprendimento e sullo sviluppo di un codice etico che si possa basare sulla centralità delle persone e sul rispetto dei loro dati personali.  

Per quanto riguarda l’addestramento, l’apprendimento supervisionato può mitigare il rischio perché opera su un’acquisizione dei dati sotto ‘supervisione’ per consentire agli algoritmi di deep learning di imparare come prendere decisioni etiche, anche su set di dati mai utilizzati prima. In questo modo la qualità della decisione AI torna a basarsi sulla qualità del dato, affiancandola ad un approccio collaborativo e cross funzionale, che possa garantire la diversità dei team che si occupano dei progetti AI e dei loro dati.  Anche i dati sintetici possono rappresentare una risposta per mitigare alcune delle problematiche legali dell’intelligenza artificiale in materia di proprietà intellettuale e conformità alla normativa privacy, basandosi su versioni statisticamente rappresentative di set di dati reali e distribuiti.  

Per finire e per esperienza lo sviluppo di un codice etico che renda azionabili e misurabili un insieme di principi e valori, come la trasparenza, la presenza di un intento chiaro e sostenibile, è fondamentale per abilitare le organizzazioni a progettare servizi e soluzioni innovative, attraverso l’utilizzo responsabile dell’AI; valori che devono essere condivisi con i fornitori di soluzione AI o i partners coinvolti nella filiera e nell’ecosistema dati delle stesse soluzioni. 

Incontra Nicola Aliperti a CDO Day il 13 giugno a Milano, NH Congress Centre Assago.

Scopri di più.

Resta aggiornato sulle ultime novità e gli eventi iKN