Torna agli insight

Perché è importante utilizzare un’ AI Responsabile: il punto di vista di Alberto Manfredi | CSA Italy 

Verso un’AI Responsabile: etica e trasparenza


Con l’utilizzo sempre più pervasivo di sistemi ed applicazioni AI sia in ambiente lavorativo che personale, si rende necessario verificare che questi operino in modalità corretta e imparziale, spiegabile ed affidabile. In sostanza dovremmo verificare se stiamo utilizzando una AI Responsabile.

In questo articolo, Alberto Manfredi, EMEA Development Director | Presidente | Country Leader | Chapter Ambassador
CSA Italy,
evidenzia come l’adozione di principi di etica, trasparenza e spiegabilità (o Explainability) nello sviluppo di sistemi ed applicazioni AI dovranno costituire le fondamenta per utilizzarli in modo sicuro ed affidabile e promuovere un nuovo modello di responsabilità condivisa, un’ AI Shared Responsibility, tra fornitori ed utilizzatori, correlato al modello di Security Shared Responsibility  già introdotto (da CSA[1]) per l’utilizzo del cloud computing che rappresenta la principale piattaforma di sviluppo ed erogazione di servizi AI .

Le 6 caratteristiche fondamentali dell’AI responsabile


Ma come possiamo capire se siamo di fronte ad una AI responsabile o meno? Prima di tutto dovremmo considerare le 6 caratteristiche principali di una AI responsabile:

  • Equità (Fairness): i modelli non dovrebbero favorire né svantaggiare le persone sulla base di attributi sensibili.
  • Comprensione del modello e trasparenza (Explainability): capacità di interpretare come e perché un modello di machine learning formula le proprie previsioni (es. strumenti SHAP e LIME).
  • Responsabilità (Accountability): garantire che i sistemi di AI operino in modo responsabile, con meccanismi chiari di supervisione e conformità.
  • Privacy: garantire che le informazioni degli utenti siano gestite con consenso, anonimizzazione e archiviazione sicura.
  • Safety & Security: i sistemi devono essere resilienti e prevenire attivamente danni. L’AI Security indirizza la protezione da data poisoning, furti del modello e vulnerabilità della supply chain.
  • Beneficenza (Beneficence): l’AI dovrebbe migliorare il benessere umano con approcci human-in-the-loop, aumentando le capacità umane anziché sostituirle.

Il ciclo di vita dello sviluppo AI (AI Lifecycle)


Successivamente è necessario conoscere le fasi del ciclo di vita dello sviluppo di un modello AI e procedere con opportune valutazioni di coerenza con le caratteristiche di AI responsabile per ogni singola fase.

Le fasi comprendono, in generale, una fase di pre-sviluppo, una fase di sviluppo, una fase di implementazione ed una fase di post-implementazione. Analizziamo meglio le singole sottofasi:

  • Feedback e miglioramento continuo: Implementazione di meccanismi di evoluzione progressiva.
  • Definizione del problema: Determinare se l’AI sia la soluzione appropriata e stabilire criteri di successo misurabili.
  • Raccolta dei dati: Acquisizione di dati di alta qualità tenendo conto di privacy e bias.
  • Pre-elaborazione dei dati: Trasformazione dei dati grezzi, gestione dei valori mancanti e suddivisione in set di addestramento, validazione e test.
  • Analisi esplorativa dei dati (EDA): Scoperta di pattern e valutazione dei rischi etici.
  • Selezione del Modello: Scelta dell’algoritmo (es. LLM) bilanciando interpretabilità e prestazioni.
  • Addestramento del Modello: Processo iterativo di apprendimento dai dati e messa a punto degli iperparametri.
  • Valutazione del Modello: Test rigoroso tramite metriche (accuratezza, precisione) e analisi della eXplainability (XAI).
  • Implementazione del Modello: Messa in esercizio basata su requisiti prestazionali e infrastrutturali.
  • Documentazione e Governo: Predisposizione di documentazione chiara sui rischi per favorire la fiducia degli stakeholder.
  • Monitoraggio e manutenzione: Tracciamento delle prestazioni e cicli di riaddestramento.

Governance e conclusioni: la sfida della consapevolezza


Gestire un’AI responsabile richiede pertanto specifiche conoscenze sia tecnologiche (ad es. tecniche di Explainable AI, Algorithmic fairness e Mitigazione di Bias) sia di governance e gestione del rischio AI volte a garantire una documentazione completa lungo le fasi del ciclo di vita del modello ed una comunicazione adeguata ai diversi interlocutori: dai team tecnici (IT, Security, Audit), fino al consiglio di amministrazione.

Essere in grado di spiegare sia i limiti che le potenzialità del modello AI consente di prendere decisioni responsabili. In questo contesto, la CSA (Cloud Security Alliance) ha sviluppato specifiche linee guida e strumenti di audit, come l’AI Control Matrix[2], nell’ambito dell’iniziativa di ricerca AI Safety[3].

📍 Il tema della governance dei sistemi AI, della sicurezza dei dati e dell’affidabilità dei modelli sarà trattato anche il prossimo 24 febbraio a GoBeyond 2026, dove esperti e leader del settore si incontreranno per discutere di innovazione digitale e sicurezza.

[1] Cloud Security Alliance, www.cloudsecurityalliance.org

[2] https://cloudsecurityalliance.org/artifacts/ai-controls-matrix

[3] https://cloudsecurityalliance.org/ai-safety-initiative

Condividi questo contenuto con il tuo network

Resta aggiornato sulle ultime novità e gli eventi iKN