Torna agli insight

Perché è importante utilizzare un’ AI Responsabile: il punto di vista di Alberto Manfredi di CSA Italy 

Con l’utilizzo sempre più pervasivo di sistemi ed applicazioni AI sia in ambiente lavorativo che personale, si rende necessario verificare che questi operino in modalità corretta e imparziale, spiegabile ed affidabile. In sostanza dovremmo verificare se stiamo utilizzando una AI Responsabile.

In questo articolo, Alberto Manfredi, EMEA Development Director | Presidente | Country Leader | Chapter Ambassador
CSA Italy,
evidenzia come l’adozione di principi di etica, trasparenza e spiegabilità (o Explainability) nello sviluppo di sistemi ed applicazioni AI dovranno costituire le fondamenta per utilizzarli in modo sicuro ed affidabile e promuovere un nuovo modello di responsabilità condivisa, un’ AI Shared Responsibility, tra fornitori ed utilizzatori, correlato al modello di Security Shared Responsibility  già introdotto (da CSA[1]) per l’utilizzo del cloud computing che rappresenta la principale piattaforma di sviluppo ed erogazione di servizi AI .

Le 6 caratteristiche fondamentali dell’AI responsabile


Ma come possiamo capire se siamo di fronte ad una AI responsabile o meno? Prima di tutto dovremmo considerare le 6 caratteristiche principali di una AI responsabile:

  • Equità (Fairness): i modelli non dovrebbero favorire né svantaggiare le persone sulla base di attributi sensibili.
  • Comprensione del modello e trasparenza (Explainability): capacità di interpretare come e perché un modello di machine learning formula le proprie previsioni (es. strumenti SHAP e LIME).
  • Responsabilità (Accountability): garantire che i sistemi di AI operino in modo responsabile, con meccanismi chiari di supervisione e conformità.
  • Privacy: garantire che le informazioni degli utenti siano gestite con consenso, anonimizzazione e archiviazione sicura.
  • Safety & Security: i sistemi devono essere resilienti e prevenire attivamente danni. L’AI Security indirizza la protezione da data poisoning, furti del modello e vulnerabilità della supply chain.
  • Beneficenza (Beneficence): l’AI dovrebbe migliorare il benessere umano con approcci human-in-the-loop, aumentando le capacità umane anziché sostituirle.

Il ciclo di vita dello sviluppo AI (AI Lifecycle)


Successivamente è necessario conoscere le fasi del ciclo di vita dello sviluppo di un modello AI e procedere con opportune valutazioni di coerenza con le caratteristiche di AI responsabile per ogni singola fase.

Le fasi comprendono, in generale, una fase di pre-sviluppo, una fase di sviluppo, una fase di implementazione ed una fase di post-implementazione. Analizziamo meglio le singole sottofasi:

  • Feedback e miglioramento continuo: Implementazione di meccanismi di evoluzione progressiva.
  • Definizione del problema: Determinare se l’AI sia la soluzione appropriata e stabilire criteri di successo misurabili.
  • Raccolta dei dati: Acquisizione di dati di alta qualità tenendo conto di privacy e bias.
  • Pre-elaborazione dei dati: Trasformazione dei dati grezzi, gestione dei valori mancanti e suddivisione in set di addestramento, validazione e test.
  • Analisi esplorativa dei dati (EDA): Scoperta di pattern e valutazione dei rischi etici.
  • Selezione del Modello: Scelta dell’algoritmo (es. LLM) bilanciando interpretabilità e prestazioni.
  • Addestramento del Modello: Processo iterativo di apprendimento dai dati e messa a punto degli iperparametri.
  • Valutazione del Modello: Test rigoroso tramite metriche (accuratezza, precisione) e analisi della eXplainability (XAI).
  • Implementazione del Modello: Messa in esercizio basata su requisiti prestazionali e infrastrutturali.
  • Documentazione e Governo: Predisposizione di documentazione chiara sui rischi per favorire la fiducia degli stakeholder.
  • Monitoraggio e manutenzione: Tracciamento delle prestazioni e cicli di riaddestramento.

Governance e conclusioni: la sfida della consapevolezza


Gestire un’AI responsabile richiede pertanto specifiche conoscenze sia tecnologiche (ad es. tecniche di Explainable AI, Algorithmic fairness e Mitigazione di Bias) sia di governance e gestione del rischio AI volte a garantire una documentazione completa lungo le fasi del ciclo di vita del modello ed una comunicazione adeguata ai diversi interlocutori: dai team tecnici (IT, Security, Audit), fino al consiglio di amministrazione.

Essere in grado di spiegare sia i limiti che le potenzialità del modello AI consente di prendere decisioni responsabili. In questo contesto, la CSA (Cloud Security Alliance) ha sviluppato specifiche linee guida e strumenti di audit, come l’AI Control Matrix[2], nell’ambito dell’iniziativa di ricerca AI Safety[3].

📍 Il tema della governance dei sistemi AI, della sicurezza dei dati e dell’affidabilità dei modelli sarà trattato anche il prossimo 24 febbraio a GoBeyond 2026, dove esperti e leader del settore si incontreranno per discutere di innovazione digitale e sicurezza.

[1] Cloud Security Alliance, www.cloudsecurityalliance.org

[2] https://cloudsecurityalliance.org/artifacts/ai-controls-matrix

[3] https://cloudsecurityalliance.org/ai-safety-initiative

Condividi questo contenuto con il tuo network

Resta aggiornato sulle ultime novità e gli eventi iKN