Torna agli insight

Perchรฉ รจ importante utilizzare unโ€™ AI Responsabile: ilย punto di vista di Alberto Manfredi | CSA Italyย 

Verso un’AI Responsabile: etica e trasparenza


Con lโ€™utilizzo sempre piรน pervasivo di sistemi ed applicazioni AI sia in ambiente lavorativo che personale, si rende necessario verificare che questi operino in modalitร  corretta e imparziale, spiegabile ed affidabile. In sostanza dovremmo verificare se stiamo utilizzando una AI Responsabile.

In questo articolo, Alberto Manfredi, EMEA Development Director | Presidente | Country Leader | Chapter Ambassador
CSA Italy,
evidenzia come lโ€™adozione di principi di etica, trasparenza e spiegabilitร  (o Explainability) nello sviluppo di sistemi ed applicazioni AI dovranno costituire le fondamenta per utilizzarli in modo sicuro ed affidabile e promuovere un nuovo modello di responsabilitร  condivisa, unโ€™ AI Shared Responsibility, tra fornitori ed utilizzatori, correlato al modello di Security Shared Responsibility ย giร  introdotto (da CSA[1]) per lโ€™utilizzo del cloud computing che rappresenta la principale piattaforma di sviluppo ed erogazione di servizi AI .

Le 6 caratteristiche fondamentali dell’AI responsabile


Ma come possiamo capire se siamo di fronte ad una AI responsabile o meno? Prima di tutto dovremmo considerare le 6 caratteristiche principali di una AI responsabile:

  • Equitร  (Fairness): i modelli non dovrebbero favorire nรฉ svantaggiare le persone sulla base di attributi sensibili.
  • Comprensione del modello e trasparenza (Explainability): capacitร  di interpretare come e perchรฉ un modello di machine learning formula le proprie previsioni (es. strumenti SHAP e LIME).
  • Responsabilitร  (Accountability): garantire che i sistemi di AI operino in modo responsabile, con meccanismi chiari di supervisione e conformitร .
  • Privacy: garantire che le informazioni degli utenti siano gestite con consenso, anonimizzazione e archiviazione sicura.
  • Safety & Security: i sistemi devono essere resilienti e prevenire attivamente danni. L’AI Security indirizza la protezione da data poisoning, furti del modello e vulnerabilitร  della supply chain.
  • Beneficenza (Beneficence): lโ€™AI dovrebbe migliorare il benessere umano con approcci human-in-the-loop, aumentando le capacitร  umane anzichรฉ sostituirle.

Il ciclo di vita dello sviluppo AI (AI Lifecycle)


Successivamente รจ necessario conoscere le fasi del ciclo di vita dello sviluppo di un modello AI e procedere con opportune valutazioni di coerenza con le caratteristiche di AI responsabile per ogni singola fase.

Le fasi comprendono, in generale, una fase di pre-sviluppo, una fase di sviluppo, una fase di implementazione ed una fase di post-implementazione. Analizziamo meglio le singole sottofasi:

  • Feedback e miglioramento continuo: Implementazione di meccanismi di evoluzione progressiva.
  • Definizione del problema: Determinare se lโ€™AI sia la soluzione appropriata e stabilire criteri di successo misurabili.
  • Raccolta dei dati: Acquisizione di dati di alta qualitร  tenendo conto di privacy e bias.
  • Pre-elaborazione dei dati: Trasformazione dei dati grezzi, gestione dei valori mancanti e suddivisione in set di addestramento, validazione e test.
  • Analisi esplorativa dei dati (EDA): Scoperta di pattern e valutazione dei rischi etici.
  • Selezione del Modello: Scelta dellโ€™algoritmo (es. LLM) bilanciando interpretabilitร  e prestazioni.
  • Addestramento del Modello: Processo iterativo di apprendimento dai dati e messa a punto degli iperparametri.
  • Valutazione del Modello: Test rigoroso tramite metriche (accuratezza, precisione) e analisi della eXplainability (XAI).
  • Implementazione del Modello: Messa in esercizio basata su requisiti prestazionali e infrastrutturali.
  • Documentazione e Governo: Predisposizione di documentazione chiara sui rischi per favorire la fiducia degli stakeholder.
  • Monitoraggio e manutenzione: Tracciamento delle prestazioni e cicli di riaddestramento.

Governance e conclusioni: la sfida della consapevolezza


Gestire unโ€™AI responsabile richiede pertanto specifiche conoscenze sia tecnologiche (ad es. tecniche di Explainable AI, Algorithmic fairness e Mitigazione di Bias) sia di governance e gestione del rischio AI volte a garantire una documentazione completa lungo le fasi del ciclo di vita del modello ed una comunicazione adeguata ai diversi interlocutori: dai team tecnici (IT, Security, Audit), fino al consiglio di amministrazione.

Essere in grado di spiegare sia i limiti che le potenzialitร  del modello AI consente di prendere decisioni responsabili. In questo contesto, la CSA (Cloud Security Alliance) ha sviluppato specifiche linee guida e strumenti di audit, come l’AI Control Matrix[2], nellโ€™ambito dellโ€™iniziativa di ricerca AI Safety[3].

๐Ÿ“ Il tema della governance dei sistemi AI, della sicurezza dei dati e dell’affidabilitร  dei modelli sarร  trattato anche il prossimo 24 febbraio a GoBeyond 2026, dove esperti e leader del settore si incontreranno per discutere di innovazione digitale e sicurezza.

[1] Cloud Security Alliance, www.cloudsecurityalliance.org

[2] https://cloudsecurityalliance.org/artifacts/ai-controls-matrix

[3] https://cloudsecurityalliance.org/ai-safety-initiative

Condividi questo contenuto con il tuo network

Resta aggiornato sulle ultime novitร  e gli eventi iKN