Copertina articolo: 𝗥𝗲𝘀𝗽𝗼𝗻𝘀𝗮𝗯𝗶𝗹𝗶𝘁𝗮̀ 𝗮𝗹𝗴𝗼𝗿𝗶𝘁𝗺𝗶𝗰𝗮: 𝗹𝗮 𝗳𝗶𝗱𝘂𝗰𝗶𝗮 𝗻𝗼𝗻 𝘀𝗶 𝗽𝗿𝗲𝘀𝘂𝗺𝗲, 𝘀𝗶 𝗽𝗿𝗼𝗴𝗲𝘁𝘁𝗮

𝗥𝗲𝘀𝗽𝗼𝗻𝘀𝗮𝗯𝗶𝗹𝗶𝘁𝗮̀ 𝗮𝗹𝗴𝗼𝗿𝗶𝘁𝗺𝗶𝗰𝗮: 𝗹𝗮 𝗳𝗶𝗱𝘂𝗰𝗶𝗮 𝗻𝗼𝗻 𝘀𝗶 𝗽𝗿𝗲𝘀𝘂𝗺𝗲, 𝘀𝗶 𝗽𝗿𝗼𝗴𝗲𝘁𝘁𝗮

di Pasquale Sicignano · 11 maggio 2026

Durante una delle recenti lezioni che ho seguito presso la University of Maryland, all’interno del programma AI and Career Empowerment, abbiamo approfondito il tema della responsabilità algoritmica, una discussione che mi ha colpito molto.

Questo confronto ha stimolato in me una serie di riflessioni sull’uso etico degli algoritmi e dei dati nei processi decisionali, e su quanto la responsabilità debba rimanere la bussola che guida ogni implementazione dell’intelligenza artificiale.

Continuando a studiare e lavorare nell’ambito della Responsible AI, mi rendo conto sempre di più che la responsabilità algoritmica non è soltanto una questione tecnica: è un vero e proprio patto sociale tra gli esseri umani e i sistemi che costruiamo.

Comprendere la responsabilità algoritmica

La responsabilità algoritmica non è solo un concetto teorico; è un quadro pratico per garantire che i sistemi di intelligenza artificiale rimangano trasparenti, equi e rendicontabili.

Quando gli algoritmi iniziano a influenzare l’accesso alla sanità, al credito, al lavoro o alla giustizia, la domanda non è più semplicemente se dobbiamo fidarci di loro, ma come quella fiducia viene costruita, guadagnata e mantenuta.

La trasparenza è spesso il punto in cui emergono le prime criticità. I sistemi di deep learning possono produrre risultati che persino i loro sviluppatori non riescono sempre a spiegare pienamente. Senza spiegabilità, equità e accountability restano promesse, non garanzie.

Nella mia esperienza, sia in contesti accademici sia in progetti reali orientati alla promozione di una AI responsabile, ho osservato come la mancanza di trasparenza possa compromettere rapidamente la fiducia, la collaborazione e la legittimità sociale.

Quando gli algoritmi sbagliano

Alcuni fallimenti sono diventati esempi emblematici del motivo per cui la governance etica è fondamentale.

Nel 2018, Joy Buolamwini e Timnit Gebru, nello studio Gender Shades, hanno dimostrato che alcuni sistemi commerciali di riconoscimento facciale classificavano erroneamente le donne con pelle più scura con tassi di errore fino al 34%, rispetto a meno dell’1% per gli uomini con pelle più chiara¹. Un esempio evidente di come dataset distorti possano riprodurre silenziosamente le disuguaglianze.

Due anni prima, un’inchiesta di ProPublica sul sistema COMPAS aveva rivelato che uno strumento predittivo del rischio di recidiva, utilizzato nei tribunali statunitensi, aveva una probabilità doppia di classificare erroneamente gli imputati neri come ad alto rischio rispetto agli imputati bianchi². In quel caso, l’algoritmo non si limitava a riflettere un bias: lo istituzionalizzava.

Nel settore sanitario, un articolo pubblicato su Science nel 2019 ha mostrato come un algoritmo per l’allocazione delle risorse sottostimasse i bisogni dei pazienti neri, perché utilizzava il “costo sanitario” come proxy della “gravità della malattia”³.

Nel mondo legale, il caso Mata v. Avianca del 2023 ha invece dimostrato come i modelli generativi, come ChatGPT, possano produrre citazioni inventate con grande sicurezza, inducendo professionisti a fare affidamento su riferimenti inesistenti⁴.

Questi episodi ci ricordano che il danno algoritmico raramente nasce da un’intenzione malevola. Molto più spesso deriva da negligenza strutturale, test insufficienti, debole governance dei dati o fiducia acritica nell’automazione.

Correggere ciò che costruiamo: governance e remediation

Fortunatamente, il contesto sta evolvendo.

L’EU AI Act del 2024 ha introdotto obblighi concreti per i sistemi ad alto rischio, ponendo l’accento su documentazione, tracciabilità e supervisione umana⁵.

Allo stesso modo, il NIST AI Risk Management Framework del 2023 propone un processo ciclico — Govern, Map, Measure, Manage — per integrare la responsabilità in ogni fase del ciclo di vita dell’intelligenza artificiale⁶.

Quadri internazionali come i Principi OCSE sull’intelligenza artificiale del 2019 e la Raccomandazione UNESCO sull’etica dell’AI del 2021 rafforzano questa base comune, collegando innovazione, diritti umani e responsabilità sociale⁷ ⁸.

Nel settore privato, gli audit sui bias e strumenti di trasparenza come IBM AI Fairness 360 e Microsoft Fairlearn⁹, insieme agli Algorithmic Impact Assessment obbligatori previsti in Canada dalla Directive on Automated Decision-Making del 2020¹⁰, stanno diventando elementi sempre più centrali nella gestione operativa dell’AI.

Ma, a mio avviso, la governance da sola non basta.

La vera responsabilità richiede cultura: un impegno al dialogo continuo tra ingegneri, esperti di etica, decisori pubblici e comunità coinvolte.

Significa riconoscere che la “Responsible AI” non è un’etichetta statica, ma una pratica in continua evoluzione, fatta di consapevolezza, confronto e umiltà.

Il lato umano dell’accountability

Più studio questi temi, più mi convinco che la responsabilità algoritmica riguardi meno la tecnologia in sé e molto di più l’intenzionalità con cui la progettiamo e la utilizziamo.

Significa costruire sistemi capaci di spiegarsi, di riconoscere l’incertezza e di rimanere aperti al controllo e alla revisione.

La perfezione è impossibile, ma la capacità di rispondere, correggere e migliorare è essenziale.

Come professionisti, educatori e cittadini, condividiamo il dovere di fare in modo che i sistemi di intelligenza artificiale riflettano i nostri valori migliori, non i nostri bias nascosti.

L’equità nei dati deve essere accompagnata dall’equità nel dialogo. E questo inizia da un semplice atto di responsabilità:

chiedersi perché un algoritmo decide nel modo in cui decide.

Note

  1. Joy Buolamwini & Timnit Gebru – Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification, Proceedings of Machine Learning Research, 2018.
  2. Julia Angwin, Jeff Larson, Surya Mattu & Lauren Kirchner – Machine Bias: There’s Software Used Across the Country to Predict Future Criminals. And It’s Biased Against Blacks, ProPublica, 2016.
  3. Ziad Obermeyer, Brian Powers, Christine Vogeli & Sendhil Mullainathan – Dissecting Racial Bias in an Algorithm Used to Manage the Health of Populations, Science, 2019.
  4. Mata v. Avianca, Inc., United States District Court, Southern District of New York, 2023.
  5. Unione Europea – Regolamento sull’intelligenza artificiale, AI Act, Gazzetta ufficiale dell’Unione Europea, 2024.
  6. National Institute of Standards and Technology, NISTAI Risk Management Framework 1.0, 2023.
  7. OECD – OECD Principles on Artificial Intelligence, OECD Legal Instruments, 2019.
  8. UNESCO – Recommendation on the Ethics of Artificial Intelligence, 2021.
  9. Rachel Kroll – Fairlearn and AI Fairness 360: Tools for Algorithmic Transparency, Microsoft Research Report, 2021.
  10. Government of Canada – Directive on Automated Decision-Making, Treasury Board Secretariat, 2020.

Resta aggiornato su AI, governance e trasformazione digitale

Una mail mensile, senza fuffa. Casi reali, framework e riflessioni utili a chi guida iniziative di AI, advisory e trasformazione digitale. Iscriviti, disiscriviti quando vuoi.

Riceverai un'email per confermare la tua iscrizione.

← Torna agli articoli