Etica, inclusione e responsabilità sociale al centro del seminario alla Sapienza
Lunedì 26 maggio 2025, presso il Centro Congressi dell’Università La Sapienza, si è svolto il seminario “Etica e intelligenza artificiale: politiche e pratiche per sistemi più equi”, promosso dal Dipartimento di Comunicazione e Ricerca Sociale in collaborazione con il gruppo di lavoro del PRIN PNRR IMAGES e con il progetto europeo Aequitas. Un incontro che ha messo in dialogo accademici, tecnici, rappresentanti istituzionali e attivisti per discutere un tema tanto attuale quanto complesso: è possibile progettare e utilizzare sistemi di intelligenza artificiale realmente equi?
Un’urgenza condivisa
A introdurre i lavori è stata Barbara Leda Kenny, caporedattrice di InGenere, che ha evidenziato come quello dell’equità algoritmica sia oggi uno dei nodi cruciali del dibattito contemporaneo: «C’è moltissimo da discutere, ma oggi siamo più ottimisti nel cercare risposte».
I saluti istituzionali del direttore del Dipartimento CoRiS, Alberto Marinelli, hanno sottolineato l’importanza di affrontare le trasformazioni in corso con spirito critico e consapevolezza. L’intelligenza artificiale, ha ricordato, ci interroga non solo come tecnologia, ma come nuovo spazio sociale in cui si riflettono paure, aspettative e valori umani.
Ha posto un interrogativo centrale, emerso in più momenti del seminario: siamo davvero pronti a delegare porzioni sempre più ampie del nostro vivere a sistemi che apprendono da dati storici, spesso pieni di distorsioni e disuguaglianze?

Progetti in campo: IMAGES e AEQUITAS
Prima di entrare nel dettaglio dei progetti presentati, è utile chiarire cosa si intende per bias nei sistemi di intelligenza artificiale. Con questo termine si indicano pregiudizi o distorsioni nei dati su cui i modelli vengono addestrati. Se i dati riflettono disuguaglianze sociali, stereotipi o discriminazioni esistenti – ad esempio di genere, etnia o classe – anche i sistemi di IA possono riprodurli e amplificarli nelle loro decisioni. È così che un algoritmo “neutrale” finisce per discriminare, non perché ne abbia intenzione, ma perché si basa su informazioni parziali o sbilanciate.
Due importanti progetti di ricerca hanno fornito strumenti concreti per affrontare questo problema.
Il primo è IMAGES (PRIN PNRR 2022), illustrato dalla docente Paola Panarese e dal ricercatore del CNR Angelo Oddi. Il progetto, interdisciplinare e co-finanziato con fondi PNRR, indaga come i sistemi di machine learning possano perpetuare bias legati a genere, etnia o classe sociale, e si propone di mitigarli attraverso un approccio che unisce scienze sociali, arte e tecnologia.
«Il presupposto da cui parte il progetto è la non neutralità degli algoritmi alla base del machine learning», ha spiegato Panarese. «L’IA è un dispositivo sociotecnico in cui si intrecciano valori, pratiche, immaginari. Per questo serve uno sguardo critico, che tenga insieme dimensione tecnica e culturale».
Il secondo progetto, AEQUITAS, è un Horizon Europe triennale (2022–2025) guidato da Roberta Calegari, docente dell’Università di Bologna. Il progetto sviluppa un ambiente sperimentale per testare e valutare i bias nei sistemi di IA, simulando situazioni concrete (come la descrizione di immagini o la selezione automatica di candidati) per verificare la presenza di distorsioni e confrontare soluzioni alternative.
L’obiettivo è costruire strumenti concreti per progettare algoritmi più equi e aiutare i decisori a comprendere i limiti di ciascun modello. «Non possiamo più lavorare da soli», ha sottolineato Calegari. «Solo un approccio condiviso può restituirci fiducia nei sistemi intelligenti».
Dai modelli ai contesti: perché serve un’AI literacy
Durante la giornata sono stati analizzati casi concreti che dimostrano quanto i sistemi attuali siano tutt’altro che imparziali: dagli strumenti predittivi utilizzati nel sistema giudiziario statunitense – che assegnano punteggi di recidiva più alti alle persone nere – ai software di screening automatico impiegati da aziende come Amazon o Google, che hanno dimostrato bias di genere nei processi di selezione del personale.
Per questo, come ha più volte sottolineato Calegari, è essenziale distinguere tra i diversi tipi di modelli – descrittivi, predittivi, decisionali, generativi – e comprenderne i limiti. L’intelligenza artificiale è ormai applicata su larga scala, spesso in assenza di un’adeguata consapevolezza dei suoi effetti.
«Serve una vera alfabetizzazione all’IA», ha ribadito. «Non solo per gli esperti, ma per tutti: cittadini, lavoratori, amministratori pubblici».
Nel dibattito è emersa anche la questione della trasparenza nella gestione dei dati. Come ricordato da diversi relatori, i dataset hanno proprietari ben precisi, e ciò che l’intelligenza artificiale “vede” dipende da chi raccoglie e struttura quei dati. La rappresentazione del mondo offerta dall’IA non è mai neutrale.
Intelligenza artificiale e responsabilità sociale
Al centro dell’incontro anche il ruolo delle istituzioni e della società civile. Mattia Peradotto, Direttore Generale di UNAR – Ufficio Nazionale Antidiscriminazioni Razziali, ha evidenziato la necessità di rafforzare un approccio integrato allo sviluppo dell’IA, che comprenda fasi di progettazione, regolazione, controllo e, ove necessario, sanzione.
«Giornate come questa – ha affermato – ci offrono l’opportunità di costruire reti tra mondi diversi: accademia, istituzioni, attori sociali. È fondamentale, soprattutto per una tematica vasta e sovranazionale come questa, che avrà un impatto crescente sulle nostre vite».
Giulia Sudano, cofondatrice e presidente di Period Think Tank, ha portato il punto di vista dell’attivismo femminista, sottolineando l’importanza di una consapevolezza critica nella rappresentazione dei dati: «Dietro ogni dato c’è una scelta, e quindi una responsabilità. Occorre far emergere le asimmetrie di potere implicite nei sistemi di raccolta e interpretazione».
A chiudere, l’intervento di Christian Ballarin, della Rete Nazionale delle Pubbliche Amministrazioni contro le Discriminazioni per orientamento sessuale e identità di genere: «L’intelligenza artificiale ci apre a possibilità importanti, ma non dobbiamo viverla passivamente. Siamo parte in causa: disegnare una tecnologia equa è una responsabilità sociale».
Lontano da tecnocentrismi e utopie digitali, il seminario ha dimostrato che l’etica dell’intelligenza artificiale è una sfida tanto tecnica quanto sociale. Una sfida che può essere affrontata solo con collaborazione, consapevolezza e volontà politica.
Perché sì, un’IA equa è possibile. Ma da sola, non lo sarà mai.
Si ringraziano Paola Panarese e Roberta Calegari per l’intervento ai nostri microfoni. In allegato, le interviste.
Articolo e interviste a cura di Sofia Licata