RadioSapienza

Il Futuro Ascoltalo QUI. La radio ufficiale della Sapienza

“L’informazione al servizio dell’algoritmo”. Dibattito sull’intelligenza artificiale Mezza, Fontanarosa e Marino

      Intervista a Michele Mezza

Dal progetto intercattedra, organizzato dai Professori Elena Valentini e Christian Ruggiero, docenti della Sapienza, è nata l’esigenza di un confronto sul tema del cambiamento della professione giornalistica a seguito dell’introduzione dell’algoritmo nel mondo dell’informazione. Tale esigenza si è risolta nell’incontro che si è svolto il 13 dicembre presso l’aula Blu1 con la partecipazione di Michele Mezza, docente all’Università Federico II di Napoli, autore e giornalista; Aldo Fontanarosa, giornalista a “la Repubblica”, docente alle Università LUISS e LUMSA e autore e Francesco Marino, autore, giornalista, digital strategist per aziende e istituzioni e formatore per professionisti e organizzazioni.

Oggi esistono numerose applicazioni che si annoverano tra i sistemi di piccola intelligenza artificiale che vengono in soccorso dei cronisti: Krisp, ad esempio, è un’applicazione che funge da filtro di riduzione del rumore. Nel 2017 il Financial Times ha lanciato l’algoritmo Janet Bot, il suo compito è quello di monitorare le foto di uomini e donne per garantire una rappresentazione paritaria tra generi. Nel 2018 lo stesso quotidiano ha introdotto l’algoritmo sentinella She said He said, che verifica le dichiarazioni attribuite a uomini e quelle attribuite a donne. Il senso è duplice: da un lato il perseguimento di una battaglia di carattere culturale per scongiurare il rischio di dare voce prevalentemente agli uomini e, dall’altro, una logica di marketing poiché le lettrici del Financial Times restano più fedeli nel tempo all’abbonamento e adottano un atteggiamento meno iroso nei commenti agli articoli rispetto agli uomini. “L’intelligenza artificiale rende possibile un giornalismo migliore: quello di investigazione, di approfondimento e di impegno civile”, ha dichiarato il Professor Fontanarosa; questo è il caso di Jeff Ernsthausen, collaboratore dell’Atlanta-Journal Constitution, che ha creato degli algoritmi al fine di consultare più facilmente i numerosi rapporti disciplinari che hanno investito i medici dello stato della Georgia individuando, in questo modo, i medici che hanno sottoposto le pazienti a degli abusi sessuali. Grazie all’intelligenza artificiale è anche possibile scovare più facilmente le fake news: l’agenzia di informazione Reuters, per esempio, servendosi dell’algoritmo News Tracer, opera proprio in questa direzione, basandosi sulle testimonianze di un determinato evento su Twitter per giudicarlo plausibile o meno, valutandone la geolocalizzazione, la coerenza interna e le parole chiave, così come è accaduto nel 2018 con la notizia di una sparatoria a Paradise, vicino a Las Vegas. Questo algoritmo genera un titolo, un breve sommario della notizia e fornisce un livello di confidence, ovvero di potenziale attendibilità di quanto ha intercettato. Ci sono, tuttavia, anche dei risvolti negativi per i ruoli tradizionali: è il caso di Designs.ai, grazie al quale, fornendo un semplice testo, è possibile creare un premontaggio di un servizio televisivo. L’agenzia di informazione Xinhua ha prodotto conduttori di telegionali in grado di leggere testi prestabiliti. “Li utilizzeremo per risparmiare sul costo del lavoro”, questa è stata la risposta fornita in merito dall’agenzia. Alla luce dei nuovi sviluppi tecnologici “è necessaria una normativa che induca alla trasparenza”, ha affermato Fontanarosa, “ci sono tanti, forse troppi editori in Europa e in Italia che utilizzano massivamente l’intelligenza artificiale nel lavoro giornalistico senza dirlo”.

Secondo il parere del Professor Mezza è essenziale un ripensamento del contesto sociale e dei ruoli; oggi non si è più legati, come in passato, alla tecnicalità professionale ed è impossibile stabilire un quadro concettuale di riferimento: è obbligatorio confrontarsi con le tendenze. Nel contesto odierno il vero commercio è caratterizzato da dati e algoritmi; ogni algoritmo ha un proprietario, che ha investito denaro per uno scopo che costituisce il mezzo per il quale questo opera. “Il fine è l’acquisizione di informazioni in grado di creare un sistema predatorio dell’intimo di ogni singolo utente”, ha affermato Mezza, tuttavia, occorre pensare che in questo continuo processo di mutamento e di superamento della tradizione, non si può pretendere di rinunciare all’ambiguità poiché “nessuna tecnologia è valida senza un conflitto sociale”, questo è stato il caso della nascita della rete, che ha origine da un processo di disintermediazione sociale che, tuttavia, non ci ha preservato da un’ambivalenza che persiste ancora oggi; per questo non si può parlare di algoritmi buoni e algoritmi cattivi. È possibile, però, negoziare l’algoritmo attraverso uno strumento fondamentale: l’etica, e i soggetti che possono e devono compiere questo atto sono le città, le università e le categorie professionali. Oggi si può conciliare l’intelligenza artificiale con la professione del giornalista, ma è necessario che quest’ultimo si adatti al cambiamento, ponendo l’apprendimento dei sistemi automatici al centro della sua formazione, non tralasciando la necessità di un senso di comunità che si costruisce con obiettivi comuni.

L’algoritmo consta di tre fasi: la prima è rappresentata dall’Input, caratterizzato dall’inserimento dei dati, la seconda dal processo, caratterizzato da una vera e propria operazione matematica e l’ultima fase è rappresentata dal risultatoShoshana Zuboff, nel suo libro Il Capitalismo della Sorveglianza descrive in modo esaustivo il modo in cui le nuove aziende digitali sfruttano i dati degli individui generando un nuovo capitalismo basato sulle informazioni personali. Gli algoritmi organizzano la nostra vita digitale fornendoci contenuti personalizzati e vendendo pubblicità. Il processo tramite il quale viene effettuata questa operazione non è interamente comprensibile e, pertanto, analizzabile. Il modo in cui operano gli algoritmi di raccomandazione, ovvero quelli che si occupano di proporre contenuti, si basa su un processo che valuta da un lato la componente sociale, cioè analizza il network sociale di ognuno e, dall’altro, il contenuto: like, tempo speso sulle piattaforme, condivisioni e commenti a un post. Ma quali sono le conseguenze? “Tutto ciò che noi vediamo quando apriamo un social network è output, cioè è il risultato del processo matematico invisibile”, ha affermato Marino. Il nostro spazio digitale è dominato da contenuti non casuali, ma suggeriti per noi da algoritmi. Le conseguenze di questi algoritmi non sono sempre prevedibili e producono questioni sociali inaspettate. Di tali conseguenze inattese parlava il sociologo Robert Merton, che ha sviluppato il tema degli interessi immediati che sovrastano quelli a lungo termine. “Temo non ci sia uno spazio di negoziazione. L’unica cosa che possiamo fare è adattarci a quello che abbiamo e provare a renderlo un po’ più agibile”, ha concluso Marino.

Questo processo di cambiamento non può essere arrestato, ma può essere riprogrammato e sfruttato per la propria emancipazione: “Comanda un algoritmo. La partita si gioca su come si riprogramma, per la propria emancipazione, una potenza che sta oggettivamente cambiando il mondo”, ha asserito il Professor Michele Mezza.