RadioSapienza

Il Futuro Ascoltalo QUI. La radio ufficiale della Sapienza

L’intelligenza artificiale raccontata dall’interno: rischi e benefici di una nuova tecnologia

Sempre più persone vengono a conoscenza dell’intelligenza artificiale, ma cosa si intende? 
Questo è quanto ha provato a svelare, nella giornata di venerdì 21 aprile, il professore di ingegneria informatica dell’Università La Sapienza di Roma, Maurizio Lenzerini. Con un seminario svolto presso la neo aula “Falcone e Borsellino”, nella facoltà di Giurisprudenza dell’ateneo.
Incontro riguardante la conoscenza in campo di intelligenza artificiale. L’iniziativa si inserisce nell’ambito del ciclo di seminari “Intelligenza artificiale tra diritto, etica e tecnologia: percorsi di ricerca”, ideato ed organizzato dalla professoressa Beatrice Serra e finanziato dall’Università degli Studi di Roma Sapienza.

Prima di immergersi nel complicato e assai arduo tema, il professore ha voluto sottolineare cosa si intendesse per “intelligenza”. Un incipit considerato da lui stesso necessario, affinché si potesse comprendere meglio quello di cui noi oggi stiamo pian piano imparando a conoscere. 
Gestire la conoscenza sul mondo”, così è stata sommariamente definita la parola “intelligenza” dal professore, che successivamente ha spiegato come fin dall’antica Grecia, dai tempi di Aristotele, si è cercato di arrivare a trarre qualche conclusione. In particolare il filosofo greco, padre della filosofia occidentale, è stato il primo a parlare della conoscenza, ritenuta una tematica di stampo filosofico ma che poi nei secoli è traslata verso le materie scientifiche. 
Aristotele ha introdotto per primo l’argomento ontologico, coordinata con l’interrogativo “cosa c’è nel mondo?”. Questa è la domanda principale su cui si basa questa branca della filosofia.  E lo scopo è quello di classificare, incasellare tutto quello che noi definiamo realtà. 
Come? Mediante l’uso della logica. Questo meccanismo, a noi oggi comune, è stato introdotto dallo stesso filosofo greco e poi ripreso successivamente nei secoli da altri grandi scienziati, come Leibniz. Egli percepiva che nella sua materia, la matematica, mancasse qualcosa. E questa sensazione di vuoto è stata risolta proprio dallo strumento aristotelico, grazie al quale è stato possibile dimostrare teoremi. 

Concluso questo incipit di natura storica, il professore è entrato nel vivo dell’argomento.
La computer science, o conosciuta come le scienze delle computazioni, è diventata il tema di base su cui poi si è sviluppata la conferenza. Ha sottolineato come oggi si faccia un uso sbagliato del termine “algoritmo”, definito correttamente come “una sequenza di passi in un linguaggio informatico“.
Ma perché questo? Per far intendere come l’intelligenza artificiale si basi principalmente su centinaia di algoritmi atta a risolvere un problema. Sempre più approfonditamente ci si è addentrati fino a trovarci di fronte a un bivio. All’interno del mondo dell’intelligenza artificiale esistono due “religioni”, come il professore stesso ha definito. Due modi di intendere, pensare e successivamente agire riguardo la IA. Il primo è un “approccio simbolico”, con lo scopo di dare una rappresentazione per l’appunto simbolica della realtà, mediante il sillogismo di Aristotele: un ragionamento in cui, poste due premesse, ne consegue logicamente una conclusione diversa dalle precedenti, senza che occorra nessun concetto intrinseco, poiché diretta conseguenza.  Segue contrariamente un approccio sub simbolico, in cui la logica viene sostituita da esempi sul problema da risolvere. Vengono analizzati una serie di modelli in pari con la questione da chiarire. Proseguendo per procedimenti di probabilità; si conclude con la soluzione finale.

Si aggiunge poi una domanda, ma dov’è la rappresentazione della conoscenza? 
Per ogni metodo si cela una risposta differente. Per la Computer Science, questa è intrinseca all’algoritmo, incastonata nel codice. Nell’approccio simbolico ne avviene una manipolazione per arrivare alla conclusione. Mentre nell’ultimo metodo, che esclude ogni forma di logica, la conoscenza si svela grazie ai molteplici esempi che hanno aiutato il sistema, ma senza sapere perché. 
Il sistema sub simbolico non ha la capacità di capire quello che sta facendo, esso fa, ma non sa il perché. “Un cervello” talmente tanto allenato che è in grado di rispondere, non tanto per capacità cognitive, ma semplicemente per probabilità.

Come ogni cosa, anche l’intelligenza artificiale nasconde un lato negativo. Per arrivare al risultato attuale, quello di cui disponiamo oggi, c’è stato un grande spreco di energie, di acqua, per il raffreddamento dei macchinari, e si dice anche esperimenti su esseri umani. I rischi sono molteplici, come allucinazioni, mancanza di consapevolezza del risultato e manipolatore di parole; perché, ribadisce il professore, “l’intelligenza artificiale agisce, ma non sa perché“. Non conosce errore, non sa cosa sia giusto o sbagliato, non sa cosa è vero o cosa sia falso. Svetta anche il problema del Bias, una visione troppo soggettiva di quello che accade, alienandosi dalla realtà oggettiva delle cose. L’intelligenza artificiale rimane sicuramente un gran passo avanti in chiave tecnologica e scientifica, ma tuttora si trova in uno stato di caos, una forza troppo potente che necessita di un controllo continuo e grande attenzione, poiché si potrebbe arrivare anche a conclusioni rischiose.
L’intelligenza artificiale non ha etica, non conosce la paura, e la mancanza di questo freno, talvolta necessario, potrebbe rivelarsi fatale