L’algoritmo al servizio dell’uomo, in Vaticano un convegno sull’'IA
Michele Raviart - Città del Vaticano
L’intelligenza artificiale traduce tutto in calcolo, ma possiamo ridurre tutto a una probabilità statistica? Come possiamo tutelare professionisti e lavoratori nei media dall’arrivo dell’Intelligenza Artificiale e mantenere il diritto di informare e di essere informati sulla base di verità, libertà e responsabilità? Come rendere interoperabili le grandi piattaforme che investono nelle IA generative che non riducano l’uomo a un giacimento di dati da sfruttare? Sono queste le domande - ispirate dai messaggi di Papa Francesco per la Giornata Mondiale della pace e per quella delle Comunicazioni sociali, oltre al recente intervento al G7 in Puglia – che il prefetto del Dicastero per la Comunicazione della Santa Sede, Paolo Ruffini, ha posto ai relatori e ai partecipanti del convegno “L’algoritmo al servizio dell’uomo. Comunicare nell’epoca dell’intelligenza artificiale”, organizzato dallo stesso dicastero con la collaborazione della fondazione San Giovanni XXIII e che si è svolto nella Casina Pio IV in Vaticano, sede della Pontificia Accademia delle Scienze Sociali.
La Chiesa cammina con l'uomo e la sua cultura
Gli interventi di Francesco sull’Intelligenza Artificiale, ha ribadito padre Lucio A. Ruiz, segretario del Dicastero per la Comunicazione, testimoniano il “fiuto” della Chiesa nel camminare con l’uomo nella sua cultura attraverso i cambiamenti della storia. È avvenuto così, ha spiegato, quando 500 anni fu creata la prima tipografia vaticana poco tempo dopo la scoperta di Gutenberg, con la costruzione della Radio Vaticana da parte dell’inventore delle comunicazioni senza filo Guglielmo Marconi nel 1931 o con la creazione del portale vatican.va nel 1994, quando il web era appena apparso sui computer della gente comune.
Uno strumento da regolare
Ed è proprio dall’essenza primaria dei computer, che è quella di fare calcoli, che è iniziata la relazione di padre Paolo Benanti, docente di etica e bioetica alla Pontificia Università Gregoriana, presidente della Commissione IA per l’informazione e membro del Comitato IA delle Nazioni Unite, nel primo intervento del panel “L’etica dell’algoritmo e le sfide per la comunicazione”. Benanti ha ricordato come la realtà sia stata cambiata dall’invenzione dei transistor, messa a disposizione dagli Stati Uniti ai suoi alleati dopo i successi della seconda guerra mondiale, quando i primi prototipi di computer contribuirono alla scoperta della bomba atomica e alla decodificazione dei codici segreti usati dalla Germania nazista. Da quella visione centralizzata della tecnologia e attraverso la rivoluzione dei pionieri della Silicon Valley negli anni 70, si è arrivati a una computazione “personale” e intima, attraverso prima i Pc e poi gli smartphone. Con ChatGPT e la sua implementazione nelle interfacce dei telefoni Apple e Microsoft, ha sottolineato il padre francescano, non sappiamo ancora quanto il computazionale sarà personale e quanto centralizzato in cloud. Per questo, ha aggiunto, è necessaria una regolamentazione come ha fatto l’Unione Europea, in modo da fare con l’intelligenza artificiale quello che è stato fatto con il codice della strada per le automobili.
Una rivoluzione antropologica
L’Intelligenza Artificiale non è un salto tecnologico impressionante di per sé, ha sottolineato invece Nunzia Ciardi, vicedirettore generale dell’Agenzia per la Cybersicurezza Nazionale. Quello che rende la sua implementazione un qualcosa che avrà un impatto antropologico decisivo sulla realtà è il fatto che si basa su un enorme quantità di dati rastrellati in questi decenni “in modo brutale” dalle aziende attraverso servizi gratuiti o applicazioni che per noi ormai sono fondamentali. Altri aspetti da sottolineare sono l’uso della lingua inglese per addestrare gli algoritmi – con tutti i valori e le espressioni cultura che un idioma ha rispetto ad un altro – e il rischio di avere sempre più difficoltà a decodificare messaggi complessi, che può essere pericoloso in democrazia. “Il sapere sta diventando una proprietà privata”, ha commentato invece il professor Mario Rasetti, emerito di Fisica teorica del Politecnico di Torino e presidente del scientific board di CENTAI, raccontando l’esperienza di OpenAI, nata come una società no profit di scienziati e acquistata da Microsoft per 10 miliardi. Dobbiamo fare dell’Intelligenza Artificiale una scienza che abbia delle definizione rigorose, ha aggiunto, perché allo stato attuale si presenta come uno strumento probabilistico, che difficilmente può misurare intelligenza, verità e causa.
Le regole del gioco
Tutti gli elementi che plasmano la nostra realtà sono interdipendenti, ha spiegato Elisabetta Belloni, direttore generale del Dipartimento delle informazioni per la sicurezza (DIS) italiano, intervenuta al secondo panel del convegno, incentrato sul tema "Dove va l’AI, quali regole del gioco servono?" In questo senso, ha continuato Belloni, anche i programmi di intelligenza artificiale non sono uno strumento a se stante, ma dipendono da una serie di altri fattori che tutti insieme creano l’Ai. Per questo l’Italia ha spinto i governanti del G7 a cominciarsi a porsi alcune domande su questo tema, sostenendo nella dichiarazione finale di dover affrontare la questione da un piano etico. Un primo passo è stato fatto con l’AI Act dell’Unione Europea, uno dei primi atti regolativi al mondo. “Una normazione domestica che va a regolare come entrano i prodotti dell’IA nel mercato europeo”, ha spiegato il relatore dell’AI Act, l’eurodeputato Brando Benifei, in modo da evitare fenomeni come quello della polizia predittiva, la registrazione delle emotività studenti e lavoratori, l’uso telecamere a rilevamento facciale se non sotto controllo della magistrata, e il “social scoring”, attraverso cui la reputazione delle persone viene valutate con dei punteggi sulla base delle proprie azioni. Un’altra criticità, ha ricordato Alberto Barachini, sottosegretario alla Presidenza del Consiglio dei Ministri con delega all’informazione e all’editoria, è quella della raccolta dati, sia per quanto riguarda la raccolta dei registri dei risultati dei processi generativi sia per quanto riguarda il diritto d’autore, laddove gli output delle AI non permettono di risalire agli input. “Se non difendiamo l’informazione umana”, ha aggiunto poi Barachini, “difficilmente difenderemo la frontiera della libertà”. Le regole da sole tuttavia non possono bastare se la differenza di investimenti sulle AI tra Stati Uniti e Cina da una parte, e di Europa dall’altra rimane così ampia, ha aggiunto Antonio Arcidiacono, direttore del settore Tecnologia e innovazione dell' EBU (European Broadcasting Union). L’unico modo per compensare questo divario, ha concluso, è la collaborazione.
Grazie per aver letto questo articolo. Se vuoi restare aggiornato ti invitiamo a iscriverti alla newsletter cliccando qui