Il cuore dell’uomo può essere artificiale? È’ il quesito formulato da don Antonino Sapuppo al convegno tenutosi al Seminario Interdiocesano di Catania, a cura del Movimento Ecclesiale d’Impegno Culturale e del Serra Club di Catania, dal titolo Sviluppi dell’Intelligenza Artificiale e aspetti etici e giuridici. Il quesito non cessa di interrogarci.
Il tema delle prospettive prefigurabili dalla prorompente diffusione (o rectius intrusione?) della intelligenza artificiale in ambiti sempre più estesi, non soltanto della scienza e tecnica, ma delle stesse relazioni umane, continua a suscitare reazioni non univoche e dissonanti. Ove si alternano, e talora si sovrappongono, moti di entusiasmo a pause di perplessità. Che non di rado sfociano in un diffuso senso d’inquietudine, quando le implicazioni del suo utilizzo involgono l’identità stessa dell’umana ragione (vedi nostro articolo del 25 gennaio).
I tre relatori
Da qui l’iniziativa congiunta dei due sodalizi, di proporre delle riflessioni mosse da tre diversi punti di vista. E da tre insigni relatori: il prof. Salvatore Casale, Ordinario di Sistemi di telecomunicazioni presso l’ateneo di Catania, don Antonino Sapuppo, direttore dello Studio Teologico San Paolo e la dott.ssa Maria Grazia Vagliasindi, presidente emerito della Corte d’Appello di Caltanissetta.
Dopo il saluto inaugurale della presidente del Serra, prof.ssa Renata Gentile Messina e l’intervento introduttivo del presidente del Meic, dott. Filippo Uccellatore, l’ampia relazione del prof. Casale. Questi, prima di esplorare l’esteso spettro di possibile utilizzo dell’I.A. in vari ambiti della vita quotidiana, non come scenario remotamente futuribile ma di incipiente attuazione, ha illustrato le tecniche di acquisizione, rielaborazione e esternazione dei dati, degli algoritmi in regime di machine learning e di deep learning. E anche le loro modalità operative, progettate per riprodurre i sistemi di funzionamento dei neuroni umani. Neuroni che nei processi più avanzati si sviluppano in una catena di black boxes cosi opachi da rendersi inaccessibili persino ai loro stessi progettisti.
Che un’intelligenza prodotta dall’uomo possa divenire… non intellegibile all’uomo stesso, oltre a una contraddizione in termini, è forse l’aspetto più sconvolgente in una prospettiva futura.
Don Antonio Sapuppo sull’I.A.
E quindi materia di urgente e approfondita ricerca scientifica. Nell’ottica di un’etica della I.A. Etica a cui si è riferito don Antonio Sapuppo in abbrivio alla sua trattazione e che non può richiedersi, e men che meno demandarsi, all’I.A., che non può disporre di alcuna libertà di coscienza. I canali d’interazione con l’intelligenza artificiale sono già emblematici di una tale evidenza.
Una macchina non ha occhi, ma sensori; quindi non vede; non ha bocca, ma schede audio; quindi non parla. Non ha cuore che la orienti tra le varie opzioni; quindi non sceglie. Procede invece con sequenza deterministica verso un risulto finale. In apparente coerenza con la logica che si è data, ma non necessariamente esatto ed eticamente corretto. E improntata a sempre maggiore velocità, per poter fornire i propri esiti nell’immediatezza. Processi che se consolidati potrebbero indurre a pensare che l’intera storia umana proceda così. Ma per l’uomo e la sua intelligenza, che significa penetrare il senso delle cose, non è così. C’è un tempo d’attesa, per poter riflettere e prendere decisioni secondo libertà e coscienza. E pensare a dei modelli comportamentali sulla cui base improntare dei sistemi conseguenti.
L’I.A. tende invece a invertire i processi, elaborando dei sistemi da cui ricavare dei modelli. E così a debordare dall’alveo per essa tracciato. Uno straripamento da dovere arginare; lasciando al cuore dell’uomo la prerogativa di esercitare la facoltà di scelta, secondo etica.
Intelligenza Artificiale / Prolusione della dott.ssa Vagliasindi
Last but not least, la prolusione della dott.sa Vagliasindi, che si è soffermata su alcune delle più rilevanti implicazioni del ricorso all’intelligenza artificiale, sotto vari profili giuridici. In primis ha evidenziato gli esiti abnormi riscontrati negli U.S.A. nelle profilazioni statistiche di potenziali autori di alcuni reati, rivelatori di preconcetti di natura razziale, nella stessa impostazione dei dati; ma anche nel nostro paese, per le disfunzioni degli algoritmi attivati dal Ministero dell’Istruzione e del Merito in relazione a delle procedure per concorsi e trasferimenti di docenti, acclarate e sanzionate dal T.A.R del Lazio.
Rievocato l’A.I. Act dell’Unione Europea, quale prima normativa emanata in materia, la Presidente ne ha però evidenziato i limiti oggettivi per la sua egida prettamente preventiva; e quindi per una certa indeterminatezza, soprattutto sul piano dell’individuazione della soggettività giuridica, per il risarcimento di danni in qualche modo riconducibili all’utilizzo dell’I.A.; nonché su quello di un’eventuale imputabilità penale.
Il che lascia presagire l’insorgenza di una gran mole di contenziosi; comunque vessatori per i cittadini.
Ma quale che siano gli sviluppi in materia, nessun algoritmo potrà mai sostituire il giudice, il cui compito di ius dicere, applicare la legge ai casi concreti, può essere assolto solo attraverso la libera coscienza dell’essere umano. Dal convegno non si potevano di certo attendere delle indicazioni univoche e risolutive, proprio per la poliedricità di un fenomeno la cui portata ha pochi eguali e che si presta a chiavi di lettura se pur differenti, al contempo, parodossalmente coerenti. La puntualità e la profondità delle argomentazioni ha consentito di porne in luce gli aspetti più rilevanti. Aspetti che meritano e richiedono, sin da adesso, una adeguata riflessione da parte di ognuno di noi.
Giuseppe Longo