Le grandi scoperte che hanno trasformato la vita degli uomini, da sempre, sono accompagnate da sentimenti contrastanti. Da una parte emergono la paura e l’incertezza per tutto ciò che è nuovo e per le inevitabili ricadute sull’economia e sul lavoro. (Licenziamenti, scomparsa di alcune professionalità, conoscenze inadeguate o obsolete non spendibili). Dall’altra c’è la speranza che le innovazioni rendano la vita delle persone, sempre più facile ed umana.
E’ stato sempre così: circa 5.000 anni fa con la scoperta della ruota, a metà del ‘400 con la stampa ad opera di Gutenberg. A fine ‘800 con la nascita dell’industria e delle macchine per la produzione. In tempi più recenti, nel ‘900, fra le due guerre con la nascita dell’informatica, e con lo sviluppo odierno, dell’Intelligenza Artificiale (IA),
Di quest’ultima innovazione e delle problematiche che ne conseguono circa la tutela dei diritti umani e della giustizia, si è parlato nella conferenza dal titolo: “Aspetti biogiuridici dell’Intelligenza Artificiale”, organizzata dall’Accademia Zelantea di Acireale.
L’incontro realizzato nella sala Cristoforo Cosentini, come di consueto, ha avuto inizio con i saluti di benvenuto del presidente dott. Michelangelo Patanè, e dell’avv. Mario Tornatore, vicepresidente dell’Associazione Forense Acese. Questi ha ricordato come il Parlamento Europeo, il primo al mondo, abbia raggiunto un accordo per regolamentare l’IA strumentale, in termini di sicurezza e tracciabilità, per evitare abusi. Per questo si ritiene necessaria una supervisione umana, e non in automazione.
Questioni biogiuridiche dell’Intelligenza Artificiale
Primo relatore della serata è stato il dr. Angelo Costanzo, consigliere della Corte di cassazione che ha centrato il suo intervento sulle “Questioni biogiuridiche dell’intelligenza artificiale”. Sin dalla nascita, ha ricordato, noi interagiamo con il mondo esterno, riceviamo stimoli, elaboriamo pensieri che si esprimono attraverso le parole, e quindi la scrittura.
Più informazioni immagazziniamo nella mente più articolate e complete saranno le risposte. I programmi di IA immagazzinano un numero enorme di dati. E sono in grado di dare risposte in tempi celerissimi, superiori a quelli della mente umana.
Nel centro di documentazione della Cassazione, questi programmi sono utilizzati dai magistrati per consultare ad esempio sentenze pregresse, legislazioni di altri paesi, dati statistici ecc.. Programmi dei quali non è più possibile fare a meno nel lavoro.
Uno dei programmi di IA che ha avuto un rapidissimo e universale successo è Chat GPT 3.
E’ in grado di elaborare testi simili a quelli umani, gestire diverse attività, come rispondere ad un quesito o effettuare la traduzione di un testo. Può essere usato per preparare una memoria… e in futuro, o già nel presente, anche una sentenza? Un quesito, questo, molto problematico, perché la sentenza è il risultato di un caso specifico, concreto ed unico che ha come protagonista il singolo individuo e non la standardizzazione di casi simili. Da qui la domanda se il principio di “giustizia”, possa essere negoziato a vantaggio dell’efficienza, vista la carenza di magistrati in grado di evadere il numero esorbitante di processi e i tempi “biblici” d’attesa.
Evidenziate le problematiche sull’applicazione dell’Intelligenza Artificiale
Anche gli altri relatori che si sono succeduti hanno posto l’attenzione sull’uso e sul controllo di questi programmi.
Il prof. Santo Di Nuovo, professore emerito di Psicologia Generale all’Università di Catania, nel suo intervento dal titolo “Profili problematici sull’applicazione dell’IA,” ha fatto riferimento ad un testo di Laurent Alexandre “La guerra delle intelligenze”: intelligenza artificiale “contro” intelligenza umana.
Dal 2030 i programmi di IA applicati ai robot cambieranno il mondo del lavoro, così come il ruolo degli insegnanti nelle scuole dovrà essere quello di “coltivatori di cervelli”. Cioè aiutare i bambini, i giovani a crescere ed evolversi accanto all’IA, affinché sviluppino capacità e competenze spendibili nella società.
Tuttavia se l’lA strumentale affianca ormai la nostra quotidianità, come ad esempio il navigatore in automobile, altra cosa sono le applicazione dell’IA “forte” in cui il programma evolvendosi (self learning), può cambiare il fine, cioè fare cose diverse da quelle per le quali era programmato, senza più il controllo dell’uomo. Oppure essere utilizzato, e questo già avviene, per fini delinquenziali o contrari comunque ai diritti umani. Come, ad esempio, i droni che spiano, controllano e registrano la vita delle persone, o utilizzati per uccidere.
Etica e diritto nell’Intelligenza Artificiale
Il dr. Alfio Guido Grasso, ricercatore presso UNICT, ha affrontato il tema dell’ “Etica e diritto nell’IA” , ponendo l’accento sull’attribuzione di responsabilità in caso di danni provocati da responsi e/o azioni del programma. In America, negli ospedali il Triage è effettuato da un programma di IA, che in base ai sintomi, assegna un codice corrispondente. Allo stesso modo il programma che elabora la diagnosi, in base ai dati imputati dal medico. In caso di errore, il medico, l’ospedale o il costruttore, in che misura ne rispondono? Sono tutti temi ancora oggetto di discussioni, studi, per i quali è ancora lontana una regolamentazione.
Infine il prof. Carmelo Romeo, già professore ordinario di Diritto del Lavoro – Unict, nel suo intervento “Sui profili problematici che in ambito giuridico presentano le applicazioni di IA”, ha posto l’accento sul concetto di “discernimento”. La facoltà cioè di formulare un giudizio o di scegliere un determinato comportamento, in conformità con la situazione. Il discernimento non è dato, però, una volta per tutte. Richiede un costante allenamento della mente, aggiornamento nelle conoscenze, confronto con i valori etici e con l’evoluzione dei comportamenti sociali. In questa direzione c’è ancora, per chi ne avesse voglia, molto spazio per l’intelligenza umana.
Stati Uniti e Cina hanno investito enormi risorse nella realizzazione di programmi di IA sempre più evoluti e sofisticati. Quindi non è neanche immaginabile un rallentamento o un arresto in questo settore. Come società possiamo continuare a tenerci aggiornati, vigili, “pretendere” dalle autorità competenti la formulazione di leggi che tutelino l’etica e i diritti umani. E poi infine, come auspicato da Papa Francesco, nel suo messaggio per la Giornata mondiale della pace: «Far sì che i progressi nello sviluppo di forme di intelligenza artificiale servano la causa della fraternità umana e della pace».
Rosa Maria Garozzo