Il 14 giugno scorso l’UE, più precisamente il Parlamento Europeo, ha varato l’Artificial Intelligence Act (AI Act). Si tratta di un nuovo regolamento europeo che coordinerà le norme sull’intelligenza artificiale nel rispetto dei diritti e dei valori dell’Unione Europea. Si tratta della prima regolamentazione sull’Intelligenza Artificiale, la cui approvazione definitiva, da parte dell’Unione Europea, dovrebbe arrivare a fine anno; e secondo fonti vicine alle istituzioni europee, questo regolamento dovrebbe entrare in vigore tra il 2024 e il 2025. Il voto sull’AI Act è passato con una maggioranza schiacciante: 499 voti a favore, 28 contrari e 93 astensioni. E’ stato annunciato come uno degli sviluppi più importanti al mondo; tant’è che la presidente del Parlamento Europeo, Roberta Metsola, l’ha descritta come “Una legislazione che senza dubbio stabilirà lo standard globale per gli anni a venire”.
UE e Artificial Intelligence Act: cos’è l’Intelligenza Artificiale (IA)
L’intelligenza artificiale è una tecnologia informatica, che rivoluziona il modo con cui l’uomo interagisce con la macchina, e le macchine tra di loro. Possiamo definire l’IA come il processo attraverso cui le macchine e i sistemi informatici simulano i processi di intelligenza umana. Le applicazioni specifiche includono sistemi come l’elaborazione del linguaggio naturale, il riconoscimento vocale e la visione artificiale. Grazie all’intelligenza artificiale è possibile (almeno questo l’obiettivo ultimo) rendere le macchine in grado di compiere azioni e “ragionamenti” complessi; imparare dagli errori, e svolgere funzioni fino ad oggi esclusive dell’intelligenza umana.
UE / Artificial Intelligence Act: le origini dell’Intelligenza Artificiale
Le prime tracce di Intelligenza Artificiale come disciplina scientifica risalgono agli anni Cinquanta. Nel 1956, al Darmouth College, nel New Hampshire, si tenne un convegno al quale presero parte i maggiori esponenti dell’informatica: in quell’occasione si raccolsero i principali contributi sul tema, ponendo anche l’attenzione sugli sviluppi futuri. Durante il convegno di Darmouth, ebbe un ruolo fondamentale il lavoro di Alan Turing, considerato uno dei padri dell’informatica moderna: già nel 1936 aveva posto le basi per i concetti di calcolabilità, computabilità e la macchina di Turing. Nel 1950, lo stesso Turing, scrisse l’articolo intitolato “Computing machinery and intelligence”, in cui proponeva quello che sarebbe divenuto noto come ‘test di Turing’.
Secondo il test, una macchina poteva essere considerata intelligente se il suo comportamento, osservato da un essere umano, fosse considerato indistinguibile da quello di una persona. Grazie al lavoro di Turing, il tema dell’Intelligenza Artificiale ricevette una forte attenzione da parte della comunità scientifica e nacquero diversi approcci: fra tutti, i principali furono la logica matematica (per la dimostrazione di teoremi e l’inferenza di nuova conoscenza) e le reti neurali (nell’ultimo decennio la loro tecnologia è stata implementata e oggi vengono applicate nell’ambito del Deep Learning, un ramo del Machine Learning).
UE / 14 giugno 2023: approvazione dell’Artificial Intelligence Act
La Commissione Europea aveva proposto il primo quadro normativo dell’UE per i sistemi di intelligenza artificiale nell’aprile del 2021; ma la normativa è stata approvata solo lo scorso 14 giugno. La priorità del Parlamento è garantire che i sistemi di IA utilizzati nell’UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. Le nuove regole sull’intelligenza artificiale mirano a stabilire obblighi per fornitori e utenti a seconda del livello di rischio, che può essere considerato ‘inaccettabile’, ‘alto’ oppure ‘limitato’.
UE / Artificial Intelligence Act: rischio inaccettabile
I sistemi di intelligenza artificiale che comportano un rischio inaccettabile, sono quei sistemi considerati una minaccia per le persone e saranno vietati. Questo livello di rischio include: Manipolazione cognitivo-comportamentale di persone o specifici gruppi vulnerabili (ad esempio giocattoli ad attivazione vocale che incoraggiano comportamenti pericolosi nei bambini); Punteggio sociale – classificare le persone in base al comportamento, allo stato socio-economico o alle caratteristiche personali; Sistemi di identificazione biometrica remota e in tempo reale, come il riconoscimento facciale. Potranno essere consentite alcune eccezioni, come ad esempio i sistemi di identificazione biometrica remota in cui l’identificazione avviene con un ritardo significativo, e questi potranno essere autorizzati per perseguire reati gravi, ma solo dopo l’approvazione del tribunale.
UE / Artificial Intelligence Act: rischio alto
I sistemi di IA che comportano invece un rischio alto, sono quelli che incidono negativamente sulla sicurezza o sui diritti fondamentali, e saranno suddivisi in due categorie: Sistemi di intelligenza artificiale utilizzati nei prodotti soggetti alla legislazione dell’UE sulla sicurezza dei prodotti (include giocattoli, aviazione, automobili, dispositivi medici e ascensori); Sistemi di IA che rientrano in otto aree specifiche che dovranno essere registrate in una banca dati dell’UE (Identificazione biometrica e categorizzazione delle persone fisiche – Gestione e funzionamento delle infrastrutture critiche – Istruzione e formazione professionale – Occupazione, gestione dei lavoratori e accesso al lavoro autonomo – Accesso e fruizione dei servizi privati essenziali e dei servizi e benefici pubblici – Applicazione della legge – Migrazione, asilo e gestione dei controlli alle frontiere – Assistenza nell’interpretazione giuridica e nell’applicazione della legge).
Tutti i sistemi di Intelligenza Artificiale ad alto rischio saranno valutati prima di essere immessi sul mercato e anche durante il loro ciclo di vita. L’IA generativa, come ChatGPT, dovrebbe rispettare i requisiti di trasparenza: Rivelare che il contenuto è stato generato dall’intelligenza artificiale; Progettare il modello per evitare che generi contenuti illegali; Pubblicazione di riepiloghi di dati protetti da copyright utilizzati per la formazione.
UE Artificial Intelligence Act: rischio limitato
Infine, i sistemi di Intelligenza Artificiale che comportano un rischio limitato dovrebbero comunque rispettare requisiti minimi di trasparenza che consentiranno agli utenti di prendere decisioni informate. Dopo aver interagito con le applicazioni, l’utente potrà quindi decidere se desidera continuare a utilizzarle. Gli utenti dovrebbero essere informati quando interagiscono con l’IA. Ciò include i sistemi di intelligenza artificiale che generano o manipolano contenuti di immagini, audio o video, ad esempio i deepfake.
Rebecca Charamah