29
Mar
L’Europa sceglie una strada conservativa, senza convincenti originalità; sceglie di non essere decisiva nel campo dell’intelligenza artificiale, ad eccezione dello sterile affanno normativo in cui continua ad avvitarsi mirabilmente, come un’opera d’arte manierista. La nostra critica all’EU AI Act non paventa un rallentamento nello sviluppo tecnologico – che potremmo anzi accogliere con interesse se appartenesse a una visione concorrente all’evanescenza dell’umano – ma cerca di mettere in luce le derive di un pericoloso atteggiamento di retroguardia del pensiero, paradossalmente sempre tardivo anche quando è in anticipo. Se proseguiremo sulla via della mera catalogazione dei fenomeni mentre questi emergono, subiremo l’avvenire che gli altri hanno scelto.
La prima domanda che poniamo in qualità di lettori del mondo contemporaneo e dei suoi cambiamenti è se l’AI act rappresenti un tentativo adeguato per avviare a soluzione duratura i problemi e i dubbi etici e sociali che gli strumenti di nuova generazione stanno facendo sorgere. Una risposta può trovarsi nel titolo dell’articolo, ma proveremo a dimostrare perché siamo pessimisti circa il nostro giudizio. Per completezza, ripercorriamo in sintesi gli avvenimenti e il contenuto relativi alla legge. I recenti sviluppi della legislazione europea in materia di intelligenza artificiale hanno portato nel dicembre 2023 a un – alquanto combattuto e tutt’ora provvisorio – accordo politico sull’EU Artificial Intelligence Act, considerato «la prima legislazione completa al mondo che regola lo sviluppo, l’uso e l’implementazione dei sistemi di intelligenza artificiale». Il testo definitivo, presentemente in fase di discussione, dovrebbe essere approvato entro il 2024 per entrare in vigore nel 2026.
Oltre il generale entusiasmo di cortesia, non sono mancate note di aperto disaccordo e robusti rilievi critici da parte di attori economici nel campo digitale, informatico e delle tecnologie della comunicazione e dell’informazione, insieme alle perplessità sollevate dalle istituzioni accademiche (ne offre un sintetico resoconto il Briefing della discussione parlamentare di marzo 2024), in particolare riguardo la definizione di IA proposta nel documento.
La ricezione complessiva di un provvedimento così ampio e determinante per il nostro futuro segnala un moderato scetticismo, giustificato in parte dal timore che si risolva in una ennesima maglia di gesso, come per certi versi il Regolamento generale sulla protezione dei dati (GDPR), in parte per debolezze intrinseche, che potrebbero permanere fino alla promulgazione se dovesse mancare un accordo tra i numerosi soggetti coinvolti.
La proposta di legge allo stato attuale muove da una definizione “a ombrello” di Intelligenza artificiale, volutamente ampia e generosa, modellata su quella dell’Organizzazione per la cooperazione e lo sviluppo economico (OECD):
«Un sistema di intelligenza artificiale è un sistema basato su una macchina (machine) che, per obiettivi espliciti o impliciti, deduce, dall’input che riceve, un output come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali. Diversi sistemi di intelligenza artificiale variano nei loro livelli di autonomia e adattamento dopo l’implementazione».
Una versione precedente dell’accordo validava un diverso criterio di definizione, più accurato sotto il profilo tecnico ma incline a periodiche revisioni, secondo cui gli AI systems sono sistemi sviluppati utilizzando una delle seguenti tecniche o metodologie:
«(I) Tecniche di machine learning, compreso l’apprendimento supervisionato, non supervisionato e per rinforzo, utilizzando un’ampia varietà di metodi, incluso il deep learning (II) Metodi basati sulla logica e sulla conoscenza, tra cui la rappresentazione della conoscenza, la programmazione (secondo la logica) induttiva, i database, i motori per inferenza e deduzione, il ragionamento (simbolico) e i sistemi specializzati (expert). (III) Sistemi statistici, stima bayesiana, metodi di ricerca e ottimizzazione».
Il cambio della strategia definitoria ha fatto molto discutere ed è certamente uno dei punti su cui si sono concentrate le critiche degli stakeholders, secondo cui sarà difficile, in base ai nuovi parametri, stabilire al netto di ambiguità giuridiche quali sistemi ricadano o meno sotto la definizione, lasciando intendere che le zone d’ombra potrebbero prestarsi a pericolose interpretazioni o, più facilmente, a incertezze burocratiche onerose.
La classificazione dei sistemi di intelligenza artificiale secondo una scala di rischio potenziale occupa la restante ampiezza del documento. I primi sistemi, in ordine di gravità, sono quelli che presentano “rischi inaccettabili” che contravvengono ai valori fondamentali dell’Unione Europea, quali la dignità umana e la libertà degli individui, e sono quindi banditi, ad esclusione di applicazioni specifiche all’interno delle forze dell’ordine. Si incontrano a seguire i settori (bancario, medico, frontaliero, educativo, HR) in cui l’intelligenza artificiale comporta un “rischio elevato” e che dovranno, a partire dall’entrata in vigore della legge, conformarsi a determinati standard di sicurezza. La gerarchia si articola ulteriormente distinguendo i servizi a “rischio limitato” e le IA generative (e.g. ChatGPT), entrambi soggetti a obbligo di trasparenza verso gli utilizzatori e le istituzioni, ma senza restrizioni particolari. Alla base della piramide, contrassegnati come “minimo rischio”, sono collocati i sistemi che non rientrano nei precedenti, come i videogiochi o i filtri per lo spam. Produttori, importatori, distributori, provider e utenti istituzionali localizzati negli Stati membri, o che intendono commercializzare o utilizzare sistemi di intelligenza artificiale che appartengono alle categorie di rischio elevato e rischio limitato su territorio comunitario, dovranno superare un test appositamente predisposto (assesment) prima di ricevere la validazione del prodotto in base alle norme europee. Tutti questi accorgimenti escludono i programmi finalizzati alla ricerca e le tecnologie militari.
La legge, per quanto concerne la nostra domanda, si presenta come un’enorme tautologia. Diamo qui qualche esempio. Le applicazioni inaccettabili sono considerate tali perché contravvengono ai valori comunitari, la cui violazione è esclusa in partenza. Il decreto si limita ad applicare alle nuove tecnologie un concetto contenuto nelle proprie premesse, senza di fatto nulla introdurre che non fosse ampiamente condiviso e validato ab origine. Dove la classificazione si complica, l’approfondimento rimane a prudente distanza, rinunciando all’analisi effettiva e concreta delle questioni, come un nastro che tutto avvolge e su tutto rimane a livello superficiale. Sono state incluse, ci parrebbe, molte ovvietà che hanno finalmente trovato forma scritta, ma poche risposte autorevoli in merito al ruolo dell’IA nelle vite dei cittadini dell’Unione. I piccoli attori privati e le imprese emergenti risentiranno del gravame di questi ispessimenti normativi, prevediamo, molto più delle grandi industrie dell’high tech e dei colossi internazionali, il cui core-business è per necessità allineato con le sensibilità etiche occidentali. Vi è, in conclusione, la spinosa questione dell’attuazione della norma giuridica, tutt’altro che priva di ostacoli, a cui le fitte dichiarazioni di buoni intenti pongono un debole argine e che costituisce, per ora, terreno ancora da affrontare.
Per approfondimenti, rimandiamo a High-level summary of the AI Act (https://artificialintelligenceact.eu/high-level-summary) e The New EU AI Act – the 10 key things you need to know now (https://www.dentons.com/en/insights/articles/2023/december/14/the-new-eu-ai-act-the-10-key-things-you-need-to-know-now).
Andrea Meneghel, filosofo e collaboratore IASSP
Trackbacks and pingbacks
No trackback or pingback available for this article.
Per qualsiasi domanda, compila il form
[contact_form name="contact-form"]
Leave a reply