Nella rivista RM NEWS N.91 di ANRA, consultabile per intero al seguente link https://www.anra.it/article/3825/rm-news-n-91, Valeria Lazzaroli raccoglie, nelle pagine 20 e 21, le prime impressioni sulla bozza fresca di stampa relativa all’AI Act dell’UE.
Le basi etiche dell’ AI ACT europeo
Con il Regolamento Al Act l’Unione Europea intende fornire le indicazioni per uno sviluppo dell’intelligenza artificiale rispettoso dei diritti dell’uomo. Un passaggio doveroso in questa fase di evoluzione tecnologica e necessario per permettere al settore di colmare il gap di sviluppo con altri Paesi.
Una bozza fresca di stampa che porta la data del 26 gennaio 2024 inizia a dare una forma più concreta e definita al Regolamento Europeo Al Act che contiene norme armonizzate in materia di intelligenza artificiale (Legge sull’IA del 21.04.2021), aggiornate secondo l’accordo politico
provvisorio raggiunto a dicembre ’23 dal trilogo tra la Commissione, il Consiglio e il Parlamento Europeo. Un iter normativo che dovrà giungere nei prossimi mesi alla definizione del testo di compromesso quando, sottoposto ai rappresentanti degli Stati membri (Coreper), sarà approvato definitivamente. Prima di atterrare sulla concretezza normativa, menzionerei una definizione dell’IA del filosofo Cosimo Accoto che la definisce come “un nuovo modo d’essere (abitalo) del nostro pianeta. Prefigura (e configura) l’ennesima ultima terraformazione del nostro mondo, la sua imminente e altra condizione di esistenza, di esperienza e di intelligenza”.
Ed effettivamente uno dei principali scopi dell’AI Aci è garantire un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali dell’uomo sanciti dalla Carta, che comprendono la democrazia, lo Stato di diritto e la tutela dell’ambiente. Quindi con l’obiettivo preciso di proteggere quanto più possibile il valore dell’uomo attraverso i costruiti sociali che ne garantiscono un equilibrio
fisico e psichico. Non sarà, però, una normativa che potrà dissipare dubbi e fornire risposte a quesiti incardinali nell’essenza dell’elica. Quest’ultima, contrapposta Ira i due approcci ippocratico-cattolico e laico, prefigura un impegno multidisciplinare per consentire tanto al sistema pubblico che a quello privato di disporre di tutti gli elementi necessari per stabilire le regole di accettabilità della quarta rivoluzione industriale. Scienza e Coscienza si avviano, infatti, a un gioco di staffetta che dovrà definire, man mano che l’evoluzione tecnologica prenderà possesso e forma nel nostro quotidiano, le regole di condotta per la tutela del valore dell’uomo che diversamente sarebbe proiettato in una distopica condizione di post-umanesimo nel quale il corpo viene svuotalo di senso e convertilo in semplice materiale potenziabile, per superarne le limitazioni biologiche. Quindi un modello etico di stampo materialista e utilitarista, per cui l’essere umano è un oggetto e diviene tale in modo crescente: un insieme di informazioni, di tasselli organici da aggiustare, migliorare, cambiare o sacrificare. In tal senso, un ruolo rilevante sarà quello delle assicurazioni che attraverso la copertura dei rischi ne sdoganeranno l’eleggibilità e la diffusione d’uso. Altrettanto lo sarà la verticalizzazione dei settori. Se in alcuni di questi l’IA nobilita il carattere di terzietà, oggettività e granularità come la misurazione della sostenibilità aziendale, in altri, come quello medico, può svolgere un lavoro di mero supporto a margine della discrezionalità del sanitario, laddove un maggiore coinvolgimento sarebbe rilevato come impraticabile e vietato.
Dunque, con la nuova bozza, si palesa una Direttiva che, nel confermare il carattere fortemente restrittivo in ambiti ben definiti, si dimostra collaborativa per non bloccare una tardiva innovazione europea che già senza impedimenti arranca rispetto all’evoluzione tecnologica di Cina e USA. Dunque, una buona notizia vista l’utilità della Deep-technology e dell’IA anche per chi svolge la funzione di Risk Manager.
I PUNTI DI MAGGIOR RILIEVO
Su base generale, l’AI Act si arricchisce di strutture operative a supporto del miglior recepimento da parte dei Paesi membri, poggiando su undici principi e su un codice di condotta intorno a una piramide del rischio che prevede 4 livelli:
- basso: nessun obbligo (videogiochi abilitati per l’IA e fi Itri anti-spam);
- limitato: trasparenza (chatbot);
- alto: alto rischio regolamentato (assegnazione di punteggi a esami scolastici e professionali, smistamento dei curriculum, valutazione dell’affidabilità delle prove in Tribunale, chirurgia assistita da robot);
- inaccettabile: divieto dell’uso di programmi di riconoscimento biometrico in luoghi pubblici come impronte digitali, Dna, voce, andatura (tutto ciò che rappresenta una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone, come l’assegnazione di un punteggio sociale da parie dei governi).
Per il primo livello non è previsto alcun intervento, mentre l’ultimo livello sarà vietato integralmente. Su un modello simile si è quantomeno impostata anche la dichiarazione di Hiroshima sui principi del G7 per lo sviluppo dell’IA pubblicato il 30 ottobre 2023.
Per quanto riguarda il Codice di Condotta, Ira gli 11 punii quelli di maggiore interesse sono:
- il primo principio, che postula la necessità di adozione di adeguate misure per identificare, valutare e ridurre i rischi per tutto il ciclo di vita dell’IA;
- il terzo e il quarto principio, che riguardano la “transparency” dei modelli. Questi prevedono, in particolare, la pubblicazione e il continuo aggiornamento di rapporti di trasparenza contenenti informazioni e istruzioni per l’uso e la documentazione tecnica, richiedendo garanzia di intelligibilità delle informazioni per gli utenti. Viene contemplala anche la condivisione delle informazioni verso tutti gli allori della società civile, specie i rapporti di valutazione delle informazioni sui rischi per la sicurezza e sulla pericolosità dei sistemi durante tutto il ciclo di vita dell’IA;
- l’undicesimo principio che apre a vasti settori della proprietà intellettuale e della privacy, sottolineando la necessità di un coordinamento con l’IA che possa implementare salvaguardie in tali settori.
Con lo scioglimento delle riserve, la bozza della Direttiva propone, con il supporlo ruolo principale dell’AI Office e delle autorità nazionali competenti, il controllo dei General-Purpose Al system (GPAI), ovvero di quei sistemi che fanno uso di IA utilizzando una potenza di calcolo superiore e che possono essere utilizzali in un ampio numero di contesti applicativi. Quindi il non facile compito di individuare metodologie e parametri di riferimento per valutare le capacità di tali modelli e coordinare l’applicazione della Direttiva con altre normative della UE, come i sistemi di raccomandazione dei social media ai sensi della Legge sui Servizi Digitali (Digitai Service Act o DSA) e gli algoritmi di classificazione dei motori di ricerca ai sensi della Legge sui Mercati Digitali (Digitai Markets Act o DMA).
Ultimo aspetto, e non certo per importanza, è la Governance della normativa che poggia su alcuni assunti: una comunità scientifica fiorente e indipendente, dotala di finanziamenti pubblici e dell’accesso ai migliori super computer; procedure standard di sicurezza globali per cui ogni incidente significativo causato da errori o uso improprio dell’IA venga segnalalo e seguito: un sistema internazionale di allarmi alimentato da segnalatori di fiducia.
Quindi un quadro di governance che sintetizzi tra la necessità di avere scienziati liberi e indipendenti che forniscano bilanciamenti scientifici oggettivi ai rischi delle tecnologie e un’organizzazione più pronta a rispondere alle minacce grazie alla condivisione delle informazioni.
