• Home
        • PER UNA FILIERA DEL VALORE RISK FREE

          ARISKⓇ è una start-up innovativa fondata nel 2017.
          Con i nostri software proprietari aiutiamo aziende, investitori, istituzioni finanziarie, amministrazioni e organizzazioni pubbliche e private a comprendere, quantificare, monitorare qualunque tipo di rischio.

          PER UNA TRASFORMAZIONE DIGITALE APERTA A TUTTI

          ARISKⓇ aderisce alla Coalizione di Repubblica Digitale, progetto patrocinato dal Dipartimento della Transizione Digitale che consente alle PMI di disporre una piattaforma di Innovation e Risk Management e frequentare un piano di formazione gratuita. Attraverso il training, l’azienda può trarre utili informazioni per affrontare la propria trasformazione digitale e usufruire di un assistente virtuale che compila il risk assessment aziendale restituendo all’imprenditore un report utile per costruire una gestione evoluta, sostenibile e competitiva.

  • Prova*

ANRA | RM NEWS N.91 | Le basi etiche dell’ AI ACT europeo

Nella rivista RM NEWS N.91 di ANRA, consultabile per intero al seguente link https://www.anra.it/article/3825/rm-news-n-91, Valeria Lazzaroli raccoglie, nelle pagine 20 e 21, le prime impressioni sulla bozza fresca di stampa relativa all’AI Act dell’UE.

Le basi etiche dell’ AI ACT europeo

Con il Regolamento Al Act l’Unione Europea intende fornire le indicazioni per uno sviluppo dell’intelligenza artificiale rispettoso dei diritti dell’uomo. Un passaggio doveroso in questa fase di evoluzione tecnologica e necessario per permettere al settore di colmare il gap di sviluppo con altri Paesi.

Una bozza fresca di stampa che porta la data del 26 gennaio 2024 inizia a dare una forma più concreta e definita al Regolamento Europeo Al Act che contiene norme armonizzate in materia di intelligenza artificiale (Legge sull’IA del 21.04.2021), aggiornate secondo l’accordo politico
provvisorio raggiunto a dicembre ’23 dal trilogo tra la Commissione, il Consiglio e il Parlamento Europeo. Un iter normativo che dovrà giungere nei prossimi mesi alla definizione del testo di compromesso quando, sottoposto ai rappresentanti degli Stati membri (Coreper), sarà approvato definitivamente. Prima di atterrare sulla concretezza normativa, menzionerei una definizione dell’IA del filosofo Cosimo Accoto che la definisce come “un nuovo modo d’essere (abitalo) del nostro pianeta. Prefigura (e configura) l’ennesima ultima terraformazione del nostro mondo, la sua imminente e altra condizione di esistenza, di esperienza e di intelligenza”.
Ed effettivamente uno dei principali scopi dell’AI Aci è garantire un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali dell’uomo sanciti dalla Carta, che comprendono la democrazia, lo Stato di diritto e la tutela dell’ambiente. Quindi con l’obiettivo preciso di proteggere quanto più possibile il valore dell’uomo attraverso i costruiti sociali che ne garantiscono un equilibrio
fisico e psichico. Non sarà, però, una normativa che potrà dissipare dubbi e fornire risposte a quesiti incardinali nell’essenza dell’elica. Quest’ultima, contrapposta Ira i due approcci ippocratico-cattolico e laico, prefigura un impegno multidisciplinare per consentire tanto al sistema pubblico che a quello privato di disporre di tutti gli elementi necessari per stabilire le regole di accettabilità della quarta rivoluzione industriale. Scienza e Coscienza si avviano, infatti, a un gioco di staffetta che dovrà definire, man mano che l’evoluzione tecnologica prenderà possesso e forma nel nostro quotidiano, le regole di condotta per la tutela del valore dell’uomo che diversamente sarebbe proiettato in una distopica condizione di post-umanesimo nel quale il corpo viene svuotalo di senso e convertilo in semplice materiale potenziabile, per superarne le limitazioni biologiche. Quindi un modello etico di stampo materialista e utilitarista, per cui l’essere umano è un oggetto e diviene tale in modo crescente: un insieme di informazioni, di tasselli organici da aggiustare, migliorare, cambiare o sacrificare. In tal senso, un ruolo rilevante sarà quello delle assicurazioni che attraverso la copertura dei rischi ne sdoganeranno l’eleggibilità e la diffusione d’uso. Altrettanto lo sarà la verticalizzazione dei settori. Se in alcuni di questi l’IA nobilita il carattere di terzietà, oggettività e granularità come la misurazione della sostenibilità aziendale, in altri, come quello medico, può svolgere un lavoro di mero supporto a margine della discrezionalità del sanitario, laddove un maggiore coinvolgimento sarebbe rilevato come impraticabile e vietato.

Dunque, con la nuova bozza, si palesa una Direttiva che, nel confermare il carattere fortemente restrittivo in ambiti ben definiti, si dimostra collaborativa per non bloccare una tardiva innovazione europea che già senza impedimenti arranca rispetto all’evoluzione tecnologica di Cina e USA. Dunque, una buona notizia vista l’utilità della Deep-techno­logy e dell’IA anche per chi svolge la funzione di Risk Ma­nager.

I PUNTI DI MAGGIOR RILIEVO

Su base generale, l’AI Act si arricchisce di strutture opera­tive a supporto del miglior recepimento da parte dei Pae­si membri, poggiando su undici principi e su un codice di condotta intorno a una piramide del rischio che prevede 4 livelli:

  1. basso: nessun obbligo (videogiochi abilitati per l’IA e fi Itri anti-spam);
  2. limitato: trasparenza (chatbot);
  3. alto: alto rischio regolamentato (assegnazione di pun­teggi a esami scolastici e professionali, smistamento dei curriculum, valutazione dell’affidabilità delle prove in Tribunale, chirurgia assistita da robot);
  4. inaccettabile: divieto dell’uso di programmi di ricono­scimento biometrico in luoghi pubblici come impronte digitali, Dna, voce, andatura (tutto ciò che rappresenta una chiara minaccia per la sicurezza, i mezzi di sussi­stenza e i diritti delle persone, come l’assegnazione di un punteggio sociale da parie dei governi).

Per il primo livello non è previsto alcun intervento, mentre l’ultimo livello sarà vietato integralmente. Su un modello si­mile si è quantomeno impostata anche la dichiarazione di Hiroshima sui principi del G7 per lo sviluppo dell’IA pubbli­cato il 30 ottobre 2023.
Per quanto riguarda il Codice di Condotta, Ira gli 11 punii quelli di maggiore interesse sono:

  • il primo principio, che postula la necessità di adozione di adeguate misure per identificare, valutare e ridurre i rischi per tutto il ciclo di vita dell’IA;
  • il terzo e il quarto principio, che riguardano la “transpa­rency” dei modelli. Questi prevedono, in particolare, la pubblicazione e il continuo aggiornamento di rapporti di trasparenza contenenti informazioni e istruzioni per l’uso e la documentazione tecnica, richiedendo ga­ranzia di intelligibilità delle informazioni per gli utenti. Viene contemplala anche la condivisione delle infor­mazioni verso tutti gli allori della società civile, specie i rapporti di valutazione delle informazioni sui rischi per la sicurezza e sulla pericolosità dei sistemi durante tutto il ciclo di vita dell’IA;
  • l’undicesimo principio che apre a vasti settori della proprietà intellettuale e della privacy, sottolineando la necessità di un coordinamento con l’IA che possa im­plementare salvaguardie in tali settori.

Con lo scioglimento delle riserve, la bozza della Direttiva propone, con il supporlo ruolo principale dell’AI Office e delle autorità nazionali competenti, il controllo dei Gene­ral-Purpose Al system (GPAI), ovvero di quei sistemi che fanno uso di IA utilizzando una potenza di calcolo superio­re e che possono essere utilizzali in un ampio numero di contesti applicativi. Quindi il non facile compito di indivi­duare metodologie e parametri di riferimento per valutare le capacità di tali modelli e coordinare l’applicazione del­la Direttiva con altre normative della UE, come i sistemi di raccomandazione dei social media ai sensi della Legge sui Servizi Digitali (Digitai Service Act o DSA) e gli algoritmi di classificazione dei motori di ricerca ai sensi della Legge sui Mercati Digitali (Digitai Markets Act o DMA).

Ultimo aspetto, e non certo per importanza, è la Gover­nance della normativa che poggia su alcuni assunti: una comunità scientifica fiorente e indipendente, dotala di fi­nanziamenti pubblici e dell’accesso ai migliori super com­puter; procedure standard di sicurezza globali per cui ogni incidente significativo causato da errori o uso improprio dell’IA venga segnalalo e seguito: un sistema internaziona­le di allarmi alimentato da segnalatori di fiducia.

Quindi un quadro di governance che sintetizzi tra la neces­sità di avere scienziati liberi e indipendenti che forniscano bilanciamenti scientifici oggettivi ai rischi delle tecnologie e un’organizzazione più pronta a rispondere alle minacce grazie alla condivisione delle informazioni.

ANRA | RM NEWS N.91 | Le basi etiche dell’AI ACT europeo (pagg. 20-21)