La valutazione dei rischi nell’ Artificial Intelligence Act.
A cura della redazione
L’Artificial Intelligence Act è una regolamentazione importante che definisce il sistema di IA come “un sistema progettato per funzionare con elementi di autonomia e che, sulla base di dati e input forniti da macchine e/o dall’uomo, deduce come raggiungere una determinata serie di obiettivi avvalendosi di approcci di apprendimento automatico e/o basati sulla logica e sulla conoscenza, e produce output generati dal sistema quali contenuti, previsioni, raccomandazioni o decisioni, che influenzano gli ambienti” . La valutazione dei rischi connessi all’utilizzo dell’IA è un elemento fondante della nuova legislazione. La regolamentazione dell’IA è la prima a livello mondiale e va seguita con la massima attenzione considerando le ricadute che la sua applicazione può avere in ambito lavorativo e nella vita extralavorativa/quotidiana.
Cosa tratta:
Nel giugno scorso il Parlamento europeo ha approvato l’Artificial Intelligence Act dopo lungo confronto e articolato tra Parlamento, Consiglio dell’Unione europea e la Commissione. Si prevede l’entrata in vigore tra il 2024 e il 2025. L’intelligenza artificiale ha avuto ufficialmente in Europa una sua prima regolamentazione. Il Parlamento UE ha approvato a larga maggioranza, il testo proposto dalla Commissione, che ad oggi rimane il primo ed unico a livello mondiale. Il testo deve essere analizzato e seguito con la massima attenzione in considerazione delle importanti ricadute che la sua applicazione può avere in ambito lavorativo, così come nella vita quotidiana. La valutazione dei rischi connessi all’utilizzo dell’IA.
La trasformazione digitale è una diventata una priorità. Per fare strada alla trasformazione digitale dell’Ue, la Commissione ha presentato un Programma politico del decennio digitale europeo. Il testo contiene obiettivi per il 2030 “in settori quali le competenze, le infrastrutture digitali sicure e sostenibili, la trasformazione digitale delle imprese e la digitalizzazione dei servizi pubblici”. Anche la nuova regolamentazione dell’IA rientra in questo quadro. A livello comunitario è nata una nuova consapevolezza dei rischi che queste trasformazioni possono comportare.
E’ stato infatti previsto l’obbligo di prevedere la valutazione dei rischi quale elemento fondante della nuova legislazione, come è stato già fatto con successo, nella legislazione in materia di individuazione e gestione dei rischi connessi al lavoro degli anni Novanta dello scorso secolo.Il testo approvato dal Parlamento UE, all’ art. 3, definisce il sistema di IA come “un sistema progettato per funzionare con elementi di autonomia e che, sulla base di dati e input forniti da macchine e/o dall’uomo, deduce come raggiungere una determinata serie di obiettivi avvalendosi di approcci di apprendimento automatico e/o basati sulla logica e sulla conoscenza, e produce output generati dal sistema quali contenuti, previsioni, raccomandazioni o decisioni, che influenzano gli ambienti con cui il sistema di IA interagisce”.
Molti sono i tipi di AI ad oggi operanti in applicazioni conosciute. Il parlamento UE fornisce un primo elenco a titolo esemplificativo:
- Acquisti on line e pubblicità
- Ricerca sul web
- Assistenti personali digitali
- Traduzioni automatiche
- Case, città e infrastrutture intelligenti (risparmio energetico e regolamentazione del traffico)
- Automobili (la navigazione è già in gran parte basata sull’intelligenza artificiale)
- Sicurezza informatica
- Intelligenza artificiale contro il Covid-19 (termografia, analisi dati)
- Applicazioni artificiali che combattono la disinformazione
- Applicazioni inerenti la salute.
- Il trasporto, la produzione e la manutenzione, così come il cibo e l’agricoltura.
Il testo approvato sull’ IA, basa il proprio approccio sul concetto di rischio e definisce i diversi livelli di rischio associandoli ai vari sistemi di IA, sulla base delle loro ricadute. In primis le ricadute sulle persone, ma anche sulla loro vita, sui diritti, e non ultimo sulla salute e sulla sicurezza. Ne deriva una classificazione per livelli di rischio derivanti dall’ IA, che può implicare obblighi per gli utenti in base al livello raggiunto. Sono stati previsti quattro livelli di rischio, e ad ogni livello saranno previste misure di prevenzione e protezione sempre più importanti.
- Rischio inaccettabile
- Rischio elevato
- Rischio limitato
- Rischio minimo o nullo.
Nei sistemi ad alto rischio e superiori, il regolamento prevede l’adozione di un sistema di gestione dei rischi, dotato di specifiche procedure. E’ già stata stabilita anche una gerarchia di interventi che come nel caso dei sistemi di gestione della salute e della sicurezza, parte dall’ eliminazione e/o dalla riduzione dei rischi alla fonte (adeguata progettazione/fabbricazione).
La materia appare estremamente complessa da regolamentare. La volontà dichiarata di ridurre rischi ed eventuali danni dovuti all’ utilizzo dell’ AI, si scontra con un mondo in continua evoluzione e che si diffonde molto rapidamente, di difficile controllo e/o vigilanza.
Ad oggi, il testo vieta l’utilizzo dei sistemi che possano essere valutati come a rischio inaccettabile (con le eventuali dovute eccezioni). Fornisce poi indicazioni procedurali che rimangono comunque ancora di carattere generale anche per i sistemi che vengono valutati come ad alto rischio.
Necessario infine comprendere le competenze necessarie per svolgere questi compiti, che ad oggi appaiono da definire, ma soprattutto da sviluppare ed acquisire. Manca infine un quadro di azione dei singoli paesi e a livello comunitario con tempistiche certe, compito che sarà demandato ad un nascente Comitato Europeo per AI. Il segnale è comunque chiaro e confortante: la volontà è quella di ridurre i rischi e tutti i danni che una cattiva progettazione o una cattiva gestione dell’ IA, potrebbero inevitabilmente provocare.
Riproduzione riservata ©