I RISCHI DEFINITI DALL’AI ACT
L'AI Act, prima normativa al mondo a regolare l’intelligenza artificiale, sulla scia delle norme GDPR, ha adottato un approccio risk-Based: maggiore è il rischio ricollegabile al sistema di AI, maggiori saranno gli obblighi e i requisiti da osservare per le aziende che progettano, sviluppano, utilizzano e diffondono il relativo sistema.
-
RISCHIO INACCETTABILE (art. 5)
La normativa stabilisce il divieto generale e senza deroghe di utilizzare sistemi di AI che rappresentano una minaccia per i diritti fondamentali delle persone, i mezzi di sussistenza e la sicurezza personale e del Paese. Tra questi si includono sistemi di sorveglianza di massa, social scoring e manipolazione comportamentale e cognitiva.
-
RISCHIO ALTO (art. 6 e ss)
Per accedere al mercato, i sistemi di AI categorizzati come ad alto rischio devono osservare rigorosi requisiti, quali sistemi di gestione dei rischi, uso di set di dati di alta qualità per alimentare il sistema e redazione di documentazione tecnica informativa per valutare la compliance dei sistemi.
Tra questi rientrano i sistemi di AI in settori o attività critici come il sistema giudiziario, l’educazione o l’occupazione, servizi finanziari e forze dell'ordine, in quanto potrebbero che ledere la salute e la sicurezza, i diritti fondamentali delle persone, la democrazia, lo Stato di diritto e le libertà individuali.
-
RISCHIO LIMITATO (art. 52)
Le aziende sono tenute ad osservare obblighi specifici di trasparenza per i sistemi di AI con rischio limitato, ovvero informare gli utenti che stanno interagendo direttamente con i sistemi di chatbot e che i contenuti e le immagini sono state generate e modificate da sistemi di AI.
Gli utenti devono quindi essere informati così da poter prendere decisioni e interagire con la tecnologia in modo consapevole.
-
RISCHIO MINIMO
I filtri antispam e i videogiochi abilitati dall’Intelligenza Artificiale rientrano nella categoria dei sistemi a basso rischio, per questa applicazioni la normativa stabilisce l’uso libero.
AI Act: REALTÀ E FUTURO
L’AI Act intende bilanciare l’innovazione tecnologica e il rispetto dei diritti e dei valori fondamentali all’interno del mercato dell’UE.
Creare un terreno sicuro e affidabile per sviluppatori, fornitori e utenti dei sistemi AI ha l’intento di far evolvere e potenziare l’innovazione e le tecnologie legate all’AI all’interno del mercato IT e non solo.
L’effetto sarà quindi duplice. Da un lato le organizzazioni aziendali e gli enti, per rispondere agli obblighi e requisiti dettati dalla normativa europea, indirizzeranno i propri investimenti sempre di più in sicurezza, conformità e governance; al tempo stesso gli utenti consumatori beneficeranno sempre di più delle tecnologie AI a fronte di una garanzia di maggior protezione e trasparenza.
L’AI Act segna così la nuova era tech dell’Intelligenza Artificiale tra sviluppo, commercializzazione e uso etico, sicuro e responsabile delle relative tecnologie. Ora la palla agli Stati Membri e alle singole organizzazioni, che hanno a propria disposizione due anni di tempo, eccezion fatta per alcune disposizioni, per agire in ottica di tutela dei cittadini che aumenteranno la loro fiducia verso l’AI.