AI ACT: l’Intelligenza Artificiale dal punto di vista etico e legale

I RISCHI DEFINITI DALL’AI ACT

L'AI Act, prima normativa al mondo a regolare l’intelligenza artificiale, sulla scia delle norme GDPR, ha adottato un approccio risk-Based: maggiore è il rischio ricollegabile al sistema di AI, maggiori saranno gli obblighi e i requisiti da osservare per le aziende che progettano, sviluppano, utilizzano e diffondono il relativo sistema.

  1. RISCHIO INACCETTABILE (art. 5)

    La normativa stabilisce il divieto generale e senza deroghe di utilizzare sistemi di AI che rappresentano una minaccia per i diritti fondamentali delle persone, i mezzi di sussistenza e la sicurezza personale e del Paese. Tra questi si includono sistemi di sorveglianza di massa, social scoring e manipolazione comportamentale e cognitiva.

  2. RISCHIO ALTO (art. 6 e ss)

    Per accedere al mercato, i sistemi di AI categorizzati come ad alto rischio devono osservare rigorosi requisiti, quali sistemi di gestione dei rischi, uso di set di dati di alta qualità per alimentare il sistema e redazione di documentazione tecnica informativa per valutare la compliance dei sistemi.

    Tra questi rientrano i sistemi di AI in settori o attività critici come il sistema giudiziario, l’educazione o l’occupazione, servizi finanziari e forze dell'ordine, in quanto potrebbero che ledere la salute e la sicurezza, i diritti fondamentali delle persone, la democrazia, lo Stato di diritto e le libertà individuali.

  3. RISCHIO LIMITATO (art. 52)

    Le aziende sono tenute ad osservare obblighi specifici di trasparenza per i sistemi di AI con rischio limitato, ovvero informare gli utenti che stanno interagendo direttamente con i sistemi di chatbot e che i contenuti e le immagini sono state generate e modificate da sistemi di AI.

    Gli utenti devono quindi essere informati così da poter prendere decisioni e interagire con la tecnologia in modo consapevole.

  4. RISCHIO MINIMO

    I filtri antispam e i videogiochi abilitati dall’Intelligenza Artificiale rientrano nella categoria dei sistemi a basso rischio, per questa applicazioni la normativa stabilisce l’uso libero.

 

AI Act: REALTÀ E FUTURO

L’AI Act intende bilanciare l’innovazione tecnologica e il rispetto dei diritti e dei valori fondamentali all’interno del mercato dell’UE.

Creare un terreno sicuro e affidabile per sviluppatori, fornitori e utenti dei sistemi AI ha l’intento di far evolvere e potenziare l’innovazione e le tecnologie legate all’AI all’interno del mercato IT e non solo.

L’effetto sarà quindi duplice. Da un lato le organizzazioni aziendali e gli enti, per rispondere agli obblighi e requisiti dettati dalla normativa europea, indirizzeranno i propri investimenti sempre di più in sicurezza, conformità e governance; al tempo stesso gli utenti consumatori beneficeranno sempre di più delle tecnologie AI a fronte di una garanzia di maggior protezione e trasparenza.

L’AI Act segna così la nuova era tech dell’Intelligenza Artificiale tra sviluppo, commercializzazione e uso etico, sicuro e responsabile delle relative tecnologie. Ora la palla agli Stati Membri e alle singole organizzazioni, che hanno a propria disposizione due anni di tempo, eccezion fatta per alcune disposizioni, per agire in ottica di tutela dei cittadini che aumenteranno la loro fiducia verso l’AI.

New call-to-action

email-1

ISCRIVITI ALLA NEWSLETTER

Per rimanere aggiornato su tutte le novità, leggere gli ultimi articoli del blog e conoscere gli eventi in programma nelle prossime settimane, iscriviti subito alla newsletter

Iscriviti