213 Visualizzazioni

L’UE Stabilisce Nuove Norme per l’Intelligenza Artificiale: Sicurezza, Rispetto dei Diritti e Stimolo all’Innovazione

9 Dic 2023 - Europa

L’UE Stabilisce Nuove Norme per l’Intelligenza Artificiale: Sicurezza, Rispetto dei Diritti e Stimolo all’Innovazione

Dopo tre giorni di intensi negoziati, il Consiglio dell’Unione Europea e il Parlamento europeo hanno raggiunto un accordo storico sulla proposta di norme armonizzate per l’intelligenza artificiale (IA). Questo regolamento, il primo del suo genere a livello globale, mira a garantire che i sistemi di IA immessi sul mercato europeo siano sicuri, rispettino i diritti fondamentali e i valori dell’UE, e al contempo stimolino gli investimenti e l’innovazione in questo settore in Europa.

Un Approccio Basato sul Rischio

Il fulcro di queste nuove norme è un approccio “basato sul rischio” per regolamentare l’IA. Questo approccio classifica i sistemi di IA in base al loro potenziale di causare danni alla società, variando da rischio minimo a inaccettabile. Più elevato è il rischio, più stringenti sono le regole imposte. La maggior parte dei sistemi di IA rientra nella categoria di rischio minimo e beneficerà di una sorta di “free-pass”.

Sistemi ad Alto Rischio e Linee Rosse

I sistemi di IA identificati come ad alto rischio dovranno soddisfare requisiti rigorosi, inclusi sistemi di mitigazione del rischio, alta qualità dei set di dati, registrazione delle attività, documentazione dettagliata, informazioni chiare per gli utenti, supervisione umana, e un alto livello di robustezza e sicurezza informatica. Esempi di questi sistemi includono quelli utilizzati in infrastrutture critiche, dispositivi medici, sistemi educativi e di reclutamento, e in alcuni ambiti delle forze dell’ordine e dell’amministrazione della giustizia.

Per quanto riguarda i rischi inaccettabili, saranno vietati i sistemi di IA che rappresentano una chiara minaccia ai diritti fondamentali, come quelli che manipolano il comportamento umano o consentono il “punteggio sociale”. Alcuni usi dei sistemi biometrici saranno anch’essi proibiti, con eccezioni limitate e strettamente regolamentate.

Rischi Specifici e Trasparenza

Per i rischi specifici, come le chatbot, è richiesto che gli utenti siano consapevoli di interagire con una macchina. I contenuti generati dall’IA, come i deepfake, dovranno essere chiaramente etichettati. Inoltre, i fornitori di IA dovranno assicurarsi che i contenuti sintetici siano riconoscibili e contrassegnati in modo appropriato.

Ambito di Applicazione e Eccezioni

Il regolamento non si applica ai settori al di fuori del campo di applicazione del diritto dell’UE, né pregiudica le competenze degli Stati membri in materia di sicurezza nazionale. Inoltre, non si applica ai sistemi utilizzati esclusivamente per scopi militari o di difesa, né a quelli impiegati solo a fini di ricerca e innovazione o da persone per motivi non professionali.

© RIPRODUZIONE RISERVATA
Tag: , , ,

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Per rimanere aggiornato/a iscriviti al nostro canale whatsapp, clicca qui: