Dopo una maratona di negoziati di 72 ore, il Consiglio dell’Unione europea e il Parlamento europeo hanno raggiunto un accordo sulla proposta di norme armonizzate sull’intelligenza artificiale (Ia).
Il regolamento, il primo al mondo sul tema, intende garanti e che i sistemi di intelligenza artificiale immessi sul mercato
europeo e utilizzati nell’Ue siano sicuri e rispettino i diritti fondamentali e i valori dell’Ue, senza perdere un’occasione per stimolare gli investimenti e l’innovazione nell’Ia in Europa.
L’idea madre è regolamentare l’intelligenza artificiale in base alla capacità di questa di causare danni alla società. Si segue dunque un approccio “basato sul rischio”: si va dal rischio minimo a quello inaccettabile; maggiore e’ il rischio,
più severe sono le regole. La stragrande maggioranza dei sistemi di intelligenza artificiale rientra nella categoria del rischio minimo e beneficeranno di una sorta di lasciapassare.
I sistemi di intelligenza artificiale identificati come ad alto rischio saranno tenuti invece a rispettare requisiti rigorosi,
tra cui sistemi di mitigazione del rischio, alta qualità dei set di dati, registrazione delle attività, documentazione dettagliata, informazioni chiare sugli utenti, supervisione umana e un alto livello di robustezza, accuratezza e sicurezza informatica. Le sandbox normative faciliteranno l’innovazione responsabile e lo sviluppo di sistemi aI conformi. Esempi di sistemi di intelligenza artificiale ad alto rischio includono alcune infrastrutture critiche, ad esempio nei settori
dell’acqua, del gas e dell’elettricità; dispositivi medici; sistemi per determinare l’accesso alle istituzioni educative o
per reclutare persone; o alcuni sistemi utilizzati nei settori delle forze dell’ordine, del controllo delle frontiere,
dell’amministrazione della giustizia e dei processi democratici.
Inoltre, anche i sistemi di identificazione biometrica, categorizzazione e riconoscimento delle emozioni sono considerati ad alto rischio.
I negoziatori hanno concordato, infatti, una serie di salvaguardie e ristrette eccezioni per l’uso di sistemi di identificazione biometrica (RBI) in spazi accessibili al pubblico a fini di applicazione della legge, previa autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti. E’ quanto si legge in una nota del Parlamento europeo
sulla legge europea sull’intelligenza artificiale. L’RBI “post-remoto”, si spiega, verrebbe utilizzato esclusivamente per
la ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave.
Vi e’ poi la categoria dei rischi specifici, quali le ormai famose chatbot. Quando le utilizzano, gli utenti dovrebbero
essere consapevoli che stanno interagendo con una macchina. I deepfake e altri contenuti generati dall’Ia dovranno essere etichettati come tali e gli utenti devono essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. Inoltre, i fornitori dovranno progettare sistemi in modo che i contenuti audio, video, testo e immagini sintetici siano contrassegnati in un formato leggibile dalla macchina e rilevabili come generati o manipolati artificialmente.
Il regolamento non si applica a settori al di fuori del campo di applicazione del diritto dell’Ue e non dovrebbe, in ogni caso, pregiudicare le competenze degli Stati membri in materia di sicurezza nazionale o qualsiasi entità incaricata di compiti in questo settore. Inoltre, la legge sull’Ia non si applicherà ai sistemi utilizzati esclusivamente per scopi militari o di difesa. Allo stesso modo, l’accordo prevede che il regolamento non si applichi ai sistemi di intelligenza artificiale
utilizzati al solo scopo di ricerca e innovazione, o alle persone che utilizzano l’intelligenza artificiale per motivi non
professionali.
Le multe per le violazioni della legge Ia sono state fissate come percentuale del fatturato annuo globale della società incriminata nell’anno finanziario precedente o un importo predeterminato, a seconda di quale sia il più alto. Si tratterebbe di 35 milioni di euro o del 7% per le violazioni delle applicazioni Ia vietate, di 15 milioni di euro o del 3% per le violazioni degli obblighi della Legge Ia e di 7,5 milioni di euro o dell’1,5% per la fornitura di informazioni errate. Tuttavia, l’accordo provvisorio prevede massimali più proporzionati sulle ammende amministrative per le Pmi e le start-up in caso di violazioni delle disposizioni della legge Ia.
Al fine di creare un quadro giuridico più favorevole all’innovazione e di promuovere l’apprendimento normativo basato sull’evidenza, le disposizioni relative alle misure a sostegno dell’innovazione sono state sostanzialmente modificate rispetto alla proposta della Commissione. In particolare, e’ stato chiarito che le sandbox normative dell’Ia, che dovrebbero stabilire un ambiente controllato per lo sviluppo, il test e la convalida di sistemi innovativi di intelligenza artificiale, dovrebbero anche consentire il test di sistemi innovativi di intelligenza artificiale in condizioni reali. Inoltre, sono state aggiunte nuove disposizioni che consentono di testare i sistemi di intelligenza artificiale in condizioni del mondo reale, in condizioni e garanzie specifiche. Per alleviare l’onere amministrativo per le imprese più piccole, l’accordo provvisorio include un elenco di azioni da intraprendere a sostegno di tali operatori e prevede alcune deroghe limitate e chiaramente specificate.
L’accordo prevede che la Legge Ia si applichi due anni dopo la sua entrata in vigore, con alcune eccezioni per disposizioni specifiche.
Stefania Losito