Seleziona una pagina

Ultimo aggiornamento 1 mese fa

Cos’è l’AI act dell’Unione Europea?

L’AI act è una normativa europea sull’intelligenza artificiale (IA), la prima regolamentazione completa sull’IA da parte di un grande regolatore.

Il regolamento classifica le applicazioni di IA in tre categorie di rischio. Le applicazioni che creano un rischio inaccettabile, come il punteggio sociale gestito dal governo, sono vietate.

Le applicazioni ad alto rischio, come gli strumenti di selezione dei CV, devono rispettare requisiti legali specifici. Le applicazioni non vietate o classificate come ad alto rischio sono in gran parte non regolamentate.

 

Perché è importante?

Le applicazioni di IA influenzano vari aspetti della vita quotidiana, come l’informazione online, l’analisi dei dati facciali per le leggi, le pubblicità personalizzate e la diagnosi e cura del cancro.

Come il GDPR, il Regolamento sull’IA dell’UE potrebbe diventare uno standard globale, influenzando positivamente o negativamente la vita delle persone ovunque si trovino.
Fasi del Regolamento

Il 21 maggio 2024, il Consiglio dell’Unione Europea ha approvato il Regolamento sull’IA, completando il processo legislativo iniziato con l’adozione da parte del Parlamento Europeo il 13 marzo 2024.

Obiettivi e punti principali dell’AI act

Il regolamento mira a proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale, promuovendo l’innovazione e assicurando all’Europa un ruolo di leadership nel settore.
Stabilisce obblighi per l’IA in base ai rischi e all’impatto.

Applicazioni vietate

Sono vietate le applicazioni di IA che minacciano i diritti dei cittadini, come i sistemi di categorizzazione biometrica basati su caratteristiche sensibili, l’uso indiscriminato di immagini facciali da internet per creare database di riconoscimento facciale, i sistemi di riconoscimento delle emozioni sul lavoro e nelle scuole, i sistemi di credito sociale e le pratiche di polizia predittiva basate su profilazione.

Eccezioni per le forze dell’ordine

Le forze dell’ordine potranno utilizzare sistemi di identificazione biometrica solo in situazioni specifiche, con garanzie rigorose, come la limitazione temporale e spaziale e previa autorizzazione giudiziaria.
Gli usi ammessi includono la ricerca di persone scomparse e la prevenzione di attacchi terroristici.

Obblighi per i sistemi ad alto rischio

I sistemi di IA ad alto rischio devono rispettare obblighi chiari, come la valutazione e riduzione dei rischi, la trasparenza, l’accuratezza e la garanzia di sorveglianza umana. I cittadini possono presentare reclami e ricevere spiegazioni sulle decisioni basate su tali sistemi.

LEGGI ANCHE: Le nuove sfide per la conformità dell’Intelligenza Artificiale

Trasparenza e innovazione

I sistemi di IA generali devono rispettare requisiti di trasparenza e le norme UE sul diritto d’autore. I modelli potenti devono valutare e mitigare i rischi sistemici e segnalare incidenti.

Le immagini e i contenuti audio o video artificiali devono essere etichettati come tali.

I paesi dell’UE devono creare spazi di sperimentazione normativa per supportare l’innovazione delle PMI e delle start-up.

 

Cosa ne consegue per il tuo business?

Da un punto di vista pratico, le aziende dovrebbero considerare di fare quanto segue:

  • Valutare se l’azienda sta utilizzando l’IA e se tali sistemi di IA sono considerati ad alto o limitato rischio.
  • Determinare se e come i requisiti del Regolamento sull’IA per tali sistemi ad alto o limitato rischio possono essere soddisfatti.
  • Esaminare altre normative sull’IA e gli standard tecnici o di settore, come lo standard NIST sull’IA, per determinare come questi standard possano essere applicati all’azienda.
  • Sviluppare un programma di governance dell’IA che tenga conto sia del Regolamento sull’IA sia delle altre normative e standard in evoluzione in altre giurisdizioni.