Cosa è l’ AI-ACT del Parlamento Europeo?

Cosa è l’ AI-ACT del Parlamento Europeo?

Cosa è l’ AI-ACT del Parlamento Europeo?

Il Parlamento Europeo ha adottato mercoledì 14 giugno 2023 la sua posizione di partenza, ma aperta a negoziazioni, sull’AI-ACT (Artificial Intelligence Act) con 499 voti a favore, 28 contrari e 93 astensioni.

I successivi negoziati con gli Stati membri dell’UE serviranno a definire la forma finale della legge.

Le norme dell’AI-ACT  mirano a promuovere l’adozione di un’Intelligenza Artificiale affidabile e centrata sull’uomo, nonché a proteggere la salute, la sicurezza, i diritti fondamentali e la democrazia dai suoi effetti dannosi. Ecco cosa definisce l’AI-ACT nella forma approvata dal Parlamento Europeo.

Quali saranno le pratiche di IA proibite ?

Le norme seguono un approccio basato sul rischio. Esse stabiliscono obblighi per i fornitori e coloro che implementano sistemi di intelligenza artificiale in base al livello di rischio che l’IA può causare.

I sistemi di IA con un livello inaccettabile di rischio per la sicurezza delle persone sarebbero quindi vietati. Si pensi ad esempio a quelli utilizzati per la valutazione sociale (classificazione delle persone in base al loro comportamento sociale o alle caratteristiche personali).

Gli eurodeputati hanno ampliato l’elenco includendo il divieto di utilizzi invasivi e discriminatori dell’IA, come:

  • Sistemi di identificazione biometrica in tempo reale in luoghi pubblici accessibili;
  • Sistemi di identificazione biometrica remota o in momenti successivi, ad eccezione delle forze dell’ordine per il perseguimento di reati gravi e solo previa autorizzazione giudiziaria;
  • Sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (ad esempio, genere, razza, etnia, cittadinanza, religione, orientamento politico);
  • Sistemi di polizia predittiva (basati su profilazione, posizione o comportamenti criminali passati);
  • Sistemi di riconoscimento delle emozioni nell’applicazione della legge, nella gestione delle frontiere, sul luogo di lavoro e nelle istituzioni educative;
  • Ricerca indiscriminata di immagini facciali su internet o riprese di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale (violando i diritti umani e il diritto alla privacy).

 IA ad alto rischio

Gli eurodeputati hanno garantito che la classificazione delle applicazioni ad alto rischio includa ora i sistemi di intelligenza artificiale che comportano danni significativi alla salute delle persone, alla sicurezza, ai diritti fondamentali o all’ambiente.

Sono stati aggiunti alla lista ad alto rischio i sistemi di IA utilizzati per influenzare gli elettori e l’esito delle elezioni. E sono inclusi anche i sistemi di raccomandazione utilizzati dalle piattaforme di social media con oltre 45 milioni di utenti.

 Obblighi per l’IA a uso generale

I fornitori di modelli di base – un nuovo e in rapida evoluzione sviluppo nel campo dell’IA – dovranno valutare e mitigare i possibili rischi (per la salute, la sicurezza, i diritti fondamentali, l’ambiente, la democrazia e lo stato di diritto) e registrare i loro modelli nel database dell’UE prima della loro distribuzione sul mercato dell’UE.

Per fornitori di modelli di base nel campo dell’IA si intendono entità o organizzazioni che sviluppano e mettono a disposizione modelli di intelligenza artificiale pre-addestrati. Ciò per consentire ad altri  sviluppatori di utilizzare l’IA in modo più accessibile ed efficiente. Questi modelli di base sono spesso creati utilizzando tecniche di machine learning avanzate su grandi quantità di dati, consentendo loro di apprendere e generare contenuti o svolgere specifiche attività.

I sistemi di IA generativi basati su tali modelli, come ChatGPT, dovranno rispettare i requisiti di trasparenza :

  • Rendendo noto che il contenuto è generato da un sistema di intelligenza artificiale.
  • Aiutando a distinguere le immagini false da quelle reali.
  • Evitando  la generazione di contenuti illegali.

Sarà inoltre necessario rendere pubblicamente disponibili riassunti dettagliati dei dati protetti da copyright utilizzati per il loro addestramento.

Promuovere l’innovazione e proteggere i diritti dei cittadini

Per stimolare l’innovazione nell’IA e sostenere le piccole e medie imprese, gli eurodeputati hanno introdotto esenzioni per le attività di ricerca e i componenti di IA forniti con licenze open-source.

La nuova legge promuove le cosiddette “sandbox regolamentari”, ovvero ambienti reali, istituiti dalle autorità pubbliche per testare l’IA prima del suo utilizzo effettivo.

Infine, gli eurodeputati desiderano potenziare il diritto dei cittadini di presentare reclami riguardo ai sistemi di IA. I cittadini potranno ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che incidono significativamente sui loro diritti fondamentali.

Gli eurodeputati hanno anche riformato il ruolo dell’Ufficio per l’IA dell’UE, che avrà il compito di monitorare l’attuazione del quadro normativo sull’IA.

Quindi cosa rappresenta l’ AI-ACT del Parlamento Europeo ?

Con l’AI-ACT il Parlamento Europeo fa un passo unico nel panorama mondiale e significativo verso l’adozione di un’Intelligenza Artificiale centrata sull’uomo e affidabile.

Ovviamente si tratta di un modello che nella sua veste definitiva sarà valido solo negli stati membri della Comunità Europea.

E’ una prima risposta a livello di governo centrale ai dubbi, paure e richieste dei cittadini, delle aziende e dei leaders nei confronti dei rapidi progressi dell’Intelligenza Artificiale.

L’avanzamento tecnologico dell’IA sarà però sempre più rapido ed evoluto rispetto ai tempi di regolamentazione.

Le nuove regole pongono l’accento sulla protezione della salute, della sicurezza, dei diritti fondamentali e della democrazia dagli effetti dannosi dell’IA. Si impegnano inoltre a garantire la trasparenza, la privacy, l’eticità, la non discriminazione e il benessere sociale ed ambientale.

Con il rafforzamento dei diritti dei cittadini, l’obbligo di trasparenza e la supervisione umana, l’AI-ACT stabilisce un quadro solido per l’utilizzo sicuro ed etico dell’IA nell’Unione Europea.

Alcuni diretti interessati come Sam Altman di Open.ai (società ideatrice di Chat-GPT) hanno già espresso i propri dubbi circa la difficoltà di rendere conformi alle nuove norme  gli strumenti di Intelligenza Artificiale generativa esistenti o in cantiere.

Ricordiamo che, ad oggi, i colossi che stanno investendo in AI non sono tenuti, almeno nei loro Paesi di origine (Stati Uniti, Cina, Russia) a vincoli o regole di questo genere.

Per saperne di più è possibile consultare il materiale normativo e seguire gli sviluppi riguardanti l’attuazione di questa importante legge sull’AI in Europa.

Vai alla nostra home page