L’AI Act è una proposta di regolamento dell’Unione Europea per disciplinare l’uso e lo sviluppo dell’intelligenza artificiale (IA) all’interno dei suoi Stati membri. Questo atto si pone l’obiettivo di garantire che l’IA venga utilizzata in modo sicuro e rispettoso dei diritti fondamentali delle persone.
Il documento identifica e classifica i sistemi di Intelligenza Artificiale in base al livello di “rischio” che possono rappresentare. In questo modo, risulta più facile applicare regolamentazioni proporzionate alla gravità del potenziale impatto.
- Rischio Inaccettabile: Queste tecnologie sono completamente proibite. Include sistemi che manipolano il comportamento umano in modo dannoso o che utilizzano tecniche di sorveglianza indiscriminate.
- Rischio Alto: Le applicazioni in questa categoria richiedono regolamentazioni rigorose. Parliamo di IA utilizzata in settori critici come infrastrutture, istruzione, occupazione, forze dell’ordine e gestione delle migrazioni. Questi sistemi devono rispettare standard stringenti di trasparenza, sicurezza e supervisione umana.
- Rischio Limitato: Applicazioni che devono rispettare obblighi di trasparenza. Un esempio comune sono i chatbot, che devono chiaramente dichiarare di essere IA.
- Rischio Minimo o Nullo: Include applicazioni che non richiedono particolari regolamentazioni, come filtri spam o videogiochi basati su IA.
Secondo Thomas Regnier, portavoce della Commissione europea, circa l’85% delle aziende di AI rientra nella seconda categoria, quella del “rischio minimo”, che richiede una regolamentazione minima.
Per garantire il rispetto delle regole, l’AI Act prevede sanzioni significative: le multe possono arrivare fino a 30 milioni di euro o al 6% del fatturato mondiale annuo dell’azienda coinvolta.
Quali conseguenze per la ricerca scientifica
Il regolamento impone requisiti di trasparenza e tracciabilità per i sistemi IA, il che potrebbe migliorare la qualità della ricerca scientifica. I ricercatori e gli sviluppatori saranno obbligati a documentare accuratamente i loro dati e i modelli utilizzati, facilitando la replicabilità e la verifica indipendente dei risultati. Questo approccio, però, necessita di un importante cambio di paradigma operativo, responsabilizzando ciascun ricercatore ad una maggiore e approfondita consapevolezza dei sistemi e codici utilizzati.
Timeline dell’Implementazione
- 1° Agosto 2024: L’AI Act entra ufficialmente in vigore.
- Febbraio 2025: Alcune delle norme più severe iniziano ad applicarsi, specialmente quelle riguardanti i sistemi ad alto rischio.
- 2 Agosto 2025: Gli sviluppatori e i fornitori devono designare le autorità nazionali competenti per il monitoraggio del regolamento.
- 2 Agosto 2026: L’AI Act raggiungerà la piena operatività, con tutte le norme completamente applicabili.
https://artificialintelligenceact.eu
https://ec.europa.eu/commission/presscorner/detail/en/IP_24_4123