L’AI Act è una proposta di regolamento dell’Unione Europea per disciplinare l’uso e lo sviluppo dell’intelligenza artificiale (IA) all’interno dei suoi Stati membri. Questo atto si pone l’obiettivo di garantire che l’IA venga utilizzata in modo sicuro e rispettoso dei diritti fondamentali delle persone.

Il documento identifica e classifica i sistemi di Intelligenza Artificiale in base al livello di “rischio” che possono rappresentare. In questo modo, risulta più facile applicare regolamentazioni proporzionate alla gravità del potenziale impatto.

  1. Rischio Inaccettabile: Queste tecnologie sono completamente proibite. Include sistemi che manipolano il comportamento umano in modo dannoso o che utilizzano tecniche di sorveglianza indiscriminate.
  2. Rischio Alto: Le applicazioni in questa categoria richiedono regolamentazioni rigorose. Parliamo di IA utilizzata in settori critici come infrastrutture, istruzione, occupazione, forze dell’ordine e gestione delle migrazioni. Questi sistemi devono rispettare standard stringenti di trasparenza, sicurezza e supervisione umana.
  3. Rischio Limitato: Applicazioni che devono rispettare obblighi di trasparenza. Un esempio comune sono i chatbot, che devono chiaramente dichiarare di essere IA.
  4. Rischio Minimo o Nullo: Include applicazioni che non richiedono particolari regolamentazioni, come filtri spam o videogiochi basati su IA.

Secondo Thomas Regnier, portavoce della Commissione europea, circa l’85% delle aziende di AI rientra nella seconda categoria, quella del “rischio minimo”, che richiede una regolamentazione minima.

Per garantire il rispetto delle regole, l’AI Act prevede sanzioni significative: le multe possono arrivare fino a 30 milioni di euro o al 6% del fatturato mondiale annuo dell’azienda coinvolta.

Quali conseguenze per la ricerca scientifica

Il regolamento impone requisiti di trasparenza e tracciabilità per i sistemi IA, il che potrebbe migliorare la qualità della ricerca scientifica. I ricercatori e gli sviluppatori saranno obbligati a documentare accuratamente i loro dati e i modelli utilizzati, facilitando la replicabilità e la verifica indipendente dei risultati​. Questo approccio, però, necessita di un importante cambio di paradigma operativo, responsabilizzando ciascun ricercatore ad una maggiore e approfondita consapevolezza dei sistemi e codici utilizzati.

Timeline dell’Implementazione

  • 1° Agosto 2024: L’AI Act entra ufficialmente in vigore.
  • Febbraio 2025: Alcune delle norme più severe iniziano ad applicarsi, specialmente quelle riguardanti i sistemi ad alto rischio.
  • 2 Agosto 2025: Gli sviluppatori e i fornitori devono designare le autorità nazionali competenti per il monitoraggio del regolamento.
  • 2 Agosto 2026: L’AI Act raggiungerà la piena operatività, con tutte le norme completamente applicabili.

https://artificialintelligenceact.eu

https://ec.europa.eu/commission/presscorner/detail/en/IP_24_4123