AI Act, ci siamo: dal 2 febbraio si applicano i divieti sulle pratiche di AI proibite e scattano i requisiti sull’alfabetizzazione dell’AI

Il 2 febbraio 2025 è stata una tappa fondamentale nel percorso di attuazione dell'AI Act - il primo regolamento al mondo sull'AI - all'interno dell'Unione Europea: ecco le novità regolamentari e le soluzioni tecnologiche che facilitano l'adeguamento alla norma europea sull'Intelligenza Artificiale

Dalla proibizione dei sistemi di AI a rischio “inaccettabile” fino agli obblighi per fornitori e sviluppatori: i contenuti dell’AI Act

Gli impatti dell’AI Act sono ormai riscontrabili. La prima vera scadenza nell’adozione all’interno dell’UE del primo regolamento al mondo sull’AI – quella del 2 febbraio 20025 – è infatti appena trascorsa.

Prima di scoprire quali divieti si applicano e quali obblighi sono scattati per i fornitori di servizi e tecnologie di Intelligenza Artificiale, è utile ripercorrere velocemente i contenuti principali della norma europea sull’AI.

Come riportato sul sito ufficiale del Parlamento Europeo, l’AI Act esiste per “assicurare che i sistemi di Intelligenza Artificiale utilizzati nell’Unione Europea siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente”. Il primo passo verso questa meta è stata l’identificazione di tre livelli di rischio dei sistemi di Intelligenza Artificiale. 

Il livello di rischio più elevato è stato definito “rischio inaccettabile” e comporta il divieto dei sistemi di AI che costituiscono una tale minaccia, rendendoli proibiti. Le pratiche di AI che rientrano in questa categoria includono:

  • manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici;
  • classificazione sociale delle persone in base a comportamento, livello socio-economico, caratteristiche personali;
  • sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale.

Saranno ammesse però eccezioni, come i sistemi di identificazione biometrica utilizzati a distanza di tempo per perseguire reati gravi e previa autorizzazione del giudice. 

Ci sono poi sistemi di AI definiti a “rischio alto”, ovvero quelli che influiscono negativamente sulla sicurezza o sui diritti fondamentali, come i sistemi di Intelligenza Artificiale utilizzati in prodotti soggetti alla direttiva dell’UE sulla sicurezza generale dei prodotti e quelli che rientrano in otto specifiche aree (fonte: sito web del Parlamento Europeo), da far registrare in un database specifico presidiato dall’UE.

Infine, la terza fascia di rischio è quella dei sistemi di AI a “rischio limitato”, che richiedono soltanto il rispetto di alcuni “requisiti minimi di trasparenza che consentano agli utenti di prendere decisioni informate”, come l’indicazione esplicita di ogni interazione con l’Intelligenza Artificiale. 

I sistemi a rischio limitato includono anche la Generative AI – sia testi, che immagini, audio e video (inclusi i deepfake) -, dunque le società che offrono servizi di GenAI dovranno rispettare dei requisiti di trasparenza, quali comunicare esplicitamente che il contenuto è stato generato dall’AI, progettare il modello in modo da impedire la generazione di contenuti illegali e pubblicare riepiloghi dei dati con diritti d’autore utilizzati per l’addestramento.

Le tappe più rilevanti dell’applicazione dell’AI Act, dall’entrata in vigore al 2 agosto 2025 (e oltre)

Una norma così complessa e così rilevante come l’AI Act non può ovviamente essere applicata integralmente in un’unica soluzione. Ecco perché le autorità europee hanno stabilito, a partire dall’entrata in vigore del 1° agosto 2024, una serie di tappe regolamentari distribuite nel tempo. 

La timeline prevista dall’UE, infatti, prevede come prima milestone, proprio quella del 2 febbraio 2025. A partire da questa data “tenuto conto del rischio inaccettabile associato all’uso dell’IA in determinati modi, i divieti e le disposizioni generali del Regolamento devono già applicarsi”.

Come spiegato nel Considerando 179 dell’AI Act, “anticipare l’applicazione dei divieti è importante per tenere conto di rischi inaccettabili e per avere un effetto su altre procedure, come nel diritto civile”. In particolare, dal 2 febbraio 2025 si applicano il Capitolo I e il Capitolo II dell’AI Act, che includono le proibizioni sui sistemi di AI a rischio inaccettabile e i requisiti sull’alfabetizzazione dell’AI. 

In particolare, questi ultimi riguardano le misure che i fornitori e gli utilizzatori di sistemi di AI devono mettere in pratica “per garantire, nella misura del possibile, un livello sufficiente di alfabetizzazione in materia di Intelligenza Artificiale del personale e delle altre persone che si occupano dell’esercizio e dell’uso dei sistemi di AI per loro conto”, tenendo conto di una serie di fattori su cui basare le suddette misure.

In tal senso, si prevede la pubblicazione dei codici di buona pratica entro il 2 maggio 2025 per consentire ai fornitori di dimostrare la conformità in tempo per la seconda milestone relativa all’adozione dell’AI Act all’interno dell’UE, ovvero il 2 agosto 2025.

Da quella data, infatti, “dato il rapido ritmo dei progressi tecnologici e dell’adozione di modelli di IA per uso generale”, verranno applicati gli obblighi per i fornitori di modelli di IA per uso generale e dunque anche le disposizioni relative alle sanzioni.

Sempre a partire dal 2 agosto 2025, verranno applicate le disposizioni sugli organismi notificati e sulla struttura di governance, con l’obiettivo di rendere operativa l’infrastruttura relativa alla governance e al sistema di valutazione della conformità prima del 2 agosto 2026

Adeguarsi agli obblighi dell’AI Act può diventare più semplice e veloce, con Aptus

Ora che conosciamo meglio il contenuto del Regolamento europeo sull’Intelligenza Artificiale, è possibile entrare nel merito di come ci siano tecnologie di AI in grado di favorire le attività di compliance connesse all’adeguamento normativo.

Una di esse è la piattaforma RegTech di Aptus.AI, infatti, può ottimizzare i processi di Regulatory Change Management delle istituzioni finanziarie relativi all’adeguamento all’AI Act: ecco come.

Innanzitutto, la funzionalità Aptus.Outlook permette di analizzare i documenti normativi prima della loro pubblicazione ufficiale, dunque di prepararsi in anticipo ai futuri aggiornamenti dell’AI Act e ai nuovi documenti legali che l’UE emanerà in fatto di Intelligenza Artificiale, così da poter pianificare le attività di compliance necessarie per adeguarsi al quadro normativo europeo sull’AI.

Oltre a ciò, grazie alla funzionalità Aptus.Search, è possibile effettuare una ricerca avanzata sia interna che esterna al testo normativo. La prima rende più rapida ed affidabile l’identificazione degli obblighi introdotti, delle possibili sanzioni e di tutte le informazioni utili per il recepimento della norma. La ricerca esterna all’AI Act permette invece di navigare anche tutti gli altri documenti legali rilevanti per l’analisi normativa relativa ai sistemi di AI, e non solo.

Infine, per rendere l’analisi dell’AI Act ancora più intuitiva, rapida e accurata, c’è Aptus.Chat, la prima soluzione di Generative AI affidabile e priva di allucinazioni per il settore legale. 

Sfruttando i requisiti normativi trasposti oggettivamente in formato digitale e seguendo la gerarchia ufficiale delle norme, Aptus.Chat è un assistente virtuale basato su AI, con una intuitiva interfaccia conversazionale che consente di utilizzare la Gen AI in modo sicuro anche nel settore legale.

Richiedi una demo

Compila il form per essere contattato dal nostro team.

Cliccando su “INVIA” dai il tuto consenso al trattamento dei tuoi dati come descritto nella nostra Privacy Policy.