▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

Al via lo AI Act europeo

Definita prima di fine anno la versione "collegiale" dello AI Act, la norma europea per "controllare" le AI si avvia alla ratificazione

Tecnologie

A un certo punto sembrava che il Parlamento Europeo e il Consiglio d'Europa non sarebbero riusciti a trovare un accordo per finalizzarla - il che avrebbe dato un pessimo segnale - ma il rischio è stato evitato e la versione ufficiale dello AI Act è stata definita. Si tratta della norma per la regolamentazione delle applicazioni e delle piattaforme basate sull'Intelligenza Artificiale a cui l'Europa lavora ormai da oltre due anni. Ed è il primo caso reale di normativa transnazionale sull'uso delle AI.

L'impostazione di fondo della normativa europea non è cambiata rispetto a quanto la Commissione propone dal "lontano" 2021. Lo AI Act si basa sul principio che le applicazioni e le piattaforme basata su una qualche forma, attuale o futura, di AI devono essere più o meno regolamentate in funzione del rischio che presentano. Più l'uso improprio o erroneo di una AI comporta danni elevati, più l'AI in questione deve essere oggetto di controlli e limiti. Sino al bando completo della sua applicazione.

L'approccio per così dire "risk based" comporta diversi vantaggi. Tra i principali, il primo è che evita alla norma di perdersi, e depotenziarsi di conseguenza, tra le mille possibili definizioni tecniche di un campo - quello delle AI - in forte evoluzione e per molti versi ancora indefinito. Il secondo vantaggio è che l'approccio è astratto dal campo di applicazione specifico di una soluzione tecnologica, cosa che ancora una volta semplifica l'applicazione delle norme.

I profili di rischio

L'AI Act prevede diversi profili di rischio per le potenziali applicazioni AI. Quello meno problematico prevede un rischio "minimo" e in questo ambito dovrebbe ricadere, secondo Bruxelles, la grande maggioranza dei sistemi AI. Gli esempi fatti esplicitamente dalla Commissione sono i filtri antispam, i videogiochi con componenti di AI o i motori che consigliano contenuti in base alle presupposte preferenze degli utenti.

Per questi sistemi le normative non prevedono limiti o controlli, perché non presentano rischi per i cittadini o, se li presentano, non lo fanno in misura significativa. Le aziende che sviluppano soluzioni AI di questo tipo hanno però la possibilità - che, crediamo, sarà abbastanza ignorata - di aderire volontariamente alle condizioni più stringenti della nuova normativa.

In una classifica di pericolosità potenziale crescente, le prime formulazioni dell'AI Act prevedevano poi la categoria di "rischio limitato". Qui le applicazioni avevano un profilo di rischio analogo al "rischio minimo", ma con una particolarità: c'era la concreta possibilità che il loro utente non fosse conscio di stare interagendo con una AI e non con persone vere.

I chatbot sono l'esempio più ovvio per queste applicazioni, in cui il problema non è tanto la pericolosità ma la necessità di chiarezza - il testo parla esplicitamente di "trasparenza" - nei confronti degli utenti. Dal 2021 però di acqua ne è passata sotto i ponti e questa categoria di applicazioni è stata modificata per recepire le conseguenze dell'avvento dell'AI generativa.

Il testo finale dello AI Act sostituisce la categoria del "rischio limitato" con quella cosiddetta di "specific transparency risk". Vi ricadono tutte le applicazioni in cui l'AI genera contenuti (testi, immagini, video, interazioni...): tali contenuti sintetici devono essere chiaramente indicati come tali e devono essere identificabili come "finti" sia dalle persone sia da sistemi di controllo automatici.

L'obiettivo principale di una categoria del genere è chiaramente contenere, se non proprio evitare, il rischio della disinformazione ad arte che sfrutta i deepfake di qualsiasi natura. E non solo la disinformazione, perché è ormai chiaro che l'AI generativa sarà usata da criminali più o meno "professionisti" per diversi possibili reati.

Al centro dell'AI Act

Al centro dello AI Act c'è la definizione di precisi paletti per le applicazioni dell'AI definite "ad alto rischio". Sono quelle in cui qualsiasi funzionamento improprio ha conseguenze importanti per i cittadini e per i loro diritti. Non fa differenza, lato normativa, che si tratti di una AI che controlla il funzionamento di infrastrutture critiche o di una che decide quale candidati scegliere per un posto di lavoro. O ancora, per fare un esempio di un utilizzo dell'AI già dimostratosi fallace, che stabilisce chi può accedere in maniera agevolata a certe prestazioni sanitarie e chi no. In questa categoria rientrano anche i sistemi di AI collegati in vario modo ai dispositivi medici, all'identificazione biometrica, alla categorizzazione delle persone, ai processi di polizia e di amministrazione della Giustizia.

Tutte le applicazioni e i sistemi ad alto rischio dovranno sottostare a requisiti particolarmente stringenti per quanto riguarda il loro funzionamento. Ad esempio nelle componenti di mitigazione del rischio, nella qualità dei loro datset, nella cybersecurity. Le attività di questi sistemi dovranno essere accuratamente registrate e documentate, offrire informazioni chiare per gli utenti sul loro operato, avere una costante supervisione umana.

È interessante notare che in questa categoria di applicazioni ad alto rischio rientrano tutta una serie di utilizzi dell'AI e del machine learning che hanno già scatenato polemiche in diverse nazioni, specie negli USA, ma che restano molto presenti nella proposizione non tanto dei vendor tecnologici di primo livello (le varie Microsoft, Google, IBM, AWS e compagnia) quanto di alcune software house "evolute" che utilizzano le loro tecnologie in ambiti verticali.

Parliamo di applicazioni controverse come la valutazione automatica degli esami scolastici, la selezione "smart" dei CV, il credit scoring, l'analisi delle prove legali, la valutazione dell'autenticità dei documenti di identificazione. Il rischio che l'UE vuole evitare è che singoli cittadini, o gruppi sociali, vengano penalizzati in funzione di parametri e "ragionamenti" poco, o per nulla, chiari.

Dove l'AI andrà bloccata

La tutela dei diritti dei cittadini di fronte alla "opacità" dell'AI è un principio fondante di tutta la nuova normativa. Sino a giustificare il bando totale dell'AI quando comporta un rischio concreto che siano violati i diritti fondamentali delle persone. I sistemi e le applicazioni che comportano questo pericolo ricadono nella categoria di rischio "inaccettabile". Qui non si richiedono o ipotizzano controlli particolari o un elevato livello di attenzione: il bando dell'AI è preventivo e senza appello. Accade, ad esempio, per le applicazioni che usano l'AI per indurre determinati comportamenti nelle persone, per il social scoring, per il predictive policing.

Al bando anche alcune applicazioni del riconoscimento biometrico: sui luoghi di lavoro, per la categorizzazione delle persone o per la loro identificazione nei luoghi pubblici. Non a caso, si tratta di applicazioni - specie le ultime due categorie - che hanno già dimostrato di essere poco efficaci e discriminatorie, ma che continuano a essere proposte alle forze dell'ordine per aiutarle a contenere i loro budget.

È chiaro che l'idea di bandire del tutto determinate applicazioni dell'AI non sarà ben digerita da parte del mercato. I grandi vendor statunitensi hanno già fatto sentire la loro voce e portato avanti il solito mantra secondo cui le normative frenano l'innovazione. Ma di fronte ai rischi dell'AI in certe applicazioni, c'è poco da discutere.

Non è solo questione di capacità e volontà delle software house di creare applicazioni eque e di cui ci si possa fidare. C'è anche da considerare il lato sicurezza: nessuno al momento può a priori garantire che un algoritmo non sarà mai, in qualche modo, "truccato" da malintenzionati. Inoltre, la supply chain di una generica applicazione AI si sta facendo talmente complessa che gli errori possono sempre capitare. In alcuni ambiti, però, qualsiasi errore semplicemente non è accettabile.

Cosa succede ora

Lo AI Act deve ora essere approvato dal Parlamento Europeo e dal Consiglio d'Europa. Il testo da votare è ragionevolmente concordato, quindi l'approvazione non sarà scontata ma è assai probabile. Dopo questo passo il testo della normativa sarà pubblicato ufficialmente, per entrare in vigore 20 giorni dopo. L'AI Act sarà applicato per gradi. Nel suo complesso lo sarà due anni dopo la pubblicazione, ma il bando delle applicazioni a rischio inaccettabile avverrà molto prima: sei mesi dopo la pubblicazione. Dodici mesi dopo la pubblicazione entreranno invece in vigore alcune regole restrittive sull'utilizzo dei modelli di AI "general purpose", ossia il cui raggio d'azione è così ampio da introdurre potenzialmente rischi sistemici.

Con l'entrata progressiva in vigore dello AI Act si attivano anche le sanzioni finanziarie collegate. Le "multe" per le aziende che violano il bando delle AI troppo rischiose partono da un minimo 35 milioni di euro (o del 7% del fatturato annuale mondiale, se è più elevato). Le aziende che violano altri aspetti della normativa pagheranno multe a partire da 15 milioni di euro (o il 3% del fatturato). Le imprese che genericamente forniscono informazioni errate saranno multate per un minimo di 7,5 milioni di euro (o lo 1,5% del fatturato).

Non sono somme ragguardevoli se guardiamo al business dei giganti dell'IT, ma dobbiamo pensare che la gran parte delle applicazioni concrete dell'AI non verrà da loro ma da una pletora di altri operatori - startup, software house generiche, system integrator, eccetera - comunque obbligati all'AI Act e per i quali si tratta di cifre significative. In alcuni casi, abbastanza da far uscire un'azienda dal mercato.

Recepire l'AI Act non sarà semplice, per molti. Anche per questo - e probabilmente per non essere accusata di mettere paletti e basta - la Commissione Europea mette sul piatto lo AI Pact: una specie di "proposta di collaborazione" per le aziende che sviluppano (o svilupperanno) applicazioni basate sull'AI.

In sintesi, chi aderisce all'AI Pact si impegna ad avviare già da subito un percorso verso la compliance all'AI Act e di condividere pubblicamente le esperienze che matura in tal senso. In cambio la Commissione Europea offre da un lato collaborazione pratica in questo percorso, facilitandolo, dall'altro visibilità e quindi un risconoscimento pubblico: chi aderisce al Patto è implicitamente più "affidabile" di altri. O quantomeno va percepito come tale.

Ovviamente tutto questo non basta per far digerire lo AI Act a un mercato che vede nell'AI la possibilità di una crescita di business come non si prospettava da anni. L'AI Act dovrà imporsi per il senso che ha: è inutile negare che l'AI presenti dei rischi, meglio muoversi per prevenirli con un approccio deciso e trasversale che solo le normative possono avere. Le aziende, per quanto affidabili, seguono per loro natura logiche diverse.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di ImpresaCity.it iscriviti alla nostra Newsletter gratuita.

Notizie correlate

Speciali Tutti gli speciali

Reportage

Red Hat Summit Connect 2024

Reportage

WPC 2024

Speciale

Speciale Data Center

Speciale

Speciale Hybrid Working

Reportage

Cybertech Europe 2024

Calendario Tutto

Gen 23
Nutanix Cloud Day Roadshow - Bari

Magazine Tutti i numeri

ImpresaCity Magazine


Leggi il Magazine

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter