▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

Intelligenza artificiale: l'Europa fissa le regole per una AI "affidabile"

Sono stati definiti i sette "principi" che secondo la UE devono caratterizzare i sistemi di AI perché operino in maniera davvero favorevole al benessere umano

Tecnologie
L'intelligenza artificiale non è fine a sé stessa ma uno strumento che deve servire le persone per, in ultima analisi, migliorarne il benessere; per garantire questo obiettivo, l'AI deve essere affidabile. Sembra un concetto ovvio ma la Commissione Europea ha pensato bene di formalizzarlo in un documento articolato - Building Trust in Human-Centric Artificial Intelligence - che descrive le linee guida da seguire in ambito comunitario nello sviluppo di applicazioni e sistemi di intelligenza artificiale. Il messaggio è rivolto ovviamente alle imprese e rientra in una strategia più ampia che la UE si è data in campo AI.

La Commissione ha già indicato più volte che lo sviluppo delle aziende europee che operano nel settore intelligenza artificiale è una priorità. Per questo ha definito un piano che prevede investimenti diretti per un miliardo di euro all'interno del piano Horizon 2020 e punta a investire la stessa cifra, ma annualmente, nel piano 2021-2027. Tutto questo dovrebbe idealmente fare da volano per generare complessivamente altri investimenti pubblici e privati per una ventina di miliardi di euro nei prossimi dieci anni.

Tutto questo ha però un prerequisito di metodo. Per la UE una intelligenza artificiale deve essere una "human-centric AI" che rispetti nel suo operato gli stessi valori dell'Unione, quindi in primo luogo pluralismo, non-discriminazione, tolleranza, giustizia, solidarietà, uguaglianza, privacy. A priori il funzionamento di una intelligenza artificiale non è detto rispetti questi valori come ci si aspetterebbe, motivo per cui servono linee guida etiche nella sua progettazione. Tenendo in conto anche le normative europee che in qualche modo si collegano al funzionamento delle AI, come ad esempio il GDPR per quanto riguarda la raccolta e l'elaborazione di dati personali.

ai machine leaLa Commissione Europea ha definito queste linee guida, indicando che non costituiscono (ancora) un vincolo legale ma sottolineando che molti dei loro punti principali sono già contemplati in qualche legge dell'Unione. In sostanza, una intelligenza artificiale può essere considerata affidabile se soddisfa sette requisiti.

Intelligenza artificiale: le linee guida UE

Tutela e controllo umano - I sistemi basati sulla intelligenza artificiale devono favorire la capacità di azione delle persone e avere al centro il benessere complessivo dell'utente. Devono essere supervisionati dall'uomo, attraverso varie misure di controllo, per evitare effetti dannosi.
Robustezza e sicurezza - Gli algoritmi di AI devono essere robusti, in grado di resistere ad attacchi e di produrre risultati accurati e riproducibili. Devono anche essere intrinsecamente sicuri, con un approccio di security by design.
Privacy e Data Governance - Il funzionamento di un sistema di AI deve garantire la privacy delle persone e deve avere apposite misure di data protection e per la tutela della integrità dei dati. Qui è evidente l'impatto del GDPR anche in campo AI.

Trasparenza - Il funzionamento degli algoritmi di AI deve essere tracciabile, identificando le decisioni prese ad ogni loro passo, e deve anche essere "spiegabile". Ossia, si deve poter capire perché un algoritmo ha preso una certa decisione davanti a un determinato scenario di possibilità.
Equità - Sin dalla prima progettazione di un sistema di AI bisogna tenere conto che gli algoritmi possono assumere pregiudizi che derivano da dati di addestramento non pienamente rappresentativi. E che questo pregiudizio può portare a discriminazioni dirette e indirette.
Benessere della società e dell'ambiente - L'impatto dei sistemi di AI va considerato non solo dal punto di vista del suo utente diretto ma della società nel suo complesso e anche dell'ambiente.
Accountability - I sistemi di AI sono giudicati "responsabili" delle loro scelte, servono quindi processi di auditing indipendenti che ne valutino l'operato.

aruba hpe retailLa Commissione Europea non si è limitata a definire le linee guida dell'AI "affidabile". Per testarle e metterle in pratica ha pianificato una fase pilota in cui, dal prossimo giugno, chiunque sviluppi sistemi di intelligenza artificiale potrà cercare di integrarvi le linee guida europee e potrà di conseguenza dare un feedback alla Commissione. Parallelamente, le linee guida saranno presentate anche ad altre entità che non operano direttamente nello sviluppo dell'AI ma che hanno interesse a dare una loro opinione. Tutti questi contributi porteranno, nei primi mesi del 2020, a una revisione delle attuali sette linee guida.

La Commissione Europea intende anche rafforzare il ruolo dell'Europa nel mercato AI, continuando a spingere l'approccio della "human-centric AI". Per questo intensificherà le collaborazioni con le nazioni che hanno una visione simile, tra cui Giappone, Canada e Singapore. L'idea è anche quella di coinvolgere aziende straniere nella fase pilota di confronto sull'AI.
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di ImpresaCity.it iscriviti alla nostra Newsletter gratuita.

Notizie correlate

Speciali Tutti gli speciali

Reportage

Red Hat Summit Connect 2024

Reportage

WPC 2024

Speciale

Speciale Data Center

Speciale

Speciale Hybrid Working

Reportage

Cybertech Europe 2024

Calendario Tutto

Gen 23
Nutanix Cloud Day Roadshow - Bari

Magazine Tutti i numeri

ImpresaCity Magazine


Leggi il Magazine

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter