Sono stati definiti i sette "principi" che secondo la UE devono caratterizzare i sistemi di AI perché operino in maniera davvero favorevole al benessere umano
L
'intelligenza artificiale non è fine a sé stessa ma uno strumento che deve servire le persone per, in ultima analisi, migliorarne il benessere; per garantire questo obiettivo, l'AI deve essere affidabile. Sembra un concetto ovvio ma la Commissione Europea ha pensato bene di formalizzarlo in un documento articolato -
Building Trust in Human-Centric Artificial Intelligence - che descrive
le linee guida da seguire in ambito comunitario nello sviluppo di applicazioni e sistemi di intelligenza artificiale. Il messaggio è rivolto ovviamente
alle imprese e rientra in una strategia più ampia che la UE si è data in campo AI.
La Commissione ha già indicato più volte che
lo sviluppo delle aziende europee che operano nel settore intelligenza artificiale è una priorità. Per questo ha definito un piano che prevede
investimenti diretti per un miliardo di euro all'interno del piano Horizon 2020 e punta a investire la stessa cifra, ma annualmente, nel piano 2021-2027. Tutto questo dovrebbe idealmente fare da volano per generare complessivamente altri investimenti pubblici e privati per
una ventina di miliardi di euro nei prossimi dieci anni.
Tutto questo ha però un prerequisito di metodo. Per la UE una
intelligenza artificiale deve essere una "
human-centric AI" che rispetti nel suo operato gli stessi valori dell'Unione, quindi in primo luogo pluralismo, non-discriminazione, tolleranza, giustizia, solidarietà, uguaglianza, privacy. A priori il funzionamento di una intelligenza artificiale
non è detto rispetti questi valori come ci si aspetterebbe, motivo per cui servono
linee guida etiche nella sua progettazione. Tenendo in conto anche le normative europee che in qualche modo si collegano al funzionamento delle AI, come ad esempio il
GDPR per quanto riguarda la raccolta e l'elaborazione di dati personali.
La Commissione Europea ha definito queste linee guida, indicando che
non costituiscono (ancora) un vincolo legale ma sottolineando che molti dei loro punti principali sono già contemplati in qualche legge dell'Unione. In sostanza, una intelligenza artificiale può essere considerata affidabile se soddisfa sette requisiti.
Intelligenza artificiale: le linee guida UE
Tutela e controllo umano - I sistemi basati sulla intelligenza artificiale devono favorire la capacità di azione delle persone e avere al centro il benessere complessivo dell'utente. Devono essere supervisionati dall'uomo, attraverso varie misure di controllo, per evitare effetti dannosi.
Robustezza e sicurezza - Gli
algoritmi di AI devono essere robusti, in grado di resistere ad attacchi e di produrre risultati accurati e riproducibili. Devono anche essere intrinsecamente sicuri, con un approccio di security by design.
Privacy e Data Governance - Il funzionamento di un sistema di AI deve garantire la privacy delle persone e deve avere apposite misure di data protection e per la tutela della integrità dei dati. Qui è evidente l'impatto del GDPR anche in campo AI.
Trasparenza - Il funzionamento degli algoritmi di AI deve essere tracciabile, identificando le decisioni prese ad ogni loro passo, e deve anche essere "spiegabile". Ossia, si deve poter capire perché un algoritmo
ha preso una certa decisione davanti a un determinato scenario di possibilità.
Equità - Sin dalla prima progettazione di un sistema di AI bisogna tenere conto che gli algoritmi possono assumere pregiudizi che derivano da dati di addestramento non pienamente rappresentativi. E che questo pregiudizio può
portare a discriminazioni dirette e indirette.
Benessere della società e dell'ambiente - L'impatto dei sistemi di AI va considerato non solo dal punto di vista del suo utente diretto ma della società nel suo complesso e anche dell'ambiente.
Accountability - I sistemi di AI sono giudicati "responsabili" delle loro scelte, servono quindi processi di auditing indipendenti che ne valutino l'operato.
La Commissione Europea non si è limitata a definire le linee guida dell'AI "affidabile". Per testarle e metterle in pratica
ha pianificato una fase pilota in cui, dal prossimo giugno, chiunque sviluppi sistemi di intelligenza artificiale potrà cercare di integrarvi le linee guida europee e potrà di conseguenza
dare un feedback alla Commissione. Parallelamente, le linee guida saranno presentate anche ad altre entità che non operano direttamente nello sviluppo dell'AI ma che hanno interesse a dare una loro opinione. Tutti questi contributi porteranno, nei primi mesi del 2020, a una revisione delle attuali sette linee guida.
La Commissione Europea intende anche
rafforzare il ruolo dell'Europa nel mercato AI, continuando a spingere l'approccio della "human-centric AI". Per questo intensificherà le collaborazioni con le nazioni che hanno una visione simile, tra cui Giappone, Canada e Singapore. L'idea è anche quella di coinvolgere aziende straniere nella fase pilota di confronto sull'AI.