Il G7 italiano si chiude con un documento che affronta anche i temi dell'AI. Genericamente, come prevedibile, ma dando qualche linea guida.
Autore: Redazione ImpresaCity
L'AI può giocare un ruolo cruciale nello sviluppo sociale ed economico, ma solo se essa è sicura e affidabile. Assicurata questa premessa, le applicazioni e i servizi basati sull'Intelligenza Artificiale possono favorire in generale una Trasformazione Digitale che porti i benefici più attesi limitando al massimo i rischi collegati. Questi concetti sono espressi nelle prime righe del documento ufficiale del G7 sull'AI e più in generale sull'innovazione, documento di sintesi che come sempre in questi casi resta inevitabilmente sulle generali ma che dà, comunque, alcune indicazioni strategiche di rilievo.
La prima è che il problema della frammentazione delle norme legate all'utilizzo dell'AI è ben presente e viene indicato tra quelli da evitare. Obiettivo che si può raggiungere, spiega il G7, "cooperando attivamente" con tutte le parti interessate, sulla base in particolare delle indicazioni che sono venute dall'AI Seoul Summit e che verranno dall'UN Summit of the Future del 2024 e dall'AI Action Summit del 2025.
"Intendiamo intensificare - spiegano i firmatari del documento del G7 - gli sforzi per migliorare l'interoperabilità tra i nostri approcci di governance dell'AI, al fine di promuovere maggiore certezza, trasparenza e responsabilità, pur riconoscendo che gli approcci e gli strumenti politici possono variare tra i membri del G7. In questi sforzi adotteremo un approccio basato sul rischio, nel tentativo di promuovere l'innovazione e una crescita forte, inclusiva e sostenibile".
Per raggiungere questo obiettivo, l'idea è quella di avere più coordinamento nello sviluppo dei vari framework di governance e normativi e di condividere di più le future best practice. Questo dovrebbe avvenire anche grazie a una collaborazione più stretta tra i vari enti governativi che si occupano di AI, per arrivare tra l'altro ad approcci comuni alla gestione del rischio correlato con l'AI ed a standard internazionali condivisi per il suo sviluppo e la sua diffusione.
Sullo sfondo, in questo ambito, ci sono le indicazioni che lo scorso anno sono venute dallo Hiroshima AI Process. Secondo cui le aziende che stanno sviluppando sistemi evoluti di AI dovrebbero farlo in maniera responsabile, un requisito che in sostanza viene soddisfatto aderendo ad un codice di condotta definito proprio dallo stesso Hiroshima AI Process.
Le aziende dovrebbero fare una sorta di "autodichiarazione" probante (ma per ora solo volontaria) sul rispetto di tale codice di condotta - le basi di questo sistema si definiranno probabilmente entro fine anno - e ricevere in cambio un "marchio di qualità" che le avvantaggi, idealmente, sul mercato.
Ben sapendo che l'AI avrà molti importanti impatti sul mondo del lavoro, il G7 punta a un "action plan" - che dovrà essere delineato dai Ministri del Lavoro dei Paesi membri - con cui definire "azioni concrete" per sfruttare appieno ma eticamente il potenziale dell'AI.
"Sottolineiamo la necessità di anticipare i futuri fabbisogni di competenze, di fornire opportunità di istruzione superiore e di dotare i lavoratori e i datori di lavoro delle capacità e delle competenze necessarie per progettare, adottare e lavorare con un'AI incentrata sull'uomo, sicura e affidabile", si spiega. Indicando però anche, e non troppo velatamente, che una parte importante dello sforzo per compensare qualsiasi skill gap ricadrà comunque sulle aziende.
Il documento del G7 sottolinea anche l'esistenza e la persistenza di una sorta di digital divide dell'AI. Tra le imprese - e qui si spinge la cooperazione del settore privato a favore delle PMI - ma anche tra le nazioni. E qui c'è da cercare un equilibrio non banale tra cooperazione internazionale e quelli che si definiscono "possibili problemi di concorrenza", a cui dovranno badare le varie Authority nazionali e internazionali. Ogni riferimento alla Cina è puramente casuale, ovviamente.