- un'intelligenza artificiale antropocentrica e antropogenica;
- sicurezza, trasparenza e responsabilità;
- garanzie contro distorsioni e discriminazioni;
- diritto di ricorso;
- responsabilità sociale e ambientale e rispetto della privacy e protezione dei dati.
Inoltre, le tecnologie IA ad alto rischio, come quelle con capacità di autoapprendimento, dovrebbero essere progettate
in modo da consentire la sorveglianza umana in qualsiasi momento. Se viene utilizzata una funzionalità che potrebbe comportare una grave violazione dei principi etici e risultare pericolosa, le capacità di autoapprendimento dovrebbero essere disabilitate e dovrebbe essere ripristinato il pieno controllo umano.
Nel testo d’iniziativa legislativa di
Axel Voss (PPE, DE) si richiede un quadro giuridico in materia di responsabilità civile orientato al futuro,
che renda gli operatori IA ad alto rischio oggettivamente responsabili dei danni che ne possono derivare. Un quadro giuridico chiaro contribuirà a stimolare l'innovazione fornendo alle imprese la certezza del diritto. Proteggerà al contempo i cittadini e promuoverà la loro fiducia nelle tecnologie di IA, scoraggiando le attività che potrebbero essere pericolose.
Le regole dovrebbero essere applicate alle attività di IA fisiche o virtuali che danneggiano o influiscono sulla vita, la salute, l'integrità fisica, il patrimonio, o che causano un rilevante danno immateriale
che si traduce in una "perdita economica verificabile". Sebbene le tecnologie di IA ad alto rischio siano ancora rare, i deputati ritengono che i loro operatori dovrebbero avere un'assicurazione simile a quella per i veicoli a motore.