Il regolamento della Commissione europea sull’intelligenza artificiale

Il regolamento della Commissione europea sull'intelligenza artificialeIl 21 aprile 2021 la Commissione europea ha presentato un quadro normativo per regolamentare l’utilizzo dei sistemi di intelligenza artificiale (AI). L’obiettivo principale è quello di contrastare gli utilizzi della tecnologia che possano risultare lesivi per i diritti fondamentali e la sicurezza dei cittadini dell’Unione Europea.

Scala del rischio

Le nuove regole saranno applicate direttamente e nello stesso modo in tutti gli Stati membri, sulla base di un approccio basato sul rischio. Nella sua proposta, infatti la Commissione identifica diversi livelli di rischio per le tecnologie di intelligenza artificiale.

  • Rischio inaccettabile: le tecnologie che possono rappresentare una minaccia evidente alla sicurezza o ai diritti delle persone, come nei casi degli strumenti di manipolazione (ne sono esempio i giocattoli con assistenti vocali che incitano o possono incitare a comportamenti pericolosi i minori) o di “punteggio” ai cittadini (sistemi sviluppati con AI che consentono ai governi di identificare e classificare i cittadini in base a determinate caratteristiche).
  • Rischio alto: le tecnologie ad «alto rischio» vanno dai software per il reclutamento di lavoratori ai sistemi di valutazione del credito, ricomprendendo più in generale i sistemi che possono ledere un diritto individuale. Quando la tecnologia di IA è utilizzata per infrastrutture critiche, istruzione o formazione professionale, servizi pubblici, ecc. È il caso dei sistemi di riconoscimento facciale, vietati in «linea di principio» ma attivabili per una ristrettissima minoranza di emergenze e solo con il via libera di un organo giudiziario.
  • Rischio limitato: ossia sistemi di IA con specifici obblighi di trasparenza, per esempio i sistemi di IA come i chatbot, gli utenti dovrebbero essere consapevoli del fatto che stanno interagendo con una macchina, in modo da poter decidere con cognizione di causa se continuare ad usarli oppure no.
  • Rischio minimo: la proposta legislativa consente il libero utilizzo di applicazioni quali videogiochi o filtri spam basati sull’IA. La grande maggioranza dei sistemi di IA rientra in questa categoria. Il progetto di regolamento non interviene in questo caso, poiché questi sistemi di IA presentano solo un rischio minimo o nullo per i diritti o la sicurezza dei cittadini.

Controlli

In termini di governance, la Commissione propone che le autorità nazionali di vigilanza del mercato competenti supervisionino le nuove regole, mentre l’istituzione di un comitato europeo per l’intelligenza artificiale ne faciliterà l’attuazione e stimolerà lo sviluppo di norme per l’IA. Vengono inoltre proposti codici di condotta volontari per i sistemi di IA non ad alto rischio, nonché spazi di sperimentazione normativa per facilitare un’innovazione responsabile. I trasgressori potrebbero incorrere in sanzioni amministrative fino a 30 milioni di euro o, nel caso si tratti di aziende, multe fino al 6% del proprio fatturato complessivo.

La proposta contiene inoltre la creazione di un possibile registro europeo delle intelligenze artificiali ad alto rischio, accessibile a tutti e con informazioni sulle caratteristiche delle varie AI sviluppate e impiegate dalle aziende private, pubbliche e dalle istituzioni.

Le future leggi dovranno ispirarsi su diversi principi, tra cui:

  • un’intelligenza artificiale antropocentrica e antropogenica;
  • sicurezza, trasparenza e responsabilità;
  • garanzie contro distorsioni e discriminazioni;
  • diritto di ricorso;
  • responsabilità sociale e ambientale e rispetto della privacy e protezione dei dati.

Il piano coordinato propone azioni comuni concrete di collaborazione per garantire che tutti gli sforzi siano in linea con la strategia europea sull’IA e il Green Deal europeo, tenendo conto, nel contempo, delle nuove sfide poste dalla pandemia di coronavirus.

Esso presenta una visione volta ad accelerare gli investimenti nell’IA che possono favorire la ripresa, eliminare la frammentazione e affrontare le sfide globali.

Il piano coordinato sull’intelligenza artificiale

Il piano coordinato aggiornato utilizzerà i finanziamenti assegnati attraverso i programmi Europa digitale e Horizon Europe, nonché il dispositivo per la ripresa e la resilienza, che prevede un obiettivo di spesa per il digitale del 20%, e i programmi della politica di coesione al fine di:

  • creare le condizioni favorevoli allo sviluppo e all’adozione dell’IA attraverso lo scambio di informazioni strategiche, la condivisione dei dati e gli investimenti nelle capacità di calcolo critiche;
  • promuovere l’eccellenza in materia di IA “dal laboratorio al mercato” istituendo un partenariato pubblico-privato, costruendo e mobilitando capacità di ricerca, sviluppo e innovazione e mettendo a disposizione delle PMI e delle pubbliche amministrazioni strutture di prova e sperimentazione nonché poli dell’innovazione digitale;
  • garantire che l’IA sia al servizio delle persone e sia una forza positiva nella società, operando in prima linea nello sviluppo e nella diffusione di un’IA affidabile, coltivando talenti e competenze mediante tirocini, reti di dottorato e borse post-dottorato in ambito digitale, integrando la fiducia nelle politiche in materia di IA e promuovendo la visione europea di un’IA sostenibile e affidabile a livello globale;
  • creare la leadership strategica in settori e tecnologie ad alto impatto, compreso l’ambiente, concentrandosi sul contributo dell’IA alla produzione sostenibile, alla salute, ampliando lo scambio transfrontaliero di informazioni, nonché al settore pubblico, alla mobilità, agli affari interni e all’agricoltura e alla robotica.

Il Parlamento europeo e gli Stati membri dovranno adottare le proposte della Commissione con procedura legislativa ordinaria, una volta adottati i regolamenti saranno applicati in tutta l’Unione Europea.

Consulta il documento completo

Maggiori informazioni:

Le raccomandazioni del Parlamento europeo sull’intelligenza artificiale

Rendere l’Intelligenza Artificiale etica, sicura e innovativa

Il quadro di certificazione della cybersecurity europea

Leggi anche:

Intelligenza artificiale e innovazioni del prossimo futuro

La ricerca industriale italiana e l’intelligenza artificiale

 

redazione
Author: redazione

Fatal error: Uncaught Error: Call to undefined function WP_Optimize() in /web/htdocs/www.airi.it/home/airi2020/wp-content/plugins/wp-optimize-premium.3.1.4-mcytqy/cache/file-based-page-cache-functions.php:164 Stack trace: #0 [internal function]: wpo_cache('...', 9) #1 /web/htdocs/www.airi.it/home/airi2020/wp-includes/functions.php(4757): ob_end_flush() #2 /web/htdocs/www.airi.it/home/airi2020/wp-includes/class-wp-hook.php(292): wp_ob_end_flush_all('') #3 /web/htdocs/www.airi.it/home/airi2020/wp-includes/class-wp-hook.php(316): WP_Hook->apply_filters('', Array) #4 /web/htdocs/www.airi.it/home/airi2020/wp-includes/plugin.php(484): WP_Hook->do_action(Array) #5 /web/htdocs/www.airi.it/home/airi2020/wp-includes/load.php(1072): do_action('shutdown') #6 [internal function]: shutdown_action_hook() #7 {main} thrown in /web/htdocs/www.airi.it/home/airi2020/wp-content/plugins/wp-optimize-premium.3.1.4-mcytqy/cache/file-based-page-cache-functions.php on line 164