La Settimana Internazionale

Saranno targati Ue i primi paletti all’Intelligenza Artificiale

Scritto il

di Lorenzo Consoli

L’Unione europea si avvia a essere la prima economia nel mondo a dotarsi di un rigoroso regolamento per disciplinare e limitare il campo d’azione dell’intelligenza artificiale (AI), in un momento in cui il suo sviluppo tecnologico sorprendentemente rapido sta sollevando aspettative e non pochi timori, soprattutto nel campo della cosiddetta AI generativa e dei “large language models” (Llms), del tipo dell’ormai celeberrimo sistema ChatGPT. Gli Usa e il Regno Unito preferiscono per ora lasciare libera l’innovazione di svilupparsi senza nuove regole, mentre solo la Cina si è già incamminata su una strada simile a quella dell’Ue, ma con propositi più di controllo statale che di tutela dei diritti e delle libertà individuali.

Dopo che la Commissione europea aveva presentato la sua proposta  di regolamento (“AI Act”) il 21 aprile 2021, i deputati delle due commissioni competenti del Parlamento europeo, quella per il Mercato interno (Imco) e quella per le libertà civili (Libe), hanno approvato l’11 maggio scorso (84 voti a favore, 7 contrari e 12 astensioni) un progetto di mandato negoziale per le trattative con il Consiglio Ue che introduce molti emendamenti e nuovi paletti nella proposta. Appare scontata l’approvazione da parte della plenaria dell’Assemblea di Strasburgo, prevista a metà giugno, e la nuova presidenza di turno del Consiglio Ue, che da luglio tocca alla Spagna, proverà ad arrivare all’adozione entro fine anno.

La proposta di regolamento mira a garantire che i sistemi di AI utilizzati nell’Ue siano sicuri, trasparenti, etici, imparziali e sotto il controllo umano. L’approccio adottato dalla Commissione consiste in un loro diverso trattamento in base a una classificazione del rischio che presentano, secondo quattro livelli: rischio inaccettabile, alto, limitato o minimo.

A “rischio inaccettabile”, e di conseguenza vietati nell’Ue, saranno considerati i sistemi di AI che costituiscono una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone, quali le applicazioni che manipolano il comportamento umano (ad esempio, giocattoli che usano l’assistenza vocale per incoraggiare i comportamenti pericolosi dei minori) e i sistemi che consentono alle autorità dello Stato di attribuire un punteggio sociale (“social scoring”) ai cittadini.

Ad “alto rischio” saranno considerati i sistemi di AI che riguardano:

  1. le infrastrutture critiche, come i trasporti;
  2. l’accesso all’istruzione o alla formazione professionale, (come le applicazioni usate per attribuire il punteggio agli esami);
  3. le componenti di sicurezza dei prodotti, tipo le applicazioni nella robotica chirurgica;
  4. l’occupazione, la gestione dei lavoratori e l’accesso al lavoro autonomo (ad esempio i software di selezione dei curricula per le assunzioni);
  5. le applicazioni nei servizi pubblici e privati essenziali (come i sistemi di “scoring” del credito che possono negare a un cittadino la possibilità di un prestito in banca);
  6. l’amministrazione della giustizia e le attività delle forze dell’ordine che possono interferire con i diritti fondamentali delle persone (per esempio nella valutazione dell’affidabilità delle prove);
  7. la gestione dell’immigrazione, dell’asilo e del controllo delle frontiere (ad esempio per la verifica dell’autenticità dei documenti di viaggio).

In particolare, la proposta della Commissione considera ad alto rischio tutti i sistemi di identificazione biometrica remota. Il loro utilizzo in tempo reale negli spazi pubblici è vietato in linea di principio, con poche eccezioni, regolamentate e soggette all’autorizzazione di un organo giudiziario (come le intercettazioni telefoniche): ad esempio, se è necessario per cercare un minore scomparso, prevenire una minaccia terroristica specifica e imminente o identificare, localizzare e perseguire individui sospettati di aver commesso un reato grave.

I sistemi di AI ad alto rischio saranno soggetti a obblighi rigorosi prima che possano essere immessi sul mercato:

  • adeguati sistemi di valutazione e attenuazione dei rischi;
  • elevata qualità dei set di dati che alimentano il sistema, per ridurre al minimo i rischi e i risultati discriminatori; registrazione delle attività per garantire la tracciabilità dei risultati;
  • documentazione dettagliata che fornisca alle autorità di controllo per la valutazione di conformità tutte le informazioni necessarie sul sistema e sulle sue finalità; informazioni chiare e adeguate per l’utente; appropriate misure di sorveglianza umana, per minimizzare rischi.

Sono classificati come “a rischio limitato”, in generale, i “chatbot”, le applicazioni dell’AI che simulano la conversazione umana, scritta o parlata, nell’interazione con l’utente. In questi casi sono previsti specifici obblighi di trasparenza (gli utenti devono essere avvertiti per decidere se continuare a interloquire con un software e non con una persona).

A “rischio minimo”, infine, sono le applicazioni basate sull’AI come i videogiochi o i filtri anti-spam. Gran parte dei sistemi di AI rientra in questa categoria, che non viene regolamentata dalla proposta legislativa.

La proposta prevede che siano le autorità nazionali di vigilanza del mercato competenti a supervisionare le nuove regole, ma verrà anche istituito un nuovo organismo, il Comitato europeo per l’intelligenza artificiale, che ne faciliterà l’attuazione e stimolerà lo sviluppo di nuove norme.

Nei loro emendamenti alla proposta della Commissione, gli eurodeputati mirano a garantire che i sistemi di AI siano supervisionati dalle persone, sicuri, trasparenti, tracciabili, non discriminatori. Chiedono il divieto dei sistemi di categorizzazione biometrici che utilizzano caratteristiche sensibili (genere, razza, etnia, stato di cittadinanza, religione, orientamento politico), dei sistemi di polizia “predittivi” (basati su profilazione o il comportamento criminale passato), e delle applicazioni per il riconoscimento delle emozioni da parte delle forze dell’ordine, nella gestione delle frontiere, sul posto di lavoro e nelle istituzioni educative.

Le due commissioni europarlamentari hanno ampliato la casistica dei sistemi di AI considerati ad alto rischio, in particolare le applicazioni dei sistemi di AI per influenzare gli elettori nelle campagne politiche, e  i “recommender system”, ovvero gli algoritmi usati dalle grandi piattaforme dei social media per individuare le preferenze degli utenti e generare raccomandazioni (come gli inviti a seguire un altro account).

Ma l’innovazione maggiore è quella del nuovo capitolo “su misura” per i “generative foundation models”, i sistemi “generativi” come ChatGPT, che consentono l’elaborazione e la capacità di sintesi di enormi quantità di dati, con risultati finali eccellenti anche a livello linguistico.

Gli eurodeputati hanno incluso nuovi obblighi per i fornitori di questi modelli di AI, e ne chiedono ulteriori di trasparenza per questi casi specifici: rivelare che il contenuto è generato dall’AI; progettare i modelli in modo che impediscano la generazione di contenuto illegale; pubblicare riepiloghi dei dati protetti da copyright utilizzati per il “training” dei sistemi di AI generativi.