L’Unione Europea tramite una nuova proposta di regolamento (il primo nel suo genere) da parte della commissione europea, ha proposto uno standard per le applicazioni delle tecnologie connesse all’intelligenza artificiale. Si tratta di una vera e propria bozza per una legge che vuole limitare le possibilità di sviluppo e uso di tecnologie ad alto rischio che sfruttano l’AI (intelligenza artificiale) come, ad esempio, il riconoscimento biometrico, o che introducono sistemi di valutazione a punteggio del comportamento dei cittadini.
La strada da seguire, nei piani dei legislatori europei, è fornire un framework di lavoro, che sia riconosciuto anche da un punto di vista internazionale e quindi sia di ispirazione, come nel caso del regolamento GDPR (general data protection regulation).
La proposta denota una chiara volontà da parte delle istituzioni europee: sarà ora importante seguire e capire nel dettaglio quali condizioni di controllo e validazione ci saranno per le intelligenze artificiali etichettate come ad “alto rischio”.
Ad essere bandito, stando alla proposta di legge, è solo un uso dell’AI catalogata sotto l’etichetta di “unacceptable use”. La scala di valutazione proposta dalla commissione europea è la seguente:
- Rischio inaccettabile – tecnologie che violano i diritti e che portano a comportamenti pericolosi e violenti e sistemi di valutazione
- Alto rischio – tecnologie usate in infrastrutture, nel settore della sicurezza, nella giustizia. Prima di entrare nel mercato saranno sottoposte a numerose certificazioni
- Rischio limitato – intelligenze artificiali usate in contesti in cui l’utente va informato sul fatto che sta interagendo con un’AI (esempio delle chatbots).
- Minimo rischio – applicazioni che non presentando vulnerabilità per i cittadini.
I dettagli e il significato di queste distinzioni, da un punto di vista pratico, dipenderanno dalle aggiunte che saranno fatte nel corso dell’iter legislativo. Un’analisi di Politico ha precisato che effettivamente, per quanto riguarda l’applicazione e il significato pratico delle limitazioni a sistemi ad alto rischio, il “diavolo sarà nei dettagli” e tutto dipenderà da come sarà specificata l’etichetta del rischio.
Sul piano strategico internazionale, la proposta si ritrova inserita in un contesto in cui i due attori principali, Cina e Usa, stanno ampliando i loro piani sull’AI da ormai qualche anno. Negli USA, solo per quanto riguarda la redazione di agende e strategie nazionali, il database OCSE conta 11 strategie presentate da vari enti come il dipartimento di difesa (DOD). Il 17 novembre scorso lo U.S. Office of Management and Budget (OMB) aveva pubblicato un memorandum volto a rafforzare l’idea di una leadership statunitense sul campo dell’AI: anche in questo caso, come fa presente un’analisi del Brooking Institute del documento, l’approccio è basato sul rischio. In Cina, allo stesso tempo, lo sviluppo dell’AI occupa stabilmente sezioni del piano quinquennale approvato dalle due sessioni (lianghui).
Il legame USA – UE nello sviluppo di standard sull’AI può creare un vero fronte comune di cooperazione sul tema. L’approccio della proposta di legge sembra però staccarsi da alcune idee e applicazioni dell’AI che da anni sono controverse e in uso negli Stati Uniti, come si evince da alcuni esempi riportati in un articolo uscito su New Scientist. La condivisione di idee e principi di base sarà comunque importante, da un punto di vista strategico, per contrastare idee e tendenze al social credit score, che viene già comunemente applicato dalle piattaforme in Cina.
La proposta di legge UE è un passo rilevante, ma non decisivo nella discussione e finalizzazione di una effettiva policy, che toccherà le nazioni membro. In una pubblicazione del 2018 redatta per la commissione europea si parla chiaramente di un’AI che non ha ancora un futuro scritto, e proprio per questo le istituzioni europee devono cogliere l’opportunità di regolarlo e dargli forma. A distanza di tre anni il futuro è meno nebuloso ma comunque molto va ancora chiarito.
Le leggi, i regolamenti e i documenti programmatici non sono tutto, ma solo una parte effettiva del quadro regolatorio di una tecnologia come l’IA, come ci ha raccontato brevemente il Decano della Facoltà di Scienze della Comunicazione Sociale, Fabio Pasqualetti: «Il documento sembra davvero buono, ma corre già il rischio di essere annacquato, per cui non solo serve l’approvazione, ma poi servirà anche chi lo fa osservare. Il problema dei documenti, come quello delle leggi, è di farle rispettare e non è così facile, specialmente quando ci sono tecnologie sofisticate come IA».
Nella messa a punto delle leggi, come nella effettiva ingegnerizzazione delle tecnologie legate all’intelligenza artificiale: «Non si può sempre scaricare l’uso etico sul destinatario finale», ha spiegato il professor. Pasqualetti. «L’utente dovrebbe essere messo nella progettazione».
Un esempio interessante di proposta attenta all’esigenze dell’utente arriva, ad esempio, dalla dichiarazione di Montreal, che sembra essere indirizzata verso l’orizzonte culturale di un’AI “human-centric”.
L’iter legislativo, per concludere, sarà un punto di partenza da osservare per il futuro dell’AI non solo in Europa, con l’obiettivo di essere un gold standard, al centro di una sfida strategica e geopolitica, che sicuramente meriterà di essere seguita.