I campi nei quali è possibile utilizzare l’intelligenza artificiale – già attiva in settori delicati e rischiosi per i cittadini – sono potenzialmente infiniti: lo abbiamo preannunciato e torneremo a parlarne.
Il Parlamento Europeo ha finalmente approvato, lo scorso 13 marzo, il regolamento sull’intelligenza artificiale, l’AI Act, per la tutela dei diritti fondamentali rispetto all’invasività delle nuove tecnologie. Entro sei mesi la normativa diventerà efficace, all’interno e all’esterno dell’UE, per tutti i soggetti, pubblici e privati, che producono strumenti a intelligenza artificiale destinati al mercato europeo o il cui uso riguardi cittadini dell’Unione.
Le norme sull’intelligenza artificiale
Fra un anno saranno applicate le norme sui modelli fondativi, ovvero le intelligenze artificiali generative, che dovranno rispettare alti standard di trasparenza, sicurezza informatica e condivisione della documentazione tecnica. Tra due anni, il regolamento entrerà in vigore per intero, facendo scattare le sanzioni per i trasgressori.
Mentre l’Europa discuteva l’AI ACT, aveva demandato ai singoli Stati la gestione della materia finanziaria: il testo ora approvato, che ad essa fa riferimento nell’articolo 63, Market surveillance and control of AI systems in the Union market, conferma che per i sistemi di IA ad alto rischio utilizzati da istituti finanziari regolamentati dalla legislazione dell’Unione, la vigilanza del mercato spetta all’autorità nazionale competente. In l’Italia è la Consob, che già lo scorso anno aveva messo in guardia dalle potenzialità tecnologiche di manipolazione del mercato.
Tra le eterogenee applicazioni di IA, ad esempio, sono già operative riguardo ai cittadini quelle che valutano l’affidabilità dei soggetti richiedenti un mutuo, oppure determinano i fattori di rischio, e quindi il costo, delle polizze di assicurazione sulla vita. È fondamentale istituire gli strumenti idonei al controllo di sistemi che, pur non essendo vietati, sono “ad alto rischio”.
L’impatto sui mercati
Tuttavia, l’intelligenza artificiale ha innegabili applicazioni in positivo anche nei mercati, come teorizza un recentissimo studio degli economisti Jon Danielsson e Andreas Uthemann How the financial authorities can take advantage of artificial intelligence. Il settore privato si sta evolvendo rapidamente. Le aziende più ricche dispongono di grandi team e l’IA le coadiuva nel fare investimenti e nelle attività di gestione del rischio, rilevamento delle frodi, antiriciclaggio, consentendo risparmi sui costi e miglioramenti dell’efficienza.
In questo sistema finanziario altamente competitivo, le sue applicazioni crescono rapidamente, e le autorità finanziarie si devono adeguare. La sfida in corso per il settore pubblico richiede cambiamenti culturali, aggiornamento del personale, supervisione strategica. Ormai l’IA svolge compiti solitamente attribuiti all’uomo e mostra particolari punti di forza grazie all’accesso ai dati rilevanti, ricavati dal sistema finanziario, che genera una enorme quantità di dati al giorno, ma questo non basta.
Una intelligenza artificiale al servizio delle autorità che vigilano sui sistemi finanziari, che possiedono molte informazioni pubbliche e private per implementarla, dovrebbe attingere conoscenze anche da altri ambiti, come la storia, l’etica, la legge, la politica. Per creare connessioni tra i diversi ambiti deve essere “addestrata”, e, anche se si riuscisse a farlo, le sue estrapolazioni dalla massa di conoscenza esistente potrebbero risultare sbagliate. Ciò significa che la qualità dei suoi consigli dovrebbe essere verificata dall’uomo.
Indicazioni e decisioni
L’IA dovrebbe essere utilizzata per ricavarne indicazioni, non per decisioni importanti; per evitare risultati indesiderati bisogna mantenere la “presenza umana” nel circuito. Il paradosso è che il sistema potrebbe perfino agire in modo da eliminare il rischio che gli operatori facciano scelte sbagliate, diventando di fatto un decisore ombra.
Anche se nessuna autorità dovrebbe voler arrivare a questo punto, l’IA potrebbe finire per svolgere funzioni chiave. Il suo successo crea fiducia, e man mano che la fiducia si consolida, il rischio critico è diventarne così dipendenti che le autorità non possono esercitare il controllo senza di essa. Disattivare l’IA potrebbe diventare impossibile o molto pericoloso, soprattutto perché l’IA potrebbe ottimizzarsi fino a diventare insostituibile.
Non è fantascienza…
Non è fantascienza, non più. Questo è il mondo in cui viviamo, nel quale rischiamo di dipendere da un sistema per decisioni critiche, anche se non le comprendiamo o, peggio ancora, se non le condividiamo.
È possibile assegnare all’IA obiettivi chiari e monitorare le sue azioni alla luce di tali obiettivi? Le IA private possono ostacolare le autorità pubbliche nel monitoraggio dei comportamenti scorretti e dei casi di abuso? Di chi è la responsabilità dei danni? Le conseguenze degli errori sono piccole, grandi, o catastrofiche? Gli interrogativi sono pressanti; per concludere, l’IA sarà di notevole aiuto alle autorità finanziarie, ma, secondo un circolo vizioso, esiste il rischio che queste perdano il controllo a causa dell’IA.
Una politica finanziaria corretta ed efficace richiede un adeguamento delle modalità operative: nuove regolamentazioni, con metodologie, capitale umano e tecnologie altrettanto nuove. Le autorità che vigilano sui sistemi finanziari devono essere all’altezza della loro missione, consapevoli dei vantaggi come delle minacce dell’IA e incorporare questa consapevolezza nell’esecuzione operativa dei servizi che forniscono alla società. Infine, il “fattore umano” ha ancora un suo peso. Non dimentichiamolo.