“Sull’intelligenza artificiale, la fiducia è un diritto, non un bene da richiedere” ha così recentemente dichiarato Margrethe Vestager, la vice presidente esecutiva della Commissione Europea nonché supervisore della politica digitale. L’annuncio, dello scorso Mercoledì 21 Aprile1,2, riguarda infatti la proposta ufficiale di nuove regolamentazioni per l’impiego dell’Intelligenza Artificiale (AI) in ambito governativo, giudiziario ed industriale al fine di garantirne responsabilità d’uso per la tutela dei singoli cittadini. Annuncio che si somma ad un serie di iniziative pregresse che testimoniano lo sforzo dell’Unione Europea, unico al mondo, nel definire un quadro normativo – legale ed etico – a riguardo dell’impiego dei dati. Strategia che già annovera l’ormai famoso General Data Protection Regulation3(GDPR) del 2016 ed le linee guida per l’utilizzo etico dell’AI4 del 2019, nonché i programmi di ricerca ed innovazione Horizon20205,6,7 .
Il rapporto tra dati e privacy è difatti argomento oggigiorno quanto mai pervasivo. Punto di partenza è il continuo incremento tecnologico dell’Industria 4.0. e l’accentramento di capitale informatico ed economico sotto forma di data (“Datafication”) da parte delle compagnie Big Tech7,8. Rapporto testimoniato soprattutto dai rischi connessi all’acquisizione, impiego, e vendita dei dati al di fuori dell’approvazione ed accessibilità pubblica. Rischi insorti come discriminazioni socio-economiche basate su profilazioni predittive da modelli AI: dalla vendita non autorizzata di dati social privati9; alla policy criminale10,11,12; fino all’erogazione di servizi finanziari13 ed ai processi di assunzione automatizzata14,15. Questo accentramento opaco di potenziale AI trova forse il suo apice nel ben più controverso e capillare programma dei crediti sociali del governo della Repubblica Popolare Cinese16,17.
Accentramento che riflette un appetito per grosse quantità di dati (“Big Data”) e, diametralmente, la difficoltà a garantirne la qualità: sia nell’annotazione delle informazioni, sia nella convalida dell’imparzialità di fonti e campioni rappresentativi. Gli algoritmi AI, tanto quanto i dati da cui apprendono, possono presentare difficoltà analoghe. Ciò si declina, inconsapevolmente, nel tuning sbagliato di iperparametri e nell’amplificazione di features dati dannose all’interno di modelli difficilmente investigabili, tra cui i Deep Neural Networks (definiti appunto “Black-boxes”).
Al fine dunque di aumentarne la trasparenza, la ricerca nell’ambito dell’esplicabilità (“Explainable AI” o XAI) segnala ora una trend esponenziale in research papers e frameworks18,19,20,21. I modelli proposti si incentrano su dati tabulari, testuali, immagini o ibridi. Qualora il design del modello sia interpretabile, le metodologie si basano sulla esplicazione di formule statistiche. Altrimenti, le metodologie che analizzano predizioni di funzioni intrinsecamente incomprensibili sono dette “Post-hoc explanations“. Queste ultime si suddividono a loro volta in model “specific” o “agnostic” se imitabili con surrogati. Inoltre, una certa granularità è introdotta su scala globale o locale, qualora sia richiesta la classificazione di alcune features. Generalizzando, i modelli XAI sono integrazioni supplementari dei modelli AI che mirano a rintracciare e quantificare il contributo di parametri e valori. Attraverso tecniche di imitazione, perturbazione e/o classificazione, fornisco spiegazioni semplici e/o causali con output grafici e/o testuali.
Le tecniche XAI favoriscono dunque la interpretabilità dei modelli AI nelle loro applicazioni pratiche, portandone l’utente al centro del design (“Human-centred AI”): il programmatore potrà avere accesso a maggiori informazioni per il troubleshoot ed il mantenimento dei codici; il manager responsabile dello sviluppo di una data pipeline potrà quantificare l’impatto di determinate variabili; il legislatore potrà stabilire l’integrità di dati ed algoritmi. Il semplice cittadino usufruirà del diritto (GDPR) ad una spiegazione per l’esito di una sua richiesta elaborata automaticamente da parte di un software. L’esplicabilità si prefigge dunque di ridurre potenziali implicazioni dannose provocate dall’opacità di dati e modelli AI, dando priorità ai principi di equità, responsabilità e trasparenza. Tuttavia la XAI non riguarda ciò che sta intorno ai dati ed al modello, ovverosia l’ecosistema che ne definisce proprietà ed impieghi.
Non a caso, per garantire questa democratizzazione dei dati, un crescente interesse è oggi simboleggiato dalle soluzioni di “Decentralized AI”22,23,24: databases e infrastrutture AI redistribuite, scalabili e facilmente accessibili, che garantiscano rintracciabilità e solidità di dati ed algoritmi a dispetto di potenziali manomissioni (“Data forgery”) da parte dei cosiddetti attacchi adversarial. Tra queste soluzioni, le architetture Blockchain risultano ideali, per l’alta integrità e resilienza con cui i dati sono immagazzinati. Il consolidamento di AI e Blockchain può creare un sistema sicuro, immutabile e decentralizzato per le informazioni altamente sensibili che i sistemi guidati dall’AI devono raccogliere, conservare e utilizzare. Alcuni esempi di queste soluzioni sono forniti dai nuovi marketplace dati decentralizzati: questi rispondono ad un impiego trasparente dei big data e modelli AI, tra cui SingularityNet25, IOTA26, ed OceanMature27.
Su questi mercati i creatori di data assets possono essere ripagati dei loro contributi senza dover ripiegare sulla proprietà singola di enti terzi privati. La filiera dei data diviene tracciabile, offrendo prodotti data sia grezzi che ripuliti: ciò si traduce in un abbattimento dei costi relativi alla loro preparazione (“Data cleaning”), ma anche una maggiore disponibilità di informazioni latenti che sarebbero risultate altrimenti irreperibili in un set di individui e/o imprese se analizzati singolarmente (“Decentralized federated learning”). In particolar modo, lo sviluppo di soluzioni di cybersecurity complete risiede nella natura redistributiva e scalabile del potere computazionale attraverso protocolli condivisi da ogni prodotto AI nella rete (letteralmente tradotto con “Blockchain-based cloud computing”).
Per riassumere i benefici della Blockchain per l’AI in un sistema decentralizzato, questo connubio apporterebbe: una maggiore sicurezza nella condivisione e tracciabilità dei dati; maggiore confidenza e trasparenza per le operazioni ed applicazioni AI; maggiore efficienza computazionale e processi decisionali collettivi attraverso infrastrutture decentralizzate e protocolli di consenso. Benefici che però potrebbero essere reciproci, attraverso l’impiego di tecnologie AI volte all’ottimizzazione ed automazione dei sistemi Blockchain per la loro sicurezza e performance28,29. Modelli di raccomandazione AI potrebbero operare sul singolo nodo locale per fornire personalizzazioni dell’user experience preservandone privacy e diritto all’oblio. In modo simile, sul versante sicurezza, modelli AI di swarm intelligence potrebbero ottimizzare IDS (“Intrusion detection system”) e IPS (“Intrusion Prevention System”), mentre modelli per il soft computing andrebbero ad ottimizzare le funzioni crittografiche di hash. Per quanto riguarda il versante delle performance invece, l’applicazione di AI con algoritmi di federated learning potrebbe ridurre problemi di scalabilità nei costi di conferma delle transazioni, distribuendo il mining data su più blocchi. Infine, la pianificazione energetica dei sistemi Blockchain supportati dall’AI potrebbe essere ottimizzata nel come allocare e massimizzare risorse.
Nel prossimo futuro architetture decentralizzate sempre più complesse potranno sfruttare questi vantaggi, aprendo prospettive inedite per la loro sicurezza e performance. Già oggi alcuni studi30,31 propongono framework concettuali per applicazioni decentralizzate (“DApps”) dove la tracciabilità dei dati è favorita da soluzioni XAI ed il protocollo IPFS (“InterPlanetary File System” ). Nel back-end, dal layer di accesso APIs (Web3, Rest HTTP, JSON RPC, JMS, SOAP) servizi oracles integrati fornirebbero metadata dai nodi dei predictors AI e metadata delle spiegazioni di quelli XAI. L’esito è registrato come hash su IPFS: da quel layer servizi di supporto identificano operazioni ed accuracy dei predictors in linea con gli altri nodi attraverso smart contracts, riportandone l’esito sul frontend DApps. Alcune applicazioni reali proposte sono la diagnosi delle immagini mediche, la profilazione finanziaria dei clienti bancari, la prevenzione dell’evasione fiscale e frode elettorale. Questi, solo alcuni degli scenari dove oggi più che mai è necessario avere frameworks decisionali AI finalmente interpretabili e imparziali. Presentando informazioni in modo decentralizzato, a prova di manomissione, in un sistema incontestabile con tracciabilità e registri immutabili accessibili a tutte le parti interessate.