top of page
Immagine del redattoreAndrea Viliotti

Competenze e governance AI per la trasformazione del settore pubblico

In un'era in cui l'Intelligenza Artificiale (AI) diventa sempre più prevalente, il suo potenziale per trasformare il settore pubblico è indiscutibile. Tuttavia, la diffusione dell'AI nel settore pubblico dipende in larga misura dalla presenza di competenze adeguate e dall'adozione di pratiche di governance efficaci. Questo articolo si basa su una sintesi di ricerche empiriche, letteratura grigia e politica, un workshop di esperti e interviste a rappresentanti di sette organizzazioni pubbliche europee (Ministero dell'Interno della Cechia, Comune di Gladsaxe in Danimarca, Distretto di Lüneburg in Germania, Ministero della Governance Digitale della Grecia, Istituto Nazionale di Previdenza Sociale in Italia, Comune di Amsterdam nei Paesi Bassi e Comune di Trondheim in Norvegia), al fine di identificare le competenze e le pratiche di governance necessarie per generare valore nel settore pubblico grazie all'AI. Gli autori principali della ricerca sono R. Medaglia, P. Mikalef e L. Tangi, appartenenti rispettivamente alla Copenhagen Business School, alla Norwegian University of Science and Technology e al Centro Comune di Ricerca della Commissione Europea.

Competenze e governance AI per la trasformazione del settore pubblico
Competenze e governance AI per la trasformazione del settore pubblico

Il contesto normativo europeo

L'impegno dell'Unione Europea verso l'AI ha avuto inizio con la Dichiarazione di Cooperazione del 2018 e ha trovato un ulteriore avanzamento nella revisione del Piano Coordinato sull'AI del 2021, che ha evidenziato il ruolo strategico dell'AI nel settore pubblico. Oggi esistono numerose iniziative e misure legislative per facilitare l'integrazione dell'AI nell'amministrazione pubblica. Tra queste spiccano l'AI Act e l'Interoperable Europe Act, entrambi adottati nel 2024. L'AI Act stabilisce un approccio basato sui rischi per la regolamentazione dell'AI, vietando i sistemi che pongono rischi inaccettabili e definendo applicazioni ad alto rischio soggette a controlli rigorosi. Questo atto promuove inoltre l'innovazione attraverso aree di sperimentazione regolatoria e ha portato alla formazione del Comitato Europeo per l'Intelligenza Artificiale e di un database dell'UE per i sistemi di AI ad alto rischio.


L'Interoperable Europe Act, proposto nel novembre 2022 e adottato nell'aprile 2024, mira a migliorare l'interoperabilità transfrontaliera dei sistemi IT impiegati nei servizi pubblici. Introduce l'Interoperable European Board, responsabile della definizione di un'agenda strategica condivisa per l'interoperabilità transfrontaliera, e richiede valutazioni di interoperabilità per i sistemi IT che operano oltre confine. Inoltre, ha annunciato il lancio dell'Interoperable Europe Portal, una piattaforma collaborativa per la condivisione e il riutilizzo di soluzioni IT. Questo atto incoraggia anche l'innovazione tramite aree di sperimentazione regolatoria e partenariati GovTech.


Altre leggi rilevanti includono il Digital Services Act (DSA), che mira a stabilire regole chiare per i fornitori di servizi digitali garantendo sicurezza agli utenti e maggiore trasparenza, il Digital Markets Act (DMA), progettato per assicurare condizioni eque nel mercato digitale, e il Data Governance Act (DGA), che intende aumentare la fiducia nella condivisione dei dati e superare gli ostacoli tecnici al loro riutilizzo. La normativa include anche il Data Act e il Cybersecurity Act, tutti volti a creare un ecosistema digitale sicuro e interoperabile.


Un'iniziativa chiave in questo ambito è il Public Sector Tech Watch (PSTW), un osservatorio istituito nel 2023 e gestito dalla Direzione Generale per i Servizi Digitali della Commissione Europea e dal Centro Comune di Ricerca (JRC). PSTW funge da piattaforma per lo scambio di conoscenze, esperienze e risorse educative tra dipendenti pubblici, imprese private, enti accademici e strategisti politici, facilitando la trasformazione digitale e la compatibilità dei sistemi pubblici europei. PSTW include un database di oltre 1.000 casi di utilizzo dell'AI e altre tecnologie emergenti nel settore pubblico e promuove un ambiente collaborativo per lo scambio di pratiche ed esperienze, anche attraverso iniziative come competizioni per il miglior caso d'uso. Inoltre, il Technical Support Instrument (TSI) e iniziative come "AI-ready public administration" forniscono supporto tecnico su misura agli Stati membri per prepararsi all'adozione dell'AI, inclusi partenariati GovTech e contratti modello per il procurement di soluzioni AI affidabili e sicure.


Governance AI per la trasformazione del settore pubblico: metodologia della ricerca

Il rapporto si basa su una metodologia in tre fasi, mirata a sviluppare una visione completa e aggiornata delle competenze e delle pratiche di governance necessarie per l'uso dell'AI nelle organizzazioni pubbliche. La prima fase ha coinvolto una revisione sistematica della letteratura accademica e della documentazione politica e grigia.

La seconda fase ha riguardato un workshop online con 40 esperti di settore, tenutosi il 25 ottobre 2023, finalizzato a consolidare e approfondire i risultati ottenuti nella fase di revisione della letteratura. Gli esperti provenivano da diverse organizzazioni pubbliche e il workshop è stato strutturato in sessioni di lavoro suddivise in gruppi di discussione per esplorare a fondo sia le competenze che le pratiche di governance dell'AI. I risultati del workshop sono stati utilizzati per verificare i risultati della revisione della letteratura e sono stati sintetizzati in un report.


Infine, nella terza fase sono state condotte interviste semi-strutturate con responsabili di sette organizzazioni pubbliche europee in vari paesi (Cechia, Danimarca, Germania, Grecia, Italia, Paesi Bassi e Norvegia), con l'obiettivo di arricchire e validare i risultati. Sono state realizzate un totale di 19 interviste tra maggio e novembre 2023. Le interviste si sono concentrate sull'esperienza individuale con l'AI, la percezione della rilevanza dell'AI nel contesto di lavoro specifico e le difficoltà percepite nell'ottenimento delle competenze legate all'AI nel settore pubblico. Le trascrizioni delle interviste sono state elaborate con il supporto di software di trascrizione automatica e poi manualmente riviste per garantirne l'accuratezza.


Quadro delle competenze per l'AI nel settore pubblico

Il rapporto presenta un quadro completo delle competenze necessarie per l'adozione e l'uso dell'AI nel settore pubblico, distinguendo tra competenze tecniche, gestionali, politiche, legali ed etiche. Queste competenze sono ulteriormente classificate in tre cluster: competenze attitudinali (conoscenza del "perché"), operative (conoscenza del "come") e di alfabetizzazione (conoscenza del "cosa").


Le competenze tecniche comprendono conoscenze approfondite in ambito tecnologico, abilità nella gestione di banche dati, capacità di valutare la qualità dei dati e selezionare le architetture di intelligenza artificiale più adeguate. Sul piano operativo, risultano fondamentali la gestione dei dati, la programmazione software mirata all'intelligenza artificiale e l'adesione agli standard tecnici previsti in questo settore. Per quanto riguarda l'aspetto attitudinale, la curiosità verso le innovazioni tecnologiche e l'impegno nel continuo apprendimento rappresentano qualità indispensabili per affrontare con successo le sfide legate all'intelligenza artificiale.


Le competenze gestionali comprendono la leadership, la gestione del cambiamento e la capacità di mediare tra diversi gruppi di interesse. In particolare, la leadership viene vista come la capacità di guidare iniziative di AI e di integrare la tecnologia in maniera etica ed efficace, mentre la gestione del cambiamento riguarda la capacità di adattare i processi organizzativi all'adozione dell'AI.


Le competenze politiche, legali ed etiche includono la consapevolezza delle implicazioni etiche e la capacità di lavorare con esperti del settore per garantire che l'adozione dell'AI avvenga in modo responsabile. È essenziale che i funzionari pubblici abbiano la capacità di formulare domande di policy compatibili con le tecniche di AI e di collaborare con esperti del dominio per tradurre concetti complessi in soluzioni pratiche. La capacità di auditing e di garantire la conformità agli standard di progettazione e responsabilità è anch'essa fondamentale.


Le competenze di alfabetizzazione comprendono la comprensione dei fondamenti dell'apprendimento automatico, la visione artificiale e il natural language processing (NLP), nonché una conoscenza approfondita dei quadri legali e delle politiche pubbliche. Inoltre, la capacità di gestire il procurement di soluzioni AI in maniera compatibile con i valori dell'interesse pubblico è vista come una competenza cruciale per garantire che l'AI venga utilizzata in modo equo e trasparente nel settore pubblico.


Pratiche di governance per l'AI

Il rapporto distingue le pratiche di governance in tre dimensioni principali: pratiche procedurali, strutturali e relazionali. Ogni dimensione è articolata su tre livelli: strategico, tattico e operativo. L'obiettivo delle pratiche di governance è di garantire che vi sia una coerenza tra gli obiettivi dell'organizzazione e la tecnologia utilizzata per raggiungerli. Questo significa implementare norme e regolamenti che guidino l'uso responsabile dell'AI e che favoriscano una cultura dell'innovazione aperta e collaborativa.


Le pratiche procedurali si riferiscono ai processi e alle norme che devono essere messi in atto per gestire l'AI in modo responsabile. Queste includono l'adozione di linee guida per lo sviluppo etico dell'AI, la definizione di standard per la gestione dei dati e la creazione di criteri per l'auditing dei sistemi di AI. Un esempio significativo è l'utilizzo di framework di conformità che includono valutazioni di impatto etico e legale durante tutto il ciclo di vita dell'AI, al fine di garantire la conformità alle normative europee come l'AI Act e il GDPR.


Le pratiche strutturali riguardano l'organizzazione interna e la distribuzione dei ruoli e delle responsabilità in relazione all'AI. Questo implica la creazione di unità dedicate all'AI, la nomina di Chief AI Officers, e la definizione di politiche di governance per assicurare che le iniziative di AI siano in linea con la strategia complessiva dell'organizzazione. Le organizzazioni pubbliche devono istituire team multidisciplinari che comprendano esperti di AI, analisti di dati, giuristi ed esperti di etica per monitorare e supervisionare l'implementazione dell'AI. Questo garantisce che l'uso dell'AI sia gestito in modo da rispettare i valori dell'interesse pubblico.


Le pratiche relazionali si concentrano sulla gestione delle relazioni tra le diverse parti interessate, sia interne che esterne all'organizzazione. Questo include la collaborazione con altre agenzie governative, il coinvolgimento delle comunità locali, e la creazione di partnership con il settore privato e con le università. Un elemento fondamentale è la trasparenza e il coinvolgimento dei cittadini, attraverso consultazioni pubbliche e la condivisione delle informazioni sulle applicazioni di AI in uso. Queste pratiche mirano a costruire fiducia e a garantire che l'AI sia sviluppata e utilizzata in modo responsabile e con il consenso del pubblico.


La governance strategica prevede la definizione di una visione chiara sull'uso dell'AI, con obiettivi a lungo termine che includano l'innovazione e il miglioramento dei servizi pubblici. A livello tattico, le pratiche di governance comprendono la pianificazione delle risorse e la gestione del rischio associato all'implementazione dell'AI, mentre a livello operativo si concentrano sulla formazione del personale, l'allocazione delle risorse necessarie e il monitoraggio continuo delle performance dei sistemi di AI. L'adozione di un approccio basato su cicli di feedback continui è essenziale per garantire che le soluzioni di AI siano adattive e in grado di rispondere ai cambiamenti nei requisiti dell'organizzazione e alle aspettative dei cittadini.

 

Raccomandazioni e prospettive future

Basandosi sulle analisi svolte, il rapporto presenta sei raccomandazioni per lo sviluppo delle competenze e delle pratiche di governance dell'AI nel settore pubblico. Queste raccomandazioni mirano a creare un contesto favorevole per l'adozione etica ed efficace dell'AI, promuovendo una cultura dell'innovazione, del miglioramento continuo e della responsabilità sociale.


Di seguito, vengono esposte nel dettaglio le raccomandazioni principali e le azioni correlate:


  1. Formazione continua e sviluppo delle competenze:

La formazione continua rappresenta un elemento essenziale per garantire che il personale del settore pubblico possa sfruttare al meglio le potenzialità dell'AI. Per sviluppare le competenze necessarie all'adozione e alla gestione efficace delle tecnologie AI, sono state identificate diverse azioni strategiche.


  • Programmi di formazione continua: I programmi di formazione devono essere progettati per includere vari livelli di complessità, partendo da un'alfabetizzazione generale sull'AI per tutti i dipendenti pubblici fino a corsi avanzati per coloro che lavorano direttamente con tecnologie AI. I contenuti di questi corsi dovrebbero includere i fondamenti del machine learning, i concetti base del natural language processing, le implicazioni etiche dell'AI e le pratiche di gestione dei dati.

  • Workshop pratici e casi di studio: La teoria deve essere affiancata da workshop pratici e l'analisi di casi di studio concreti. I workshop possono includere sessioni di programmazione e configurazione di modelli di AI, così come simulazioni per comprendere i processi decisionali automatizzati. L'analisi di casi di studio, invece, permetterà ai funzionari di vedere esempi di applicazioni di AI sia di successo che fallimentari, aiutando a comprendere le sfide e le opportunità reali.

  • Collaborazioni con Università e Centri di Ricerca: Il settore pubblico dovrebbe collaborare attivamente con università e centri di ricerca per sviluppare corsi specifici e personalizzati. Questo tipo di collaborazione può garantire un accesso continuo alle ultime novità in campo tecnologico e alle best practice accademiche, oltre a favorire la co-creazione di contenuti formativi che rispondano a bisogni specifici delle amministrazioni pubbliche.

  • Programmi di mentorship: La mentorship rappresenta uno strumento importante per accelerare il trasferimento di competenze. Esperti di AI e figure senior all'interno delle organizzazioni pubbliche possono essere assegnati come mentori a nuovi membri del personale o a coloro che hanno bisogno di sviluppare specifiche competenze sull'AI. La mentorship può essere utile non solo per trasmettere conoscenze tecniche, ma anche per affrontare aspetti legati alla gestione del cambiamento e alla comunicazione dei progetti di AI ai diversi stakeholder.

  • Formazione in ambito etico e normativo: La formazione non deve limitarsi agli aspetti tecnici dell'AI, ma deve includere anche le competenze in ambito etico e normativo. Il personale deve essere consapevole delle implicazioni etiche dell'uso dell'AI, comprendere i potenziali rischi legati a bias algoritmici e garantire la protezione dei dati personali. La conoscenza delle normative rilevanti, come l'AI Act e il GDPR, deve essere parte integrante dei programmi di formazione.

  • Approccio modulare e personalizzato: Un aspetto cruciale dei programmi di formazione deve essere la modularità. Ogni dipendente pubblico ha esigenze e livelli di competenza differenti; quindi, la formazione deve essere personalizzata e modulare. Questo consente di adattare i percorsi di apprendimento in base ai ruoli specifici e al livello di responsabilità dei dipendenti nell'ambito dell'adozione dell'AI.

  • Utilizzo di piattaforme di E-Learning e certificazioni: Le piattaforme di e-learning possono essere utilizzate per garantire l'accesso continuo alle risorse formative, permettendo ai dipendenti di apprendere a loro ritmo. L'introduzione di certificazioni ufficiali può inoltre incentivare la partecipazione ai corsi e garantire il riconoscimento delle competenze acquisite.

  • Valutazione e aggiornamento continuo dei programmi: I programmi di formazione devono essere sottoposti a valutazione periodica per garantirne l'efficacia e l'aggiornamento rispetto ai continui cambiamenti tecnologici e normativi. Le esigenze del settore pubblico evolvono, così come le tecnologie AI; pertanto, i contenuti dei corsi devono essere aggiornati regolarmente in modo da mantenere la rilevanza e l'efficacia della formazione.

 

  1. Promozione di partnership pubblico-privato:

Le partnership pubblico-privato rappresentano un elemento chiave per favorire l'adozione di soluzioni AI innovative e accedere a competenze e tecnologie all'avanguardia. La collaborazione tra amministrazioni pubbliche, aziende tecnologiche e istituzioni di ricerca può garantire uno sviluppo più rapido ed efficace di soluzioni AI, nonché contribuire a costruire un ecosistema di innovazione sostenibile e orientato ai bisogni della collettività.


Di seguito vengono esposti in dettaglio i principali elementi e benefici delle partnership pubblico-privato:


  • Collaborazione con aziende tecnologiche: Le amministrazioni pubbliche possono beneficiare enormemente dall'esperienza e dall'innovazione del settore privato. I partenariati con aziende tecnologiche consentono di accedere a risorse avanzate e competenze tecniche che spesso non sono disponibili internamente. Ad esempio, attraverso questi partenariati, le organizzazioni pubbliche possono beneficiare dell'uso di piattaforme di analisi avanzata, sistemi di machine learning pre-addestrati e soluzioni di cloud computing per la gestione dei dati.

  • Progetti di ricerca e sviluppo (R&S) con istituzioni accademiche: La collaborazione con le università e i centri di ricerca è essenziale per sviluppare progetti di ricerca applicata e trasferimento tecnologico. Questi partenariati non solo favoriscono l'innovazione, ma garantiscono anche che le soluzioni AI sviluppate siano basate su solidi principi scientifici e siano testate in modo rigoroso prima dell'implementazione su larga scala. Tali collaborazioni possono anche prevedere la creazione di laboratori congiunti di innovazione e la co-progettazione di soluzioni tecnologiche con ricercatori e studenti.

  • Accesso a finanziamenti e risorse: Le partnership con il settore privato possono anche facilitare l'accesso a risorse finanziarie aggiuntive necessarie per sostenere l'implementazione dell'AI. Le aziende private possono co-finanziare progetti di AI innovativi, riducendo il rischio finanziario per le amministrazioni pubbliche e rendendo più facile sperimentare soluzioni pionieristiche. Inoltre, i partenariati possono consentire alle amministrazioni di beneficiare di infrastrutture tecnologiche e strumenti avanzati di cui altrimenti non potrebbero disporre.

  • Sviluppo di soluzioni condivise: Le soluzioni sviluppate attraverso partenariati pubblico-privato spesso possono essere adattate e riutilizzate in contesti diversi. Ciò riduce i costi e accelera il processo di trasformazione digitale. Ad esempio, un modello di AI sviluppato per migliorare l'efficienza dei servizi sanitari in una regione può essere utilizzato come base per sviluppare soluzioni simili in altre regioni o in altri settori dell'amministrazione pubblica, come l'istruzione o i trasporti.

  • Garanzia di trasparenza e conformità: È fondamentale che le partnership pubblico-privato siano strutturate in modo da garantire la massima trasparenza e la protezione dei dati dei cittadini. Per questo motivo, devono essere definiti protocolli chiari per la gestione dei dati, la privacy e la sicurezza delle informazioni. La definizione di standard e linee guida per la trasparenza è essenziale per mantenere la fiducia dei cittadini nell'uso dell'AI da parte delle amministrazioni pubbliche. Le partnership devono includere accordi dettagliati che definiscano ruoli, responsabilità e modalità di condivisione dei dati.

  • Promozione dell'innovazione attraverso competizioni e premi: Un modo per incentivare la partecipazione delle aziende private nello sviluppo di soluzioni AI per il settore pubblico è attraverso l'organizzazione di competizioni e hackathon. Questi eventi possono attirare startup, piccole e medie imprese (PMI) e grandi aziende a contribuire con idee e soluzioni innovative. La competizione sana e la possibilità di ottenere premi o contratti con le amministrazioni pubbliche stimolano la creatività e la generazione di nuove idee.

  • Supporto alla creazione di ecosistemi di innovazione: Le partnership pubblico-privato possono anche supportare la creazione di ecosistemi di innovazione locali, coinvolgendo non solo grandi aziende ma anche startup, PMI e incubatori di impresa. Questi ecosistemi sono essenziali per creare un ambiente fertile in cui le nuove idee possano essere sperimentate e sviluppate. Le amministrazioni pubbliche possono facilitare la creazione di tali ecosistemi promuovendo l'accesso a finanziamenti, offrendo incentivi fiscali e creando spazi fisici in cui pubblico e privato possano collaborare.


Queste azioni mirano a creare una sinergia efficace tra pubblico e privato, con l'obiettivo di massimizzare il valore generato dall'AI per il bene comune e garantire che le soluzioni adottate siano in linea con gli standard etici e i bisogni della collettività. Solo attraverso un impegno congiunto e una cooperazione aperta sarà possibile sfruttare appieno le potenzialità dell'AI per migliorare i servizi pubblici e la qualità della vita dei cittadini.

 

  1. Sperimentazione regolatoria e aree sandbox:

La sperimentazione regolatoria e le aree sandbox rappresentano strumenti fondamentali per l'adozione efficace dell'AI nel settore pubblico. Queste iniziative consentono di testare nuove tecnologie e approcci innovativi in un ambiente controllato (una sandbox è un ambiente protetto in cui si possono sperimentare soluzioni senza impattare sui sistemi reali o violare normative), riducendo al minimo i rischi associati all'implementazione e garantendo che le soluzioni siano conformi alle normative vigenti.


Di seguito vengono descritti i principali elementi e le azioni correlate alle aree di sperimentazione regolatoria e alle sandbox:


  • Aree Sandbox per l'AI: Le aree sandbox permettono alle amministrazioni pubbliche di testare nuove soluzioni AI in un contesto regolamentato e con un livello di supervisione adeguato. Queste sandbox sono create per garantire che le tecnologie emergenti possano essere sviluppate, valutate e affinate prima della loro diffusione su larga scala. Le aree sandbox offrono un ambiente protetto in cui le amministrazioni possono collaborare con aziende tecnologiche, startup e università per sviluppare applicazioni AI innovative, riducendo il rischio di fallimenti costosi e migliorando la qualità delle soluzioni finali.

  • Coinvolgimento dei cittadini: Il coinvolgimento dei cittadini rappresenta un aspetto cruciale nelle aree sandbox. Le consultazioni pubbliche e i processi di feedback permettono di valutare l'impatto sociale delle tecnologie AI, assicurando che le soluzioni sviluppate rispondano ai bisogni della collettività e rispettino i valori dell'interesse pubblico. Coinvolgere direttamente i cittadini nei processi di sperimentazione può anche contribuire ad aumentare la fiducia nelle soluzioni AI, mostrando come vengono gestiti i rischi associati all'implementazione della tecnologia.

  • Valutazione dell'impatto e trasparenza: Ogni progetto avviato all'interno delle aree sandbox deve essere soggetto a una rigorosa valutazione dell'impatto etico, sociale e legale. La valutazione dell'impatto permette di identificare potenziali rischi legati alla privacy, alla discriminazione algoritmica o ad altri aspetti critici, e di introdurre misure correttive prima dell'implementazione su larga scala. Inoltre, è essenziale garantire la trasparenza dei risultati dei test condotti nelle aree sandbox, pubblicando rapporti dettagliati che descrivano il processo di sperimentazione, i risultati ottenuti e le lezioni apprese.

  • Linee guida per l'implementazione delle Aree Sandbox: Per garantire un uso efficace delle aree sandbox, è necessario stabilire linee guida chiare che definiscano il processo di creazione e gestione delle sandbox, i criteri di selezione dei progetti da testare e le modalità di supervisione. Queste linee guida devono assicurare che tutti i progetti siano in linea con i valori e gli obiettivi dell'amministrazione pubblica, che rispettino le normative vigenti e che adottino un approccio basato sui rischi per garantire la sicurezza e la conformità delle soluzioni sviluppate.

  • Supporto normativo e finanziario: La creazione di aree sandbox richiede un adeguato supporto normativo e finanziario. Le amministrazioni pubbliche devono poter contare su un quadro normativo flessibile che consenta la sperimentazione regolatoria senza vincoli eccessivi. Allo stesso tempo, devono essere disponibili risorse finanziarie per supportare i costi della sperimentazione, inclusi quelli legati all'infrastruttura tecnologica e alla formazione del personale coinvolto.

  • Feedback e miglioramento continuo: Uno degli obiettivi delle aree sandbox è quello di creare un ciclo continuo di feedback e miglioramento. Ogni sperimentazione dovrebbe essere seguita da un'attenta analisi dei risultati, con l'obiettivo di migliorare non solo la tecnologia sperimentata ma anche il processo di sperimentazione stessa. Questo approccio iterativo consente di adattare le soluzioni AI alle esigenze reali delle amministrazioni pubbliche e dei cittadini, garantendo che ogni fase di sviluppo sia basata sull'apprendimento e sul miglioramento continuo.

  • Integrazione con le Politiche Europee di Innovazione: Le aree di sperimentazione regolatoria devono essere strettamente integrate con le politiche europee in materia di innovazione e AI, come l'AI Act e l'Interoperable Europe Act. Questa integrazione è essenziale per garantire che le soluzioni sviluppate nelle sandbox siano allineate con le normative europee e possano essere facilmente scalate a livello transfrontaliero, favorendo una maggiore interoperabilità e una diffusione più ampia delle migliori pratiche nel settore pubblico.


Queste pratiche di sperimentazione regolatoria e le aree sandbox mirano a ridurre il rischio associato all'adozione di tecnologie innovative, a migliorare la qualità delle soluzioni sviluppate e a garantire che l'AI sia utilizzata in modo responsabile e trasparente nel settore pubblico. La combinazione di sperimentazione, collaborazione e valutazione dell'impatto rappresenta un approccio completo per massimizzare il potenziale dell'AI e assicurare che i benefici siano equamente distribuiti tra tutti i cittadini.

 

  1. Rafforzamento delle pratiche di governance etica e legale:

Il rafforzamento delle pratiche di governance etica e legale è fondamentale per garantire che l'adozione dell'AI nel settore pubblico avvenga in modo responsabile e in linea con i valori della collettività. Di seguito vengono sviluppate le principali azioni da intraprendere per garantire un'implementazione etica e legale dell'AI:


  • Creazione di linee guida etiche per lo sviluppo dell'AI: Le linee guida etiche sono necessarie per stabilire criteri chiari per lo sviluppo e l'utilizzo dell'AI nel settore pubblico. Queste linee guida devono coprire diversi aspetti, tra cui la raccolta e l'uso dei dati, la gestione dei bias, la responsabilità degli sviluppatori e degli operatori, e la tutela della privacy. Le linee guida devono essere integrate nei processi di procurement e sviluppo, assicurando che ogni soluzione AI adottata sia allineata ai principi etici approvati dall'organizzazione e dal quadro normativo europeo.

  • Valutazioni d'impatto etico e legale: Ogni progetto di AI deve essere accompagnato da una valutazione d'impatto etico e legale che ne analizzi le potenziali conseguenze a livello di equità, privacy, sicurezza e trasparenza. Queste valutazioni devono essere condotte in fase iniziale e aggiornate durante tutto il ciclo di vita del progetto, identificando rischi potenziali e prevedendo misure correttive per mitigare tali rischi.

  • Istituzione di comitati etici: La creazione di comitati etici a livello nazionale o locale ha lo scopo di supervisionare le decisioni chiave in materia di AI. Questi comitati devono essere composti da esperti di etica, rappresentanti del settore pubblico, accademici e membri della società civile. Il loro ruolo è quello di valutare i progetti di AI, offrire raccomandazioni etiche, garantire che i principi di equità e non discriminazione siano rispettati e che l'interesse pubblico sia sempre al centro delle decisioni prese.

  • Definizione di standard per l'auditing algoritmico: Gli algoritmi utilizzati dalle amministrazioni pubbliche devono essere soggetti ad auditing periodici per garantirne la conformità alle normative vigenti e per prevenire bias o utilizzi impropri. L'auditing deve includere un'analisi trasparente del funzionamento dell'algoritmo, l'identificazione di possibili distorsioni e la verifica della precisione e dell'affidabilità dei risultati. È importante stabilire un processo formale per l'auditing e identificare gli indicatori chiave di prestazione (KPI) che consentano di valutare l'efficacia e l'impatto degli algoritmi.

  • Garanzia di trasparenza e responsabilità: Per rafforzare la governance dell'AI, è essenziale promuovere la trasparenza in ogni fase di sviluppo e implementazione delle tecnologie AI. Le amministrazioni pubbliche devono comunicare in modo chiaro le finalità per cui l'AI viene utilizzata, i dati impiegati e le modalità con cui vengono prese le decisioni algoritmiche. La responsabilità deve essere assicurata attraverso un sistema di governance che preveda meccanismi per l'accertamento delle responsabilità e che consenta ai cittadini di contestare le decisioni prese dalle tecnologie AI, laddove queste possano avere un impatto significativo sui loro diritti.

  • Controllo sulla raccolta e sull'uso dei dati: I dati rappresentano la base su cui vengono addestrati i modelli di AI, ed è quindi fondamentale che la raccolta e l'uso dei dati siano effettuati in modo responsabile. Le amministrazioni pubbliche devono assicurarsi che i dati raccolti siano di alta qualità, pertinenti e gestiti secondo le normative sulla privacy. La minimizzazione dei dati, ovvero la raccolta del solo dato strettamente necessario, e la pseudonimizzazione (tecnica che sostituisce i dati identificativi con identificatori pseudonimi per proteggere l'identità degli individui) sono pratiche chiave per garantire un uso sicuro e conforme alle normative dei dati personali.


Queste azioni hanno l'obiettivo di garantire che l'adozione dell'AI nel settore pubblico avvenga in modo sicuro, responsabile e in linea con i valori dell'interesse pubblico. Il rafforzamento delle pratiche di governance etica e legale è una componente cruciale per promuovere la fiducia dei cittadini nell'uso dell'AI e assicurare che questa tecnologia contribuisca al miglioramento dei servizi pubblici senza compromettere i diritti e le libertà individuali.

 

  1. Creazione di un ecosistema di supporto per la trasformazione digitale:

La creazione di un ecosistema di supporto per la trasformazione digitale nel settore pubblico non riguarda solo la fornitura di risorse finanziarie e tecnologiche, ma anche lo sviluppo di una rete di attori e istituzioni che lavorino insieme per favorire l'innovazione. Di seguito vengono approfonditi i principali componenti e azioni necessari per garantire un ecosistema efficace e resiliente per la trasformazione digitale:


  • Supporto istituzionale e politico: È fondamentale che vi sia un supporto istituzionale solido per la trasformazione digitale. I governi devono elaborare piani strategici chiari per l'adozione dell'AI e di altre tecnologie digitali, includendo obiettivi specifici e scadenze definite. Questo supporto deve essere accompagnato da politiche favorevoli che incentivino la digitalizzazione, eliminando le barriere burocratiche e promuovendo una visione coordinata tra tutti i livelli dell'amministrazione pubblica, dalle istituzioni nazionali alle comunità locali.

  • Piattaforme di condivisione delle conoscenze: La condivisione delle conoscenze è un elemento chiave per la trasformazione digitale. Le amministrazioni pubbliche devono avere accesso a piattaforme che facilitino lo scambio di esperienze, best practice e casi di studio. Queste piattaforme, come il Public Sector Tech Watch (PSTW), possono contribuire a ridurre la curva di apprendimento per nuove tecnologie e permettere una rapida diffusione delle innovazioni che hanno avuto successo in altri contesti. La disponibilità di risorse e documentazione facilmente accessibili è cruciale per accelerare il processo di digitalizzazione.

  • Sostegno finanziario e accesso ai Fondi Europei: La trasformazione digitale richiede investimenti significativi, ed è essenziale che le amministrazioni pubbliche abbiano accesso a finanziamenti adeguati. Fondi come Horizon Europe, Digital Europe Programme e il Recovery and Resilience Facility (RRF) sono cruciali per sostenere progetti di trasformazione digitale su larga scala. Tuttavia, è altrettanto importante fornire supporto tecnico e consulenziale alle amministrazioni per facilitare l'accesso a tali fondi, assicurando che anche le piccole e medie amministrazioni possano usufruire di queste opportunità finanziarie.

  • Incentivi per l'innovazione e l'assunzione di talenti digitali: Le amministrazioni pubbliche devono creare incentivi per attrarre e trattenere talenti con competenze digitali. L'assunzione di esperti in AI, data science e trasformazione digitale è cruciale per il successo di qualsiasi strategia di innovazione. Incentivi come premi per l'innovazione, opportunità di formazione avanzata, e percorsi di carriera dedicati possono aiutare a costruire un team di esperti che sia in grado di guidare il cambiamento all'interno delle amministrazioni. Inoltre, programmi di reclutamento mirati alle nuove generazioni di talenti digitali possono aiutare a colmare il divario di competenze tecnologiche nel settore pubblico.

  • Quadro regolatorio e normative flessibili: Il successo della trasformazione digitale dipende anche dalla presenza di un quadro normativo adeguato. Gli Stati membri devono adottare un approccio regolatorio che sia sufficientemente flessibile da permettere l'innovazione, ma che allo stesso tempo protegga i cittadini da potenziali abusi. Le normative devono essere aggiornate periodicamente per riflettere l'evoluzione delle tecnologie e delle esigenze della società, assicurando che siano in linea con i principi etici e di tutela dei diritti umani.


Queste azioni e componenti sono essenziali per la creazione di un ecosistema di supporto alla trasformazione digitale nel settore pubblico. Solo attraverso l'accesso a risorse adeguate e un forte impegno istituzionale sarà possibile sfruttare appieno le potenzialità dell'AI e delle tecnologie emergenti.

 

  1. Promozione di una cultura dell'innovazione e del rischio calcolato:

Promuovere una cultura dell'innovazione e del rischio calcolato è essenziale per garantire che il settore pubblico sia capace di sperimentare e adottare nuove tecnologie come l'AI senza essere paralizzato dalla paura del fallimento. Una cultura che accetta il rischio calcolato e che incoraggia l'innovazione è in grado di produrre soluzioni più creative ed efficaci per rispondere alle sfide del settore pubblico. Di seguito vengono illustrate le principali azioni da intraprendere per costruire una cultura dell'innovazione e del rischio calcolato:


  • Incentivare la sperimentazione e l'apprendimento dagli errori: È cruciale creare un ambiente in cui gli errori siano considerati parte del processo di apprendimento, piuttosto che fallimenti da evitare a tutti i costi. Le amministrazioni pubbliche devono promuovere una cultura in cui il personale è incoraggiato a sperimentare nuove soluzioni e a imparare dagli errori commessi. Questo può essere ottenuto attraverso la creazione di programmi pilota che consentano di testare nuove idee in un ambiente protetto, senza le conseguenze negative di un'implementazione immediata su larga scala.

  • Formazione e supporto per gestire l'innovazione: La gestione dell'innovazione richiede competenze specifiche che spesso non sono presenti nelle tradizionali strutture del settore pubblico. Per questo motivo, è importante fornire formazione specifica per i dirigenti e i responsabili dei progetti, con l'obiettivo di sviluppare le competenze necessarie per gestire processi innovativi e per prendere decisioni strategiche in situazioni di incertezza. Questa formazione deve includere anche aspetti legati alla gestione del rischio, all'identificazione delle opportunità e alla mitigazione degli effetti negativi.

  • Incoraggiare una mentalità proattiva e aperta al cambiamento: Le amministrazioni devono impegnarsi attivamente per incoraggiare una mentalità proattiva e aperta al cambiamento. Ciò può essere ottenuto attraverso campagne di comunicazione interna che sottolineino i benefici dell'innovazione e mostrino casi di successo, nonché attraverso la condivisione di storie di innovazione e di buone pratiche all'interno dell'organizzazione. Una leadership che sostiene attivamente il cambiamento e l'innovazione è fondamentale per creare un ambiente che incoraggi il personale a essere proattivo e a sperimentare nuove idee.

  • Promuovere l'adozione di tecniche di Design Thinking: Il design thinking è un approccio creativo e centrato sull'utente che può aiutare le amministrazioni pubbliche a risolvere problemi complessi. L'integrazione del design thinking nei processi decisionali permette di esplorare nuove idee, testarle rapidamente e adattarle in base al feedback ricevuto. Questo approccio consente di mantenere il focus sulle esigenze dei cittadini e di trovare soluzioni innovative che migliorino la qualità dei servizi pubblici.

  • Valutazione del rischio e gestione delle incertezze: L'innovazione comporta inevitabilmente dei rischi. Per questo è fondamentale implementare pratiche di gestione del rischio che consentano di identificare, valutare e mitigare i rischi associati all'adozione di nuove tecnologie. Le amministrazioni pubbliche devono sviluppare metodologie per valutare le incertezze e prendere decisioni informate che bilancino opportunità e rischi, assicurandosi che le innovazioni adottate siano sostenibili e che non mettano a repentaglio la sicurezza o la fiducia dei cittadini.

  • Leadership che sostiene il cambiamento: La promozione di una cultura dell'innovazione e del rischio calcolato richiede una leadership visionaria e disposta a sostenere il cambiamento. I leader devono essere i primi a dimostrare apertura verso l'innovazione, creando un ambiente che non solo accetta ma incoraggia il rischio ragionato. Questo tipo di leadership è fondamentale per superare le resistenze interne e per motivare il personale a impegnarsi nei progetti di trasformazione digitale.


Queste azioni hanno l'obiettivo di sviluppare una cultura del settore pubblico che sia orientata al miglioramento continuo, all'apprendimento dagli errori e alla sperimentazione. Solo creando un ambiente in cui il rischio calcolato è considerato parte integrante del processo di innovazione, sarà possibile sfruttare appieno le potenzialità dell'AI e delle altre tecnologie digitali per migliorare i servizi pubblici e rispondere alle esigenze in continua evoluzione dei cittadini.

 

Conclusioni

La governance dell'Intelligenza Artificiale nel settore pubblico non rappresenta solo una questione di competenze tecniche o normative, ma un profondo cambiamento culturale e strategico. In questa transizione, il settore pubblico si trova davanti a una sfida cruciale: adottare l'AI non solo come uno strumento tecnologico, ma come un catalizzatore per ripensare il modo in cui lo Stato interagisce con i cittadini e risponde alle loro esigenze. La capacità di un’organizzazione pubblica di sfruttare l’AI non dipende unicamente da risorse economiche o regolamentazioni adeguate, ma soprattutto da una visione chiara e condivisa che consideri la tecnologia come un’opportunità per costruire fiducia, equità e innovazione.


Il rischio più grande per il settore pubblico non è l’adozione sbagliata dell’AI, ma la mancata adozione della trasformazione culturale necessaria a renderla uno strumento di progresso sociale. L'AI, con la sua capacità di automatizzare processi complessi e di analizzare enormi quantità di dati, può migliorare l’efficienza dei servizi pubblici, ma senza una governance inclusiva rischia di creare un divario ancora maggiore tra le istituzioni e i cittadini. Le comunità più vulnerabili potrebbero essere escluse da questi benefici, non per una mancanza di tecnologie adeguate, ma a causa di sistemi che non considerano i bisogni di tutti. È qui che la governance etica diventa il vero pilastro strategico: non come un vincolo, ma come una leva per garantire che l’AI sia al servizio dell’interesse pubblico.


Un altro aspetto fondamentale è il valore della sperimentazione. La creazione di spazi di sandbox regolatorie, di cui tanto si parla, non deve essere vista solo come un ambiente protetto per testare tecnologie, ma come un simbolo del nuovo atteggiamento che il settore pubblico deve adottare. Questi spazi permettono di trasformare il fallimento in apprendimento, un concetto che sfida radicalmente la tradizionale avversione al rischio tipica della burocrazia pubblica. Le organizzazioni che riusciranno a coltivare una cultura del rischio calcolato diventeranno esempi di come l’AI possa non solo essere implementata, ma anche migliorata continuamente in risposta ai bisogni dei cittadini.


Le competenze richieste dall’AI vanno ben oltre la tecnologia. Certamente, il settore pubblico ha bisogno di esperti in machine learning o data science, ma il vero motore della trasformazione sarà la capacità di integrare queste competenze con una leadership visionaria e un’etica forte. La leadership in questo contesto non significa solo saper prendere decisioni tecnologiche, ma soprattutto saper comunicare una visione inclusiva e orientata al futuro. Questa leadership deve essere capace di navigare le complessità delle regolamentazioni, delle aspettative dei cittadini e delle collaborazioni con il settore privato.


Le partnership pubblico-privato rappresentano un altro punto di svolta strategico. Tuttavia, il settore pubblico non deve accontentarsi di essere un "cliente" del settore privato. Deve diventare un partner attivo, capace di negoziare soluzioni che rispettino i valori pubblici e che siano trasparenti nella loro implementazione. Questa collaborazione deve andare oltre la semplice fornitura tecnologica: il settore pubblico ha il dovere di guidare il dialogo su come l’AI debba essere progettata, implementata e monitorata per garantire benefici equi.


Infine, la vera trasformazione sarà misurata non solo dai miglioramenti operativi, ma dalla capacità dell’AI di rafforzare il contratto sociale tra Stato e cittadini. L’AI può diventare uno strumento per rendere le istituzioni più trasparenti e responsabili, ma solo se i cittadini vengono coinvolti attivamente nella sua progettazione e nel monitoraggio. La fiducia sarà il vero indicatore di successo: non una fiducia cieca nella tecnologia, ma una fiducia costruita su processi aperti, risultati tangibili e un impegno visibile verso il bene comune.


Questa riflessione evidenzia che l’adozione dell’AI nel settore pubblico non è solo una questione di come farlo, ma di perché farlo. Il rischio non è tecnologico, ma strategico: perdere l’occasione di rendere l’AI un alleato del progresso sociale, piuttosto che una semplice macchina al servizio dell’efficienza. Le decisioni prese oggi non solo determineranno l’efficacia dei servizi pubblici, ma definiranno il ruolo delle istituzioni in una società sempre più digitale e interconnessa.



 

2 visualizzazioni0 commenti

Post recenti

Mostra tutti

Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page