Risultati di ricerca
469 elementi trovati per ""
- AI in Italia, dai benefici per le grandi imprese alle sfide delle PMI
Negli ultimi anni, l'intelligenza artificiale (AI) ha acquisito un ruolo di primo piano nel panorama economico e sociale italiano. Secondo i dati forniti dall'Osservatorio Artificial Intelligence del Politecnico di Milano, il mercato dell'AI in Italia ha raggiunto i 760 milioni di euro nel 2023, con una crescita del 52% rispetto all'anno precedente. Questo dato evidenzia l'accelerazione delle iniziative in questo settore, in particolare tra le grandi aziende, che rappresentano il 90% degli investimenti. Tuttavia, l'adozione dell'AI è ancora disomogenea, con le piccole e medie imprese (PMI) che stentano a tenere il passo, contribuendo solo al 18% dei progetti di AI attualmente implementati. Adozione e utilizzo dell'AI in Italia: un quadro disomogeneo Uno degli aspetti più significativi che emerge dallo studio è la forte disomogeneità nell'adozione dell'AI tra le diverse tipologie di imprese. Le grandi aziende sono quelle che più investono e implementano soluzioni di AI, mentre le PMI, a causa di limitazioni economiche e organizzative, risultano più lente nel loro percorso di digitalizzazione. Sei grandi aziende su dieci hanno già avviato almeno un progetto di AI, contro solo il 18% delle PMI. La Generative AI, seppur rappresentando solo il 5% del mercato (38 milioni di euro), sta cominciando a trovare applicazioni significative, soprattutto in settori come l'elaborazione dati e la creazione di modelli predittivi. Questa disparità nell'adozione si riflette anche nelle strategie e nei progetti intrapresi dalle aziende. Dallo studio emerge che il 22% delle grandi aziende ha già una strategia chiara sull'AI, mentre un ulteriore 13% sta iniziando a implementarla. Al contrario, molte PMI rimangono ancora alla fase esplorativa o non considerano l'AI una priorità strategica. Le aziende del macrosettore industria/manifattura sono quelle che più frequentemente hanno attivato strategie o progetti di AI, con il 46% già attive in questo ambito, contro il 39% degli altri settori. Un altro elemento di criticità è rappresentato dalle risorse economiche disponibili. Le grandi aziende hanno maggiori capacità finanziarie, il che permette loro di allocare fondi significativi verso l'acquisizione di nuove tecnologie e lo sviluppo di soluzioni AI. Questo si traduce nel fatto che il 90% degli investimenti totali in AI in Italia è realizzato dalle grandi imprese, lasciando una quota ridotta alle PMI e alla Pubblica Amministrazione. Inoltre, le PMI sono spesso limitate da una mancanza di competenze interne, cosa che rende difficile l'adozione di tecnologie avanzate come l'AI senza un significativo supporto esterno. La distribuzione geografica gioca un ruolo importante nella disomogeneità dell'adozione. Il 38% delle aziende intervistate ha sede nel nord-ovest del Paese, mentre solo il 14% si trova al centro e il 15% al sud. Questo divario geografico contribuisce ulteriormente a una distribuzione non uniforme dell'innovazione tecnologica e delle opportunità legate all'AI, con le aree più industrializzate che beneficiano di maggiori risorse e competenze. La mancanza di formazione e competenze specifiche rappresenta un ulteriore ostacolo per l'adozione diffusa dell'AI. Il 47% delle aziende italiane sta investendo nella formazione del personale interno per superare questa barriera, ma solo il 16% sta attivamente assumendo nuove figure professionali specializzate. Le aziende del settore industriale appaiono leggermente più avanti rispetto agli altri settori in termini di acquisizione di nuove competenze e tecnologie, con il 74% delle aziende del comparto manifatturiero che ritiene necessario aggiornare le proprie capacità per sfruttare al meglio le potenzialità dell'AI. In conclusione, il quadro che emerge è quello di un'adozione a due velocità, in cui le grandi aziende riescono a beneficiare maggiormente delle opportunità offerte dall'AI, mentre le PMI continuano a lottare con barriere economiche, organizzative e formative. Per colmare questo divario, è necessario un supporto strutturato, che includa incentivi economici, programmi di formazione e iniziative di collaborazione tra grandi aziende e PMI. Solo in questo modo si potrà garantire un'adozione più equa e diffusa delle tecnologie AI nel tessuto imprenditoriale italiano. Le principali aree di applicazione dell'AI Le applicazioni dell'AI nelle aziende italiane sono diversificate, con un'enfasi particolare sull'automazione dei processi e sull'analisi dei dati. Secondo il sondaggio KPMG-IPSOS, il 46% delle aziende sta utilizzando l'AI per automatizzare i processi al fine di migliorare l'efficienza e la produttività, mentre il 39% sfrutta modelli di elaborazione dati per favorire l'innovazione di prodotto. Un altro 37% delle aziende intervistate utilizza l'AI per l'analisi dei dati di vendita e per sviluppare modelli predittivi utili a supportare le attività di pianificazione strategica. Oltre a questi ambiti, emergono altre applicazioni interessanti dell'AI, quali l'analisi dei dati dei clienti per creare campagne di marketing personalizzate, un aspetto citato dal 26% delle aziende. Queste soluzioni consentono di sviluppare strategie di marketing più efficaci e mirate, aumentando il tasso di conversione e migliorando il ritorno sugli investimenti. Inoltre, il 23% delle aziende ha implementato chatbot che possono interagire con i clienti, rispondendo alle domande e fornendo informazioni in tempo reale. Questa applicazione non solo migliora il servizio clienti, ma riduce anche i costi operativi legati alla gestione dei centri di supporto. L'analisi dei modelli di transazioni per identificare attività sospette e potenziali frodi rappresenta un'altra importante area di applicazione, scelta dal 21% delle aziende. Le capacità di elaborazione dei dati dell'AI permettono di rilevare anomalie e comportamenti sospetti con una velocità e una precisione superiori rispetto ai tradizionali metodi di analisi, contribuendo così alla sicurezza aziendale e alla prevenzione delle frodi finanziarie. Un altro settore in cui l'intelligenza artificiale viene applicata è quello dei sistemi per il riconoscimento vocale, delle immagini e dei video, adottati dall'11% delle aziende con l'obiettivo di potenziare la sicurezza. Questi strumenti trovano utilizzo in ambiti come il controllo degli accessi, la videosorveglianza e il monitoraggio delle attività produttive, contribuendo a migliorare sia la sicurezza generale sia l'efficienza operativa. Le tecnologie AI sono viste come un mezzo per potenziare le attività cognitive delle persone, con un impatto che va oltre la semplice automazione. Infatti, l'AI viene impiegata per supportare le decisioni strategiche (30%) e migliorare il servizio clienti (28%). La capacità di elaborare grandi quantità di dati in modo rapido e accurato consente ai manager di prendere decisioni più informate, migliorando così la qualità della strategia aziendale e l'adattamento ai cambiamenti del mercato. Queste applicazioni dimostrano che l'AI non è soltanto uno strumento per migliorare l'efficienza operativa, ma ha il potenziale di trasformare il modo in cui le aziende interagiscono con i clienti, sviluppano prodotti e gestiscono le proprie operazioni interne. In particolare, l'integrazione dell'AI nelle diverse aree aziendali sta permettendo alle aziende italiane di creare nuovi modelli di business, che mettono al centro l'innovazione e la personalizzazione dell'offerta. Le sfide per l'adozione dell'AI in Italia Nonostante l'entusiasmo che circonda l'adozione dell'AI, ci sono numerose sfide che le aziende devono affrontare. Una delle principali è la trasformazione culturale, indicata come il maggiore ostacolo dal 37% delle aziende intervistate. Inoltre, la necessità di aggiornare le competenze del personale è una problematica significativa per il 34% delle imprese, seguita dall'implementazione di nuovi processi produttivi e operativi (33%). Solo il 22% delle aziende percepisce i costi di implementazione come un problema cruciale, suggerendo che le difficoltà principali risiedono più nella gestione del cambiamento che nei meri aspetti finanziari. Le sfide legate all'introduzione dell'AI non si limitano solo all'aspetto tecnologico, ma coinvolgono anche la capacità di gestire la transizione culturale e il cambiamento organizzativo. Trovare la giusta combinazione tra capitale umano e capitale tecnologico è indicato dal 27% delle aziende come una sfida importante. Questo equilibrio risulta fondamentale per sfruttare appieno le potenzialità dell'AI senza alienare i lavoratori. In aggiunta, il rispetto delle implicazioni normative e regolamentari viene percepito come un ostacolo dal 13% delle imprese, indicando la necessità di conformarsi a un quadro giuridico in costante evoluzione, che spesso impone vincoli stringenti all'uso dell'AI. Un aspetto non trascurabile è la necessità di una governance chiara e strutturata per l'adozione dell'AI. Infatti, il 37% delle aziende ritiene che siano necessari modelli di governance definiti per garantire che l'AI venga sviluppata e utilizzata in modo responsabile e affidabile. La formazione interna del personale, indicata dal 59% delle aziende, emerge come il fattore più rilevante per superare la resistenza dei dipendenti e favorire l'accettazione dell'AI. Solo il 19% delle aziende prevede significative difficoltà nell'ottenere l'accettazione da parte dei dipendenti, mentre il 57% ritiene che non ci saranno ostacoli significativi, suggerendo un certo ottimismo riguardo alla capacità di integrare l'AI senza generare forte resistenza. Anche il tema delle competenze gioca un ruolo cruciale nella gestione delle sfide. La formazione e la riqualificazione dei dipendenti sono viste come strumenti indispensabili per affrontare il cambiamento: il 47% delle aziende sta investendo nella formazione del personale per sviluppare competenze in ambito AI, mentre solo il 16% sta assumendo nuove figure specializzate. Tuttavia, la standardizzazione delle competenze, dovuta all'adozione di tecnologie AI generative, potrebbe portare a una riduzione delle differenze tra lavoratori ad alta e bassa performance, rendendo la forza lavoro più omogenea ma meno differenziata nelle capacità distintive. In conclusione, le sfide per l'adozione dell'AI sono molteplici e richiedono un approccio integrato che combini aspetti tecnologici, formativi e organizzativi. Le aziende devono non solo investire nelle infrastrutture tecnologiche, ma anche sviluppare un piano di gestione del cambiamento che coinvolga il personale e crei una cultura aziendale pronta ad abbracciare l'innovazione. Questo percorso, per quanto complesso, rappresenta una necessità per rimanere competitivi in un contesto economico sempre più guidato dalla tecnologia. Benefici e prospettive future dell'AI in Italia I benefici dell'adozione dell'intelligenza artificiale nelle aziende italiane vanno oltre il mero incremento di produttività e riduzione dei costi di produzione. Secondo lo studio, tre aziende su quattro ritengono che l'AI possa migliorare significativamente la situazione economica interna dell'impresa. Questo dato si innalza all'81% tra le aziende che hanno già attivato progetti AI, dimostrando un elevato grado di fiducia nei vantaggi a lungo termine che queste tecnologie possono apportare. L'impatto economico positivo dell'AI è particolarmente sentito nelle grandi imprese, dove il 77% degli intervistati prevede miglioramenti, rispetto al 69% delle PMI. L'adozione dell'AI sta anche influenzando profondamente i modelli di leadership aziendale. Secondo il 95% degli intervistati, l'AI consentirà ai manager di assumere un ruolo più strategico, liberandoli da compiti operativi e routinari e permettendo loro di concentrarsi su decisioni di maggiore impatto per l'azienda. Questo cambiamento, che porta a una redistribuzione delle responsabilità all'interno dell'organizzazione, può contribuire a migliorare l'efficienza complessiva e a rendere l'azienda più agile e reattiva alle dinamiche di mercato. Un altro beneficio riguarda la capacità dell'AI di favorire un ambiente di lavoro più collaborativo e centrato sull'innovazione. Le tecnologie AI, infatti, sono viste non solo come strumenti di automazione, ma come strumenti di "augmentation", ovvero tecnologie che potenziano le capacità umane. Questa visione è particolarmente importante in un'ottica di Human Innovation, dove le persone rimangono al centro del processo di trasformazione e l'AI diventa un partner per migliorare il contributo umano all'interno dell'organizzazione. In termini di innovazione, solo il 13% delle aziende ha segnalato la capacità dell'AI di innovare prodotti e servizi come un beneficio principale, suggerendo che il pieno potenziale dell'AI in questo ambito non è ancora completamente sfruttato. Tuttavia, il 23% delle aziende ha indicato un miglioramento nella capacità di acquisire e gestire nuovi clienti come un importante risultato dell'adozione di soluzioni AI. Questo dimostra come l'AI possa anche giocare un ruolo significativo nella crescita del business, non solo ottimizzando processi interni, ma contribuendo direttamente al miglioramento delle performance di mercato. Inoltre, l'AI sta cambiando il panorama competitivo, favorendo l'adozione di nuovi modelli di business più scalabili e orientati ai dati. Le aziende AI-driven tendono a rompere i silos tradizionali, diventando più integrate e capaci di raccogliere, analizzare e utilizzare dati in maniera continuativa per migliorare i processi decisionali e la qualità dei servizi. Questo approccio non solo migliora l'efficienza interna, ma consente alle aziende di essere più agili nell'adattarsi ai cambiamenti del mercato e di ottenere un vantaggio competitivo sostenibile. Dal punto di vista delle competenze, l'adozione dell'AI richiede un notevole investimento nella formazione del personale. Tuttavia, non si tratta solo di sviluppare competenze tecniche, ma anche di promuovere soft skills come il problem solving e il pensiero critico, che sono essenziali per sfruttare appieno il potenziale dell'AI. La capacità di adattarsi e di comprendere l'interazione tra tecnologia e processi umani è fondamentale per il successo a lungo termine. Le aziende stanno quindi promuovendo programmi di formazione specifici per assicurarsi che il personale sia preparato a gestire queste nuove tecnologie e a integrarle efficacemente nei processi aziendali. Impatti dell'AI sul modello di business L'adozione dell'AI sta anche avendo un impatto significativo sui modelli di business. Il 64% delle aziende intervistate ritiene che l'AI cambierà il proprio modello di business, con effetti particolarmente rilevanti nell'area della produzione (indicata dal 59% degli intervistati), nelle vendite (32%) e nell'organizzazione del personale (29%). Questa trasformazione richiederà un ripensamento delle strategie aziendali e dei modelli operativi, includendo una maggiore collaborazione tra funzioni e l'adozione di modalità di lavoro più agili e aperte all'innovazione. Secondo il report KPMG-IPSOS, l'AI sta diventando il cuore dei modelli operativi delle aziende, rappresentando un vero e proprio cambio di paradigma che modifica il modo di fare business. L'AI non è più considerata solo uno strumento per migliorare l'efficienza o ridurre i costi, ma diventa il motore universale che guida la trasformazione aziendale. Questo cambiamento implica una rottura con i silos tradizionali e una riorganizzazione in ottica di maggiore scalabilità e flessibilità. Ad esempio, le aziende AI-driven come MyBank, Amazon, e Zara hanno dimostrato che l'integrazione dell'AI nei processi operativi non solo migliora la qualità dei servizi, ma consente anche di creare un nuovo modello di creazione di valore, basato su un apprendimento continuo grazie ai dati raccolti in tempo reale. Questa trasformazione va oltre la semplice applicazione tecnologica, poiché ridisegna il modo in cui le aziende interagiscono con i mercati e i consumatori. Secondo il 95% degli intervistati, l'introduzione dell'AI comporterà un ruolo più strategico per i manager, liberandoli dai compiti più operativi e permettendo loro di focalizzarsi sulla creazione di nuove opportunità di crescita. L'AI consente infatti una migliore comprensione dei bisogni dei clienti e favorisce l'adozione di nuovi modelli di business orientati all'open innovation, nei quali la collaborazione con partner esterni e la raccolta di insight in tempo reale diventa centrale per il successo aziendale. Inoltre, l'AI spinge le aziende a ripensare il proprio ecosistema di alleanze. La creazione di partnership strategiche, anche con aziende di settori diversi, rappresenta una delle principali opportunità di crescita e di differenziazione rispetto ai concorrenti. Un'azienda AI-driven può infatti offrire prodotti e servizi più personalizzati, incrementando l'efficienza complessiva e sfruttando un ecosistema esteso di competenze e risorse. Conclusioni L'adozione dell'intelligenza artificiale rappresenta una svolta per le aziende italiane, ma solo una leadership consapevole può garantire il pieno sfruttamento delle sue potenzialità. La gestione strategica dell'AI richiede una visione integrata che superi la semplice fascinazione tecnologica , spostando l'attenzione dalla tecnologia all'obiettivo concreto di risolvere problemi di business. L'AI non è un fine, ma un mezzo per potenziare la capacità decisionale e operativa delle organizzazioni. Tuttavia, gran parte delle iniziative fallisce a causa di una disconnessione tra obiettivi aziendali e progettazione tecnica, spesso aggravata da infrastrutture inadeguate e dati di scarsa qualità. Per le PMI italiane, che faticano a tenere il passo rispetto alle grandi imprese, l'integrazione dell'AI non deve essere percepita come un lusso, ma come una necessità competitiva . Questo richiede incentivi pubblici mirati e una cultura collaborativa tra grandi aziende e PMI per condividere competenze e risorse. L'adozione di tecnologie AI può essere trasformativa, ma solo se si investe in formazione continua e nella costruzione di infrastrutture digitali robuste. Un'area critica è rappresentata dalla gestione dei dati. La qualità e la pertinenza dei dati aziendali non sono solo questioni tecniche, ma decisioni strategiche . Le organizzazioni devono trattare i dati come un asset, investendo in ingegneria dei dati e infrastrutture capaci di supportare progetti di AI scalabili. Le imprese che non adottano questa visione rischiano di perdere competitività, restando intrappolate in cicli di fallimenti dovuti a carenze strutturali. La leadership aziendale deve anche affrontare il cambiamento culturale necessario per integrare l'AI nei processi decisionali. La democratizzazione dell'AI richiede una governance inclusiva, che bilanci innovazione tecnologica e capitale umano . Questo significa creare ambienti collaborativi dove tecnici e dirigenti lavorano insieme per tradurre le esigenze strategiche in soluzioni tecniche praticabili. Solo una leadership capace di ascoltare e imparare potrà costruire fiducia nell'AI e sfruttarne le potenzialità senza cadere in aspettative irrealistiche. Infine, è cruciale spostare il focus dalle applicazioni immediate dell'AI al suo ruolo strategico come catalizzatore di nuovi modelli di business. L'AI offre l'opportunità di ridisegnare i processi aziendali in ottica di maggiore scalabilità, agilità e personalizzazione dell'offerta . Questo non implica solo l'adozione di una tecnologia, ma la costruzione di un nuovo ecosistema aziendale in grado di generare valore attraverso l'apprendimento continuo dai dati. Podcast: https://spotifycreators-web.app.link/e/sA1efb1H3Ob Fonte: https://kpmg.com/it/it/home/insights/2024/11/ai-intelligenza-artificiale-aziende-italia-survey-kpmg-ipsos.html
- Potenziale delle Blockchain Permissionless nei servizi finanziari
Le blockchain permissionless rappresentano una prospettiva innovativa per migliorare l'infrastruttura finanziaria tradizionale. Questo articolo si basa su una ricerca condotta da Fabian Schär dell'Università di Basilea e preparata per la Commissione Europea, Direzione Generale per la Stabilità Finanziaria, Servizi Finanziari e Unione dei Mercati dei Capitali. La ricerca è stata completata nell'ottobre 2024, con il supporto di Ivan Keller, Gundars Ostrovskis, Vasiliki Kalimeri, Matthias Nadler, Katrin Schuler e Dario Thürkauf, e ha coinvolto anche la collaborazione del Centro per le Politiche Orizzontali B4 per la Finanza Digitale. Questo articolo si concentra sulle caratteristiche fondamentali, sui vantaggi potenziali e sulle sfide che queste tecnologie possono portare al settore finanziario, esaminando in particolare come la loro neutralità, l'inclusività e la trasparenza possano favorire l'interoperabilità e la competizione nel mercato finanziario globale. Introduzione alla tecnologia Blockchain Le blockchain permissionless si basano su una rete di nodi distribuiti che operano senza la necessità di una autorità centrale per garantire la fiducia tra le parti. Questa struttura decentralizzata è essenziale per assicurare che chiunque possa partecipare alla rete senza restrizioni, consentendo una neutralità totale e garantendo un accesso trasparente. Nelle blockchain permissionless, ogni nodo è uguale, e non esistono intermediari che possano alterare o influenzare le transazioni senza il consenso di tutta la rete. Uno degli elementi centrali che definisce la blockchain permissionless è la capacità di transazione . Nella ricerca allegata, viene evidenziato come la capacità di elaborare transazioni nelle blockchain permissionless sia, al momento, limitata rispetto ai sistemi finanziari tradizionali. Le blockchain come Bitcoin ed Ethereum, ad esempio, possono gestire rispettivamente solo circa 7 e 30 transazioni al secondo, a fronte delle decine di migliaia di transazioni per secondo elaborate da reti centralizzate come Visa. Questo rappresenta una sfida importante, specialmente se le blockchain devono supportare volumi globali di attività finanziaria. Tuttavia, tecniche innovative come lo sharding e i protocolli Layer 2 (ad esempio rollup e canali di stato) stanno cercando di migliorare la scalabilità senza compromettere la decentralizzazione della rete. La legittimità delle transazioni è un altro aspetto fondamentale. Ogni transazione deve essere verificata crittograficamente per garantire la sicurezza e l'integrità della rete. L'uso di firme crittografiche assicura che solo il possessore di una specifica chiave privata possa autorizzare una transazione. Questa legittimità viene gestita tramite due principali modelli: il modello UTXO (Unspent Transaction Output), utilizzato da Bitcoin, e il modello account-based , adottato da Ethereum. Nel modello UTXO, ogni transazione traccia gli output non spesi, creando una sorta di catena di valore che aumenta la sicurezza e la tracciabilità. Al contrario, nel modello account-based, ogni account ha un saldo associato, e la transazione riduce semplicemente il saldo del mittente e lo aumenta per il destinatario. Entrambi i modelli hanno vantaggi e svantaggi: il modello UTXO, ad esempio, offre una maggiore privacy, mentre il modello account-based risulta più intuitivo per chi ha familiarità con i sistemi finanziari tradizionali. Per mantenere la coerenza dello stato del registro, la blockchain utilizza meccanismi di consenso distribuito , come il Proof of Work (PoW) e il Proof of Stake (PoS) . Il PoW, utilizzato da Bitcoin, garantisce la sicurezza della rete richiedendo ai nodi di risolvere complessi problemi matematici, con un elevato dispendio energetico. Il PoS, adottato da Ethereum con il passaggio a Ethereum 2.0, offre un'alternativa più sostenibile, basata sul possesso di token che vengono messi in staking per partecipare al processo di consenso. Entrambi i meccanismi sono progettati per garantire che la rete raggiunga un accordo comune, anche in presenza di attori malevoli, assicurando l'integrità e la sicurezza della blockchain. Un altro aspetto importante della blockchain permissionless è la programmabilità grazie agli smart contract. Questi contratti permettono di automatizzare operazioni complesse come prestiti, assicurazioni e transazioni di derivati senza la necessità di intermediari. Tuttavia, la ricerca evidenzia che questi smart contract sono tanto sicuri quanto il codice che li definisce. Le vulnerabilità nel codice possono portare a problemi di sicurezza significativi, come è stato evidenziato da alcuni noti incidenti di hacking su protocolli DeFi (Decentralized Finance). Inoltre, la blockchain opera su un'infrastruttura di rete peer-to-peer (P2P) , dove tutti i nodi partecipano alla condivisione delle informazioni senza bisogno di un server centrale. Questo aumenta la resilienza della rete, poiché non esiste un singolo punto di fallimento che possa compromettere l'intero sistema. Ogni nodo mantiene una mempool , ovvero una coda di transazioni in attesa di essere incluse nella blockchain. Il processo di selezione delle transazioni dalla mempool è fondamentale per garantire l'efficienza e l'equità nella conferma delle operazioni. Infine, il concetto di consenso sulla sequenza delle transazioni rappresenta un aspetto cruciale per il funzionamento della blockchain. La sequenza delle transazioni può influenzare l'esito delle stesse, specialmente in applicazioni DeFi, dove l'ordine delle operazioni può determinare la differenza tra guadagnare o perdere valore (fenomeno noto come Maximal Extractable Value - MEV ). Soluzioni per mitigare i rischi legati al MEV includono meccanismi di ordinamento agnostico rispetto al contenuto delle transazioni e l'adozione di protocolli come la proposer-builder separation (PBS) . Questi elementi costituiscono la base tecnologica delle blockchain permissionless e ne definiscono i vantaggi e le sfide rispetto ai sistemi finanziari tradizionali. L'obiettivo finale è quello di creare un'infrastruttura finanziaria più aperta, trasparente e inclusiva, ma per raggiungere questo traguardo è necessaria una continua innovazione sia tecnologica che regolamentare. Vantaggi e funzionalità delle Blockchain Permissionless Uno dei principali punti di forza delle blockchain permissionless è la loro programmabilità . Grazie ai contratti smart, è possibile automatizzare diverse operazioni finanziarie, come l'esecuzione di pagamenti e la gestione di prestiti. Tuttavia, la vera innovazione non è la semplice capacità di programmare processi, quanto piuttosto la capacità di farlo su una base neutrale e condivisa, senza la necessità di intermediari fidati. In questo modo, si eliminano potenziali punti di vulnerabilità e si riducono i costi associati a terzi. Un altro aspetto fondamentale della blockchain permissionless è la composability , che consente di creare nuovi servizi e prodotti finanziari sfruttando la capacità di combinare diversi protocolli e asset all'interno della stessa rete. Questo approccio permette la costruzione di soluzioni innovative, come l'integrazione di protocolli di prestito in mercati di derivati, aumentando così la flessibilità e la modularità dell'ecosistema finanziario. Secondo la ricerca, la composability è uno dei fattori principali che spinge verso la formazione di un livello base dominante, poiché consente di massimizzare gli effetti di rete e di creare un ecosistema paragonabile a quello di un'economia di piattaforma. La liquidità è un ulteriore beneficio cruciale derivante dall'uso delle blockchain permissionless. Grazie alla possibilità di avere asset diversi e numerosi protocolli disponibili sulla stessa piattaforma, l'integrazione di liquidità da diverse fonti diventa più semplice e immediata. Questo vantaggio è particolarmente evidente nei decentralized exchanges (DEX) , dove asset tokenizzati possono essere scambiati senza necessità di un intermediario centralizzato, garantendo tempi di regolamento più rapidi e costi di transazione inferiori rispetto alle borse tradizionali. Un'altra caratteristica distintiva è l' atomicità delle transazioni. L'atomicità garantisce che tutte le operazioni di una transazione siano eseguite contemporaneamente, eliminando il rischio di fallimento parziale. Questa proprietà è particolarmente utile nel contesto di transazioni finanziarie complesse, come le operazioni di delivery versus payment (DvP) , in cui entrambe le controparti vogliono essere sicure che la consegna dell'asset e il pagamento avvengano simultaneamente. La blockchain permette l'esecuzione di queste transazioni in modo totalmente automatizzato e sicuro. Le blockchain permissionless migliorano anche la trasparenza e la neutralità delle operazioni finanziarie. Poiché ogni transazione è registrata su un registro pubblico, diventa possibile verificare in modo indipendente la validità delle transazioni e monitorare i flussi di valore all'interno della rete. Questo livello di trasparenza è stato riconosciuto nella ricerca come un importante vantaggio per ridurre le asimmetrie informative e per garantire che nessun attore possa avere vantaggi ingiustificati a discapito degli altri partecipanti. Inoltre, la neutralità delle blockchain permissionless elimina la necessità di intermediari con il potere di discriminare l'accesso o di imporre regole arbitrarie, favorendo un'infrastruttura più equa e aperta. Infine, l'adozione delle blockchain permissionless può ridurre la dipendenza dalle infrastrutture centralizzate, mitigando così i rischi associati alla concentrazione del potere di mercato. Come evidenziato nella ricerca, le piattaforme centralizzate, se non regolamentate adeguatamente, possono esercitare un potere eccessivo, estrarre rendite economiche e creare problemi di lock-in per gli utenti. Le blockchain permissionless, invece, favoriscono la concorrenza e l'innovazione, consentendo la nascita di nuovi attori che possono contribuire a migliorare l'offerta di servizi finanziari. Sfide: scalabilità, privacy e sequenziamento delle transazioni Nonostante i vantaggi, le blockchain permissionless presentano diverse sfide che devono essere superate per poter essere utilizzate come base per i servizi finanziari tradizionali. La prima sfida è la scalabilità . Attualmente, la maggior parte delle blockchain ha difficoltà a gestire grandi volumi di transazioni. Aumentare la capacità di elaborazione senza sacrificare la decentralizzazione richiede soluzioni innovative, come l'implementazione di layer 2, sharding, e tecniche di ottimizzazione dell'efficienza. Secondo la ricerca, soluzioni come i rollup ottimistici e zk-rollup sono state proposte per migliorare significativamente la capacità di transazione, garantendo al contempo la sicurezza e la decentralizzazione. I zk-rollup , in particolare, utilizzano prove a conoscenza zero per garantire la validità delle transazioni senza la necessità di trasmettere ogni dettaglio, migliorando così sia la scalabilità sia la privacy. Inoltre, l'implementazione di canali di stato e plasma chains rappresentano strategie chiave per affrontare le problematiche di scalabilità. I canali di stato, come quelli utilizzati nel Lightning Network di Bitcoin, permettono agli utenti di effettuare transazioni al di fuori della blockchain principale, limitando l'uso della blockchain stessa solo per l'apertura e la chiusura del canale. Questo riduce notevolmente il carico di transazioni da processare sulla blockchain principale, migliorando la velocità di esecuzione e riducendo i costi di transazione. Un aspetto rilevante da considerare riguarda la tutela della privacy. Pur essendo la trasparenza delle blockchain fondamentale per assicurare la sicurezza delle transazioni, può rappresentare un ostacolo per gli utenti che richiedono un elevato grado di riservatezza, specialmente nel settore finanziario istituzionale. Secondo la ricerca, uno dei problemi principali è l'eccessiva trasparenza, che permette a chiunque di osservare e analizzare tutte le transazioni, compresi importi e controparti. Per risolvere questo problema, sono stati sviluppati vari protocolli di privacy-enhancing , come i zk-SNARKs e le ring signatures . I zk-SNARKs, ad esempio, permettono di verificare una transazione senza rivelare dettagli specifici, mentre le firme ad anello offrono un livello di anonimato creando una sorta di "mischiamento" delle chiavi pubbliche, rendendo difficile risalire al mittente della transazione. Alcuni progetti stanno esplorando l'uso della crittografia completamente omomorfica (FHE) per consentire il calcolo direttamente su dati criptati. Questo approccio potrebbe essere utilizzato per garantire la privacy degli utenti pur mantenendo la funzionalità di verifica e controllo necessaria per la conformità normativa. Un altro metodo in sviluppo è l'uso delle proposte a conoscenza zero avanzate , che permettono di dimostrare la validità delle transazioni mantenendo anonime sia le parti coinvolte sia i dettagli dell'operazione. Infine, il sequenziamento delle transazioni rappresenta una sfida importante. I nodi responsabili della conferma delle transazioni possono trarre vantaggio dall'ordine delle stesse, fenomeno noto come Maximal Extractable Value (MEV) . Secondo la ricerca, la MEV si manifesta quando i validatori manipolano l'ordine delle transazioni per estrarre valore aggiuntivo, spesso a scapito degli utenti. Per mitigare questo problema, sono stati proposti meccanismi come il proposer-builder separation (PBS) , in cui il compito di costruire i blocchi viene separato da quello di proporli, riducendo così le possibilità di manipolazione del sequenziamento. Inoltre, l'uso della timelock encryption e della soglia di crittografia permette di nascondere temporaneamente il contenuto delle transazioni durante la selezione, garantendo che il nodo validatore non possa influenzare l'ordine delle stesse in modo improprio. L'adozione di modelli come il PBS potrebbe ridurre le economie di scala dei validatori più grandi, rendendo più equo il processo di estrazione del valore e supportando la decentralizzazione. Tuttavia, la complessità tecnica di questi meccanismi e la necessità di coordinamento tra nodi comportano ulteriori sfide operative e rischi di centralizzazione, soprattutto nel caso in cui una piccola minoranza di attori riesca a dominare il mercato dei builder di blocchi. Queste sfide, pur essendo significative, rappresentano anche opportunità per migliorare l'infrastruttura tecnologica e la sicurezza delle blockchain permissionless, rendendole sempre più adatte a supportare servizi finanziari complessi in un ambiente aperto e decentralizzato. Opportunità future Le blockchain permissionless offrono un'opportunità unica per creare un'infrastruttura finanziaria più aperta, trasparente e competitiva. Tuttavia, è necessario un approccio prudente e graduale per introdurre queste tecnologie nei contesti regolamentati, iniziando con sperimentazioni limitate che permettano di valutarne l'efficacia e la sicurezza. Ad esempio, l'emissione di titoli per piccole e medie imprese su una blockchain pubblica potrebbe rappresentare un primo passo concreto verso l'integrazione di questa tecnologia nei mercati finanziari tradizionali. Secondo la ricerca allegata, una delle principali opportunità per le blockchain permissionless risiede nella loro capacità di ridurre i costi di riconciliazione e regolamento . Nei sistemi finanziari tradizionali, le operazioni di regolamento possono essere lente e costose, richiedendo spesso numerosi passaggi tra diversi enti. La blockchain, con la sua capacità di garantire la finalità delle transazioni in maniera automatica e verificabile, potrebbe abbattere queste barriere, riducendo non solo i costi ma anche i tempi di regolamento. La ricerca stima che l'uso delle blockchain potrebbe potenzialmente ridurre i costi operativi fino al 30% , migliorando l'efficienza complessiva del sistema. Inoltre, la blockchain potrebbe favorire l' integrazione di sistemi finanziari differenti , migliorando l'interoperabilità tra vari mercati e piattaforme. Attualmente, molti servizi finanziari operano in modo isolato, con scarsa interoperabilità tra diversi provider. L'integrazione su una blockchain pubblica potrebbe consentire la creazione di una rete globale che permetta la condivisione sicura e trasparente di informazioni finanziarie tra diverse istituzioni, favorendo una maggiore competizione e una riduzione dei costi per gli utenti finali. Secondo i dati contenuti nella ricerca, il miglioramento dell'interoperabilità potrebbe portare a un incremento del volume di transazioni transfrontaliere del 15-20% entro il 2030. Un'altra opportunità significativa riguarda l'uso delle blockchain per la tokenizzazione degli asset tradizionali . Questo processo permette di rappresentare digitalmente asset come immobili, titoli azionari o obbligazioni su una blockchain, rendendo più semplice il loro trasferimento e aumentando la liquidità. La ricerca evidenzia come la tokenizzazione degli asset possa creare nuove opportunità di finanziamento per le piccole e medie imprese (PMI), che potrebbero sfruttare mercati di capitale decentralizzati per ottenere finanziamenti con meno barriere rispetto ai canali tradizionali. Stime suggeriscono che il mercato della tokenizzazione potrebbe raggiungere un valore di 16 trilioni di dollari entro il 2030, grazie alla maggiore accessibilità e alle ridotte barriere all'ingresso. In termini di inclusione finanziaria , le blockchain permissionless offrono un'opportunità senza precedenti per espandere l'accesso ai servizi finanziari, specialmente nelle regioni meno sviluppate. Poiché non richiedono intermediari tradizionali, possono consentire a milioni di persone non bancarizzate di partecipare a un sistema economico globale, fornendo accesso a prestiti, risparmi, assicurazioni e investimenti. Questo è particolarmente rilevante nei paesi in via di sviluppo, dove le barriere all'accesso ai servizi finanziari sono spesso insormontabili. Secondo la ricerca, le blockchain potrebbero contribuire a ridurre il numero di persone non bancarizzate di oltre 1,7 miliardi entro il 2030, migliorando la qualità della vita e le opportunità economiche per vaste fasce della popolazione mondiale. Le blockchain permissionless, inoltre, possono supportare la creazione di nuovi modelli di governance decentralizzata . Questo tipo di governance, basato su regole predeterminate e trasparenti, permette una gestione più equa e partecipativa delle risorse, senza la necessità di un'autorità centrale. La decentralizzazione del processo decisionale potrebbe portare a una maggiore fiducia da parte degli utenti, specialmente in settori dove la fiducia verso le istituzioni tradizionali è bassa. La ricerca evidenzia che il 60% degli intervistati crede che l'adozione di sistemi di governance basati su blockchain potrebbe migliorare la trasparenza e ridurre la corruzione nelle istituzioni finanziarie. È fondamentale che i policy maker e gli operatori finanziari collaborino strettamente per esplorare le potenzialità delle blockchain pubbliche, senza pregiudizi ma con la consapevolezza delle sfide ancora da affrontare. Solo così si potrà capire se e come queste tecnologie possano contribuire a una finanza più efficiente, inclusiva e sicura. La collaborazione tra settore pubblico e privato sarà cruciale per sviluppare quadri normativi che possano accompagnare l'innovazione senza soffocarla, garantendo al contempo la sicurezza e la protezione degli utenti. Conclusioni L'analisi sull'impatto delle blockchain permissionless nel settore finanziario offre una visione strategica che supera i consueti vantaggi tecnologici e operativi . La neutralità , l' inclusività e la trasparenza di questa tecnologia rappresentano elementi fondamentali per una trasformazione profonda del sistema finanziario. Tuttavia, per comprendere appieno il potenziale strategico delle blockchain permissionless, è essenziale considerare aspetti che vanno oltre la loro semplice implementazione tecnica. Questa innovazione si distingue per la capacità di ridefinire le dinamiche competitive nel settore. Attualmente, le infrastrutture finanziarie operano spesso con modelli di governance centralizzati , che tendono a consolidare posizioni dominanti e a creare vincoli per gli utenti, noti come "costi di lock-in" . Al contrario, l'eliminazione della necessità di intermediari offerta dalle blockchain permissionless introduce un' infrastruttura aperta e condivisa , che stimola la competitività e favorisce l' innovazione . Questo approccio si traduce in una riduzione delle barriere all'ingresso per nuovi operatori e in una democratizzazione dell'accesso ai mercati finanziari su scala globale. Un ulteriore elemento, sebbene meno esplorato, riguarda la possibilità di abilitare forme di governance più inclusive e innovative . Mentre i sistemi tradizionali si basano su decisioni prese in contesti chiusi , l'introduzione di meccanismi di governance decentralizzata nelle blockchain pubbliche consente di coinvolgere una pluralità di attori. L'incremento della trasparenza derivante da questo modello riduce il rischio di decisioni arbitrarie o disallineate rispetto agli interessi di lungo termine dei diversi portatori di interesse . L'adozione di blockchain permissionless, dal punto di vista strategico, rappresenta un cambio paradigmatico più che una semplice scelta tecnologica. La possibilità di creare modelli di business innovativi , basati sull' interoperabilità e sulla "composability" , offre nuove prospettive. Con "composability" si indica la capacità di combinare e integrare servizi e prodotti in modi innovativi, dando vita a ecosistemi modulari e dinamici . Questa caratteristica rende le blockchain permissionless piattaforme abilitanti per un' economia della condivisione e della conoscenza . Nonostante il loro potenziale, permangono sfide significative legate alla scalabilità e alla protezione della privacy . Soluzioni tecnologiche come i layer 2 , strutture aggiuntive costruite sopra la blockchain principale, o le prove a conoscenza zero , che consentono di dimostrare la validità di un'operazione senza rivelarne i dettagli, cercano di affrontare queste problematiche. Tuttavia, per un'adozione su larga scala sarà necessario bilanciare efficienza tecnologica , regolamentazione e fiducia degli utenti . La capacità di soddisfare requisiti rigorosi in termini di sicurezza , prestazioni e conformità normativa sarà determinante, mantenendo al contempo i principi fondamentali di apertura e decentralizzazione . Un'ulteriore riflessione riguarda l' impatto culturale che questa tecnologia può avere sul settore finanziario. Non si tratta solo di implementare una nuova infrastruttura tecnologica, ma di ripensare i valori centrali del sistema finanziario stesso, quali trasparenza , equità e inclusività . L'opportunità di ottimizzare i processi operativi e al contempo rafforzare la fiducia e creare valore sostenibile nel lungo termine per tutti i soggetti coinvolti rappresenta un aspetto cruciale. In un contesto sempre più interconnesso, le blockchain permissionless non rappresentano semplicemente un'opzione tra le tante, ma possono costituire la base per un sistema finanziario più resiliente e democratico . Podcast: https://spotifycreators-web.app.link/e/jLAfRTRs3Ob Fonte: https://op.europa.eu/en/publication-detail/-/publication/cab54e8e-ad3b-11ef-acb1-01aa75ed71a1/language-
- Potential of Permissionless Blockchains in Financial Services
Permissionless blockchains represent an innovative perspective for enhancing the traditional financial infrastructure. This article is based on research conducted by Fabian Schär of the University of Basel and prepared for the European Commission, Directorate-General for Financial Stability, Financial Services and Capital Markets Union. The research was completed in October 2024, with the support of Ivan Keller, Gundars Ostrovskis, Vasiliki Kalimeri, Matthias Nadler, Katrin Schuler, and Dario Thürkauf, and also involved collaboration with the Center for Horizontal Policies B4 for Digital Finance. This article focuses on the fundamental characteristics, potential advantages, and challenges that these technologies can bring to the financial sector, specifically examining how their neutrality, inclusiveness, and transparency can foster interoperability and competition in the global financial market. Introduction to Blockchain Technology Permissionless blockchains are based on a network of distributed nodes that operate without the need for a central authority to ensure trust between parties. This decentralized structure is essential for ensuring that anyone can participate in the network without restrictions, allowing complete neutrality and ensuring transparent access. In permissionless blockchains, every node is equal, and there are no intermediaries that can alter or influence transactions without the consent of the entire network. One of the central elements defining a permissionless blockchain is transaction capacity. The attached research highlights that the capacity to process transactions in permissionless blockchains is, at present, limited compared to traditional financial systems. Blockchains like Bitcoin and Ethereum, for instance, can handle only about 7 and 30 transactions per second, respectively, compared to the tens of thousands of transactions per second processed by centralized networks like Visa. This represents a significant challenge, especially if blockchains are to support global volumes of financial activity. However, innovative techniques such as sharding and Layer 2 protocols (e.g., rollups and state channels) are seeking to improve scalability without compromising network decentralization. Transaction legitimacy is another fundamental aspect. Every transaction must be cryptographically verified to ensure the network's security and integrity. The use of cryptographic signatures ensures that only the holder of a specific private key can authorize a transaction. This legitimacy is managed through two main models: the UTXO (Unspent Transaction Output) model, used by Bitcoin, and the account-based model, adopted by Ethereum. In the UTXO model, every transaction tracks unspent outputs, creating a sort of value chain that increases security and traceability. Conversely, in the account-based model, each account has an associated balance, and the transaction simply reduces the sender's balance and increases the recipient's. Both models have advantages and disadvantages: for example, the UTXO model offers greater privacy, while the account-based model is more intuitive for those familiar with traditional financial systems. To maintain the consistency of the ledger state, the blockchain uses distributed consensus mechanisms, such as Proof of Work (PoW) and Proof of Stake (PoS). PoW, used by Bitcoin, ensures network security by requiring nodes to solve complex mathematical problems, with high energy consumption. PoS, adopted by Ethereum with the transition to Ethereum 2.0, offers a more sustainable alternative, based on token ownership that is staked to participate in the consensus process. Both mechanisms are designed to ensure that the network reaches a common agreement, even in the presence of malicious actors, thus ensuring the integrity and security of the blockchain. Another important aspect of permissionless blockchain is programmability through smart contracts. These contracts allow for the automation of complex operations such as loans, insurance, and derivative transactions without the need for intermediaries. However, the research highlights that these smart contracts are only as secure as the code that defines them. Vulnerabilities in the code can lead to significant security issues, as evidenced by some notable hacking incidents in DeFi (Decentralized Finance) protocols. Furthermore, the blockchain operates on a peer-to-peer (P2P) network infrastructure, where all nodes participate in sharing information without the need for a central server. This increases the network's resilience, as there is no single point of failure that could compromise the entire system. Each node maintains a mempool, which is a queue of transactions waiting to be included in the blockchain. The process of selecting transactions from the mempool is essential to ensure efficiency and fairness in confirming operations. Finally, the concept of consensus on the sequence of transactions is crucial for the functioning of the blockchain. The sequence of transactions can influence their outcome, especially in DeFi applications, where the order of operations can determine the difference between gaining or losing value (a phenomenon known as Maximal Extractable Value - MEV). Solutions to mitigate risks related to MEV include mechanisms for content-agnostic transaction ordering and the adoption of protocols such as proposer-builder separation (PBS). These elements form the technological basis of permissionless blockchains and define their advantages and challenges compared to traditional financial systems. The ultimate goal is to create a more open, transparent, and inclusive financial infrastructure, but continuous innovation in both technology and regulation is necessary to achieve this. Advantages and Features of Permissionless Blockchains One of the main strengths of permissionless blockchains is their programmability. Thanks to smart contracts, it is possible to automate various financial operations, such as executing payments and managing loans. However, the true innovation is not just the ability to program processes but rather the ability to do so on a neutral, shared basis, without the need for trusted intermediaries. This way, potential points of vulnerability are eliminated, and the costs associated with third parties are reduced. Another fundamental aspect of permissionless blockchain is composability, which allows the creation of new financial services and products by leveraging the ability to combine different protocols and assets within the same network. This approach enables the construction of innovative solutions, such as the integration of lending protocols in derivative markets, thereby increasing the flexibility and modularity of the financial ecosystem. According to the research, composability is one of the main factors driving the formation of a dominant base layer, as it allows for the maximization of network effects and the creation of an ecosystem comparable to that of a platform economy. Liquidity is another crucial benefit derived from the use of permissionless blockchains. With the ability to have different assets and numerous protocols available on the same platform, integrating liquidity from different sources becomes simpler and more immediate. This advantage is particularly evident in decentralized exchanges (DEX), where tokenized assets can be exchanged without the need for a centralized intermediary, ensuring faster settlement times and lower transaction costs compared to traditional exchanges. Another distinguishing feature is the atomicity of transactions. Atomicity ensures that all operations in a transaction are executed simultaneously, eliminating the risk of partial failure. This property is particularly useful in the context of complex financial transactions, such as delivery versus payment (DvP) operations, where both parties want to be sure that asset delivery and payment occur simultaneously. Blockchain enables these transactions to be executed in a fully automated and secure manner. Permissionless blockchains also enhance the transparency and neutrality of financial operations. Since every transaction is recorded on a public ledger, it becomes possible to independently verify the validity of transactions and monitor value flows within the network. This level of transparency has been recognized in the research as an important advantage for reducing informational asymmetries and ensuring that no actor can have undue advantages over other participants. Furthermore, the neutrality of permissionless blockchains eliminates the need for intermediaries with the power to discriminate access or impose arbitrary rules, promoting a more equitable and open infrastructure. Finally, the adoption of permissionless blockchains can reduce dependency on centralized infrastructures, thus mitigating risks associated with market power concentration. As highlighted in the research, centralized platforms, if not adequately regulated, can exert excessive power, extract economic rents, and create lock-in problems for users. Permissionless blockchains, on the other hand, promote competition and innovation, allowing the emergence of new players that can help improve the offering of financial services. Challenges: Scalability, Privacy, and Transaction Sequencing Despite the advantages, permissionless blockchains present several challenges that need to be overcome to be used as the foundation for traditional financial services. The first challenge is scalability. Currently, most blockchains struggle to handle large volumes of transactions. Increasing processing capacity without sacrificing decentralization requires innovative solutions, such as implementing layer 2, sharding, and efficiency optimization techniques. According to the research, solutions like optimistic rollups and zk-rollups have been proposed to significantly improve transaction capacity while ensuring security and decentralization. Zk-rollups, in particular, use zero-knowledge proofs to ensure transaction validity without the need to transmit every detail, thus improving both scalability and privacy. Additionally, the implementation of state channels and plasma chains are key strategies for addressing scalability issues. State channels, like those used in Bitcoin's Lightning Network, allow users to make transactions off the main blockchain, limiting the blockchain's use to only the opening and closing of the channel. This significantly reduces the number of transactions that need to be processed on the main blockchain, improving execution speed and reducing transaction costs. A relevant aspect to consider concerns privacy protection. While blockchain transparency is essential to ensure transaction security, it can pose an obstacle for users who require a high degree of confidentiality, especially in the institutional financial sector. According to the research, one of the main problems is excessive transparency, which allows anyone to observe and analyze all transactions, including amounts and counterparties. To address this issue, various privacy-enhancing protocols, such as zk-SNARKs and ring signatures, have been developed. Zk-SNARKs, for example, allow verification of a transaction without revealing specific details, while ring signatures offer a level of anonymity by creating a sort of "mixing" of public keys, making it difficult to trace the transaction's sender. Some projects are exploring the use of fully homomorphic encryption (FHE) to enable computation directly on encrypted data. This approach could be used to ensure user privacy while maintaining the verification and control functionality necessary for regulatory compliance. Another method in development is the use of advanced zero-knowledge proofs, which allow demonstrating the validity of transactions while keeping both the parties involved and the details of the operation anonymous. Finally, transaction sequencing represents an important challenge. Nodes responsible for confirming transactions can benefit from the order of transactions, a phenomenon known as Maximal Extractable Value (MEV). According to the research, MEV occurs when validators manipulate the transaction order to extract additional value, often at the expense of users. To mitigate this problem, mechanisms such as proposer-builder separation (PBS) have been proposed, in which the task of building blocks is separated from that of proposing them, thereby reducing opportunities for manipulation of sequencing. Additionally, the use of timelock encryption and threshold encryption allows temporarily hiding transaction content during selection, ensuring that the validating node cannot improperly influence the order of transactions. Adopting models like PBS could reduce the economies of scale of larger validators, making the value extraction process fairer and supporting decentralization. However, the technical complexity of these mechanisms and the need for coordination among nodes pose additional operational challenges and centralization risks, especially if a small minority of actors manage to dominate the block builder market. These challenges, although significant, also represent opportunities to improve the technological infrastructure and security of permissionless blockchains, making them increasingly suitable to support complex financial services in an open and decentralized environment. Future Opportunities Permissionless blockchains offer a unique opportunity to create a more open, transparent, and competitive financial infrastructure. However, a prudent and gradual approach is needed to introduce these technologies in regulated environments, starting with limited experiments that allow evaluating their effectiveness and security. For example, issuing securities for small and medium-sized enterprises on a public blockchain could represent a concrete first step towards integrating this technology into traditional financial markets. According to the attached research, one of the main opportunities for permissionless blockchains lies in their ability to reduce reconciliation and settlement costs. In traditional financial systems, settlement operations can be slow and expensive, often requiring numerous steps between different entities. Blockchain, with its ability to guarantee transaction finality in an automatic and verifiable manner, could break down these barriers, reducing not only costs but also settlement times. The research estimates that the use of blockchains could potentially reduce operational costs by up to 30%, improving the system's overall efficiency. Moreover, blockchain could facilitate the integration of different financial systems, enhancing interoperability between various markets and platforms. Currently, many financial services operate in isolation, with little interoperability between different providers. Integration on a public blockchain could enable the creation of a global network that allows the secure and transparent sharing of financial information between different institutions, fostering greater competition and reducing costs for end-users. According to the research data, improving interoperability could lead to a 15-20% increase in cross-border transaction volumes by 2030. Another significant opportunity concerns the use of blockchains for the tokenization of traditional assets. This process allows representing assets such as real estate, equity, or bonds digitally on a blockchain, making their transfer easier and increasing liquidity. The research highlights how asset tokenization could create new financing opportunities for small and medium-sized enterprises (SMEs), which could leverage decentralized capital markets to obtain funding with fewer barriers than traditional channels. Estimates suggest that the tokenization market could reach a value of 16 trillion dollars by 2030, thanks to greater accessibility and reduced entry barriers. In terms of financial inclusion, permissionless blockchains offer an unprecedented opportunity to expand access to financial services, especially in less developed regions. Since they do not require traditional intermediaries, they can enable millions of unbanked people to participate in a global economic system, providing access to loans, savings, insurance, and investments. This is particularly relevant in developing countries, where barriers to accessing financial services are often insurmountable. According to the research, blockchains could help reduce the number of unbanked individuals by over 1.7 billion by 2030, improving quality of life and economic opportunities for large segments of the world population. Permissionless blockchains can also support the creation of new models of decentralized governance. This type of governance, based on predetermined and transparent rules, allows for more equitable and participatory resource management without the need for a central authority. Decentralizing the decision-making process could lead to greater trust from users, especially in sectors where trust in traditional institutions is low. The research highlights that 60% of respondents believe that adopting blockchain-based governance systems could improve transparency and reduce corruption in financial institutions. It is essential that policymakers and financial operators work closely together to explore the potential of public blockchains, without prejudice but with awareness of the challenges that still need to be addressed. Only in this way will it be possible to understand whether and how these technologies can contribute to more efficient, inclusive, and secure finance. Collaboration between the public and private sectors will be crucial to developing regulatory frameworks that can accompany innovation without stifling it, while ensuring user safety and protection. Conclusions The analysis of the impact of permissionless blockchains on the financial sector offers a strategic vision that goes beyond the usual technological and operational advantages. The neutrality, inclusiveness, and transparency of this technology are fundamental elements for a profound transformation of the financial system. However, to fully understand the strategic potential of permissionless blockchains, it is essential to consider aspects that go beyond their simple technical implementation. This innovation stands out for its ability to redefine competitive dynamics in the sector. Currently, financial infrastructures often operate with centralized governance models that tend to consolidate dominant positions and create lock-in costs for users. In contrast, the elimination of the need for intermediaries offered by permissionless blockchains introduces an open and shared infrastructure that stimulates competitiveness and promotes innovation. This approach results in reduced entry barriers for new operators and democratizes access to financial markets on a global scale. Another element, although less explored, concerns the possibility of enabling more inclusive and innovative forms of governance. While traditional systems rely on decisions made in closed environments, the introduction of decentralized governance mechanisms in public blockchains allows for the involvement of a plurality of actors. The increased transparency derived from this model reduces the risk of arbitrary decisions or those misaligned with the long-term interests of various stakeholders. The adoption of permissionless blockchains, from a strategic perspective, represents a paradigm shift rather than just a technological choice. The possibility of creating innovative business models, based on interoperability and composability, offers new perspectives. Composability refers to the ability to combine and integrate services and products in innovative ways, giving rise to modular and dynamic ecosystems. This characteristic makes permissionless blockchains enabling platforms for a sharing and knowledge economy. Despite their potential, significant challenges remain concerning scalability and privacy protection. Technological solutions such as layer 2, additional structures built on top of the main blockchain, or zero-knowledge proofs, which allow proving the validity of an operation without revealing its details, seek to address these issues. However, large-scale adoption will require balancing technological efficiency, regulation, and user trust. The ability to meet stringent requirements in terms of security, performance, and regulatory compliance will be decisive, while maintaining the fundamental principles of openness and decentralization. An additional reflection concerns the cultural impact that this technology can have on the financial sector. It is not just about implementing new technological infrastructure but rethinking the core values of the financial system itself, such as transparency, equity, and inclusiveness. The opportunity to optimize operational processes while strengthening trust and creating long-term sustainable value for all stakeholders is a crucial aspect. In an increasingly interconnected world, permissionless blockchains do not simply represent an option among many but can form the basis for a more resilient and democratic financial system. Podcast: https://spotifycreators-web.app.link/e/SAUZTzms3Ob Source: https://op.europa.eu/en/publication-detail/-/publication/cab54e8e-ad3b-11ef-acb1-01aa75ed71a1/language-en
- Sfide e opportunità nella produzione di sistemi di Intelligenza Artificiale Generativa
L'adozione dell'intelligenza artificiale generativa sta accelerando rapidamente, ma il passaggio da sperimentazioni limitate a implementazioni in produzione è tutt'altro che semplice. Un recente sondaggio condotto da MIT Technology Review Insights ad agosto 2024 ha evidenziato le sfide e le decisioni che le organizzazioni devono affrontare durante la transizione verso l'uso pratico di questi strumenti. Con 250 dirigenti provenienti da una vasta gamma di settori intervistati, emergono dati significativi sull'attuale panorama e sulle difficoltà operative delle aziende. L'adozione dell’Intelligenza Artificiale Generativa. Una crescita impetuosa L'intelligenza artificiale generativa è esplosa dopo l'introduzione di ChatGPT nel novembre 2022, con aziende di tutto il mondo che hanno iniziato ad esplorare modelli di grandi dimensioni (LLM) per risolvere problemi complessi e laboriosi. Oltre alla capacità di risolvere problemi tecnici complessi, l'AI generativa offre anche la possibilità di automatizzare processi ripetitivi e di gestire una mole di dati non strutturati, come video e documenti PDF. Queste funzionalità hanno attratto un massiccio interesse da parte delle aziende, desiderose di sfruttare queste tecnologie per ottenere vantaggi competitivi e migliorare l'efficienza operativa. Secondo il sondaggio condotto da MIT Technology Review Insights, la produttività stimata derivante dall'adozione di AI generativa potrebbe avere un impatto comparabile a quello delle principali innovazioni storiche, come Internet, l'automazione robotica e la macchina a vapore. Le proiezioni parlano di un impatto sul PIL globale che varia da appena sotto il trilione di dollari fino a ben 4,4 trilioni di dollari l'anno. Questa ampia forbice di stime riflette la variabilità nelle modalità di implementazione dell'AI e nelle capacità delle aziende di adattare i loro modelli operativi. Il sondaggio ha inoltre evidenziato che, mentre il 79% delle aziende aveva in programma di adottare progetti di AI generativa nel prossimo anno, solo il 5% era riuscito a mettere in produzione effettivi casi d'uso entro maggio 2024. Questo ritardo è attribuibile alle difficoltà operative e alla necessità di superare le sfide legate alla qualità degli output, all'integrazione nei sistemi esistenti e agli elevati costi di inferenza e addestramento dei modelli. Oltre alle difficoltà tecniche, è emersa anche una questione di fiducia nell'efficacia delle applicazioni. Due terzi dei leader aziendali intervistati hanno dichiarato di sentirsi ambivalenti o insoddisfatti dei progressi compiuti finora, citando come causa principale la complessità e il costo della messa in produzione. Molte aziende stanno quindi cercando di costruire uno stack tecnologico solido che possa supportare vari modelli base, strumenti di integrazione avanzati e soluzioni di orchestrazione, per facilitare l'adozione dell'AI generativa su larga scala. Sfide operative e complessità dell'implementazione Tra le principali sfide segnalate dai leader aziendali, la qualità dell'output dell'AI è fonte di preoccupazione per il 72% degli intervistati. Inoltre, il 62% ha segnalato difficoltà nell'integrazione con le infrastrutture esistenti, mentre il 58% ha citato i costi elevati sia per l'inferenza che per l'addestramento dei modelli. La latenza è un altro problema cruciale: il 56% delle aziende ha difficoltà a ridurre i tempi di risposta dei sistemi, particolarmente in scenari di utilizzo con elevata interazione in tempo reale. Un altro problema spesso citato riguarda la gestione del contesto da parte dei modelli generativi. Harrison Chase, co-fondatore e CEO di LangChain, ha evidenziato che una delle maggiori difficoltà è fornire il contesto giusto al modello, soprattutto quando si tratta di collegare i risultati di un modello LLM a una serie di dati specifici. Un “livello di orchestrazione” efficace è necessario per convogliare il contesto adeguato e assicurare che le risposte siano rilevanti e accurate. Tuttavia, fornire un maggiore contesto ai modelli spesso implica un aumento dei costi, il che rende cruciale trovare un equilibrio tra la qualità delle risposte e l'efficienza economica. I costi di addestramento e inferenza sono una delle sfide più rilevanti: circa il 58% delle aziende ha segnalato che i costi per eseguire i modelli sono ancora troppo elevati, in particolare per applicazioni che richiedono un'elevata scalabilità. Il costo per token, come evidenziato da Rowan Trollope di Redis, è un parametro chiave per ottimizzare l'efficienza dei modelli: ridurre il costo per token può rendere più conveniente l'inferenza su larga scala, permettendo alle aziende di ottenere maggiore valore dall'implementazione dell'AI. Anche la difficoltà di quantificare il ritorno sugli investimenti (ROI) rappresenta una barriera all'adozione. Secondo il sondaggio, il 48% delle aziende sta cercando di utilizzare indicatori chiave di performance (KPI) per valutare i propri progetti di AI, mentre il 38% ha sviluppato framework specifici per valutare l'impatto dell'AI generativa. Tuttavia, la mancanza di metodi standardizzati e la complessità intrinseca del calcolo del ROI rallentano il processo decisionale. Molte organizzazioni esitano a investire ulteriormente in AI senza una chiara evidenza del valore generato. Un'altra sfida significativa è rappresentata dalla scalabilità. Mentre il 51% delle aziende ha menzionato difficoltà nel far fronte alla crescente domanda e nel garantire che i sistemi possano gestire un numero sempre maggiore di utenti, la latenza diventa una problematica strettamente connessa. Ogni nuovo componente del sistema aggiunge latenza e ciò può compromettere l'esperienza utente. La latenza è particolarmente critica nelle applicazioni di AI generativa in tempo reale, come le interfacce vocali, dove anche pochi millisecondi di ritardo possono influire negativamente sull'interazione. Sistemi AI compositi: una possibile soluzione Per affrontare queste sfide, molte aziende stanno esplorando sistemi di intelligenza artificiale compositi o “compound AI”, che uniscono diversi modelli e tecnologie AI per gestire compiti complessi in modo più efficiente. Secondo il sondaggio, il 54% delle aziende utilizza già agenti AI, e un altro 29% prevede di farlo in futuro. I sistemi compositi possono ridurre i costi segmentando il lavoro tra modelli più economici in determinate fasi del processo, migliorando al contempo la performance complessiva. Un aspetto centrale per la creazione di sistemi AI compositi è l'uso di catene multi-step, che permette di suddividere un'attività complessa in una serie di passaggi più semplici e specializzati. Secondo il sondaggio, il 50% delle aziende ha già implementato catene multi-step nelle loro applicazioni di AI generativa, e un ulteriore 18% ha pianificato di farlo. Questo approccio consente di utilizzare modelli specializzati per singole fasi del processo, riducendo i costi e migliorando l'efficienza complessiva del sistema. Un altro elemento chiave è il semantic routing, che permette di instradare le richieste dell'utente verso lo strumento più appropriato, che potrebbe essere un altro modello di AI o persino un intervento umano. Questo tipo di routing consente di ottimizzare l'uso delle risorse disponibili, evitando di sovraccaricare modelli costosi per compiti che possono essere gestiti in maniera più economica. L'adozione di componenti come il Retrieval-Augmented Generation (RAG) è un esempio dell'approccio composito in azione. RAG combina la capacità generativa di un modello con la ricerca attraverso database aziendali o documenti, migliorando la pertinenza e la qualità delle risposte. Attualmente, il 38% delle aziende utilizza questa tecnica e un ulteriore 29% ha pianificato di implementarla. Un altro elemento tecnologico che supporta i sistemi compositi è l'utilizzo delle cache semantiche e dei database vettoriali. Le cache semantiche, che sono adottate dal 32% delle aziende, aiutano a raggruppare e memorizzare risposte a richieste simili per ridurre i costi di inferenza. I database vettoriali, adottati dal 37% delle aziende, sono invece fondamentali per memorizzare e cercare rappresentazioni complesse di dati e domande in formato vettoriale, ottimizzando così la capacità di recupero delle informazioni. Strategie per costruire uno Stack AI adattabile Per costruire uno stack AI adattabile, le aziende devono affrontare diverse sfide strategiche e operative. Un passo fondamentale è la scelta del modello o dei modelli su cui basare le applicazioni: il 67% delle aziende ha optato per modelli chiusi di terze parti, come quelli offerti da OpenAI, mentre il 42% delle aziende ha scelto modelli open-source su cloud. La preferenza per l'open-source sta crescendo, anche perché consente una maggiore flessibilità e controllo sui costi e la sicurezza. L'adozione di modelli open-source on-premise è un'opzione valutata dal 41% delle aziende intervistate: il 17% le utilizza già, mentre un altro 24% ha intenzione di implementarle in futuro. Questa soluzione può offrire alle aziende un maggiore controllo sui dati e una riduzione dei costi di licenza associati ai modelli commerciali. Un altro elemento cruciale per costruire uno stack AI adattabile è l'integrazione delle tecnologie esistenti e delle nuove soluzioni di AI. Secondo il sondaggio, l'utilizzo di API standardizzate, come quelle offerte da Redis e LangChain, permette alle aziende di scambiare e sostituire facilmente i componenti del loro stack, garantendo una maggiore flessibilità operativa. Le API standard aiutano a superare le differenze tra i parametri dei vari modelli e facilitano l'integrazione di nuovi strumenti. Un'altra considerazione importante è la gestione della latenza nei sistemi compositi, soprattutto per applicazioni che richiedono risposte in tempo reale. Per superare questo problema, è essenziale adottare una piattaforma di dati ad alta velocità in grado di supportare modelli che rispondano rapidamente, minimizzando i tempi di attesa degli utenti. Rowan Trollope di Redis ha sottolineato che “la latenza è il nuovo downtime”: la velocità di risposta diventa un fattore determinante per l'adozione su larga scala e il successo delle applicazioni di AI generativa. La complessità e i costi di implementazione restano barriere significative, ma l'adozione di tecnologie come cache semantiche e database vettoriali offre un'opportunità per migliorare l'efficienza complessiva. Questi strumenti possono ridurre il carico sui modelli più costosi, aumentando la rapidità e la pertinenza delle risposte, e sono già adottati da una parte consistente delle aziende intervistate. In conclusione, per costruire uno stack AI adattabile, è fondamentale bilanciare l'efficienza dei costi, la gestione della latenza e la flessibilità operativa. Perché i progetti AI aziendali falliscono e come invertire la tendenza Nonostante il potenziale trasformativo dell'intelligenza artificiale, una percentuale significativa di progetti AI aziendali non raggiunge i risultati desiderati. Stime recenti indicano che oltre l'80% dei progetti AI aziendali fallisce, un tasso doppio rispetto ai progetti IT tradizionali. Questa elevata percentuale di fallimenti riflette le difficoltà che molte aziende incontrano nel passare dalla sperimentazione a progetti realmente funzionanti e in produzione. Secondo lo studio "The Root Causes of Failure for Artificial Intelligence Projects and How They Can Succeed" di James Ryseff, Brandon De Bruhl e Sydne J. Newberry, sono state identificate cinque cause principali di fallimento dei progetti AI, emerse attraverso interviste con 65 data scientist e ingegneri del settore. La causa più frequentemente indicata è l'incapacità della leadership aziendale di definire correttamente gli obiettivi del progetto. Una mancanza di visione strategica, unita a una scarsa comprensione delle capacità reali dell'AI, porta spesso a iniziative che non soddisfano le aspettative. Un'altra causa rilevante riguarda la qualità dei dati. Senza dati accurati, completi e pertinenti, anche i migliori modelli di AI falliscono nel fornire risultati affidabili. La carenza di dati adeguati è stata citata da oltre la metà degli intervistati come una delle principali ragioni di insuccesso. Questo problema è spesso accompagnato da una scarsa considerazione per l'ingegneria dei dati, vista come un'attività di minor valore rispetto allo sviluppo dei modelli. Altri fattori di fallimento includono la mancanza di infrastrutture adeguate a supportare il team di sviluppo, errori operativi commessi dai membri del team stesso, e limiti intrinseci delle capacità della tecnologia AI. Gli intervistati hanno inoltre evidenziato come un coinvolgimento inadeguato della leadership nei dettagli operativi e nelle decisioni tecniche contribuisca a un allineamento carente tra gli obiettivi aziendali e le soluzioni AI sviluppate. Per invertire questa tendenza, le organizzazioni devono adottare un approccio più olistico e strategico. È fondamentale che la leadership aziendale sia coinvolta attivamente nel processo, garantendo che gli obiettivi del progetto siano chiari e realistici. I leader devono collaborare strettamente con il team di sviluppo per tradurre questi obiettivi in requisiti tecnici concreti e realizzabili. Inoltre, investire in infrastrutture solide e in ingegneri del machine learning (ML) competenti è essenziale per superare i problemi legati alla qualità dei dati e garantire la corretta implementazione dei modelli. Una chiara comprensione delle reali capacità e limiti dell'AI, unita a un impegno a lungo termine, può contribuire a trasformare i progetti AI da esperimenti falliti in successi concreti, in grado di apportare un reale valore alle organizzazioni. Conclusioni L’intelligenza artificiale generativa rappresenta una rivoluzione tecnologica dal potenziale straordinario, ma il suo pieno sfruttamento richiede un ripensamento profondo delle strategie aziendali e operative. Le imprese si trovano oggi di fronte a una duplice sfida: da un lato, cogliere le opportunità offerte da questa innovazione per migliorare l’efficienza e generare valore; dall’altro, superare barriere tecniche, economiche e culturali che ne ostacolano l’implementazione su larga scala. Questa dualità rivela un punto cruciale: l’adozione dell’AI generativa non è una semplice evoluzione tecnologica, ma un catalizzatore per un cambiamento sistemico. Un aspetto chiave è la necessità di ripensare l’infrastruttura digitale aziendale. L’approccio tradizionale, caratterizzato da sistemi monolitici e statici, non è più adeguato a supportare tecnologie che richiedono adattabilità, scalabilità e un uso ottimale delle risorse. L’emergere di soluzioni composite e modulari, come le catene multi-step, il semantic routing e l’utilizzo di database vettoriali, segna il passaggio a una visione in cui la flessibilità è il fulcro dell’efficienza. Le aziende devono imparare a segmentare i processi, distribuire i carichi e ottimizzare i costi, trasformando la complessità in un’opportunità per ottenere vantaggi competitivi. Un’altra lezione fondamentale riguarda il rapporto tra innovazione e ROI. Le difficoltà nel misurare l’impatto economico dell’AI generativa non sono semplicemente un ostacolo tecnico, ma un sintomo di una lacuna più ampia: l’incapacità di molte imprese di riconoscere e valorizzare i benefici intangibili dell’innovazione. Velocità decisionale, personalizzazione su larga scala e miglioramento dell’esperienza utente non sono facilmente quantificabili, ma possono determinare il successo in mercati sempre più competitivi. Le aziende che sapranno sviluppare metodi innovativi per misurare il valore generato dall’AI generativa avranno un vantaggio decisivo. La fiducia emerge come un altro pilastro strategico. Il fatto che molti leader aziendali si dichiarino ambivalenti o insoddisfatti dei progressi nell’implementazione dell’AI generativa sottolinea una problematica culturale oltre che tecnologica. La costruzione della fiducia non può limitarsi alla qualità degli output: deve includere trasparenza sui costi, prevedibilità dei risultati e un approccio etico nell’uso dei dati. In un’epoca in cui la reputazione aziendale è sempre più legata alla gestione responsabile della tecnologia, l’adozione di modelli open-source e soluzioni on-premise rappresenta non solo una scelta tecnica, ma anche una dichiarazione di intenti. Infine, la velocità diventa un fattore critico. In un contesto dove la latenza è “il nuovo downtime”, come affermato da Rowan Trollope, la capacità di rispondere rapidamente alle esigenze degli utenti non è solo una questione tecnica, ma un fattore che influenza direttamente la percezione del valore da parte dei clienti. Investire in infrastrutture che riducano la latenza e aumentino la resilienza operativa non è un costo, ma un investimento strategico che può differenziare le aziende in mercati saturi. In sintesi, l’adozione dell’AI generativa è molto più di una questione tecnologica: è una sfida strategica che richiede nuove competenze, nuove metriche e una visione olistica dell’innovazione. Podcast: https://spotifycreators-web.app.link/e/hIsr6mgd2Ob Fonte: https://www.technologyreview.com/2024/12/02/1106689/moving-generative-ai-into-production/
- Challenges and Opportunities in Deploying Generative AI Systems
The adoption of generative artificial intelligence is accelerating rapidly, but moving from limited experimentation to production deployment is far from simple. A recent survey conducted by MIT Technology Review Insights in August 2024 highlighted the challenges and decisions organizations face during the transition to practical use of these tools. With 250 executives from a wide range of industries interviewed, significant insights emerge into the current landscape and the operational difficulties companies are experiencing. The Adoption of Generative AI Systems. Rapid Growth Generative artificial intelligence has exploded following the introduction of ChatGPT in November 2022, with companies worldwide beginning to explore large language models (LLMs) to solve complex and labor-intensive problems. Beyond the ability to solve complex technical issues, generative AI also offers the potential to automate repetitive processes and handle unstructured data, such as videos and PDF documents. These capabilities have attracted massive interest from companies eager to leverage these technologies to gain competitive advantages and improve operational efficiency. According to the survey conducted by MIT Technology Review Insights, the estimated productivity gains from adopting generative AI could have an impact comparable to major historical innovations, such as the internet, robotic automation, and the steam engine. Projections suggest an impact on global GDP ranging from just under a trillion dollars to as much as $4.4 trillion annually. This broad range of estimates reflects the variability in the ways AI is implemented and the ability of companies to adapt their operating models. The survey also highlighted that while 79% of companies planned to adopt generative AI projects within the next year, only 5% had managed to put actual use cases into production by May 2024. This delay is attributed to operational difficulties and the need to overcome challenges related to output quality, integration into existing systems, and high inference and training costs. In addition to technical difficulties, trust in the effectiveness of applications also emerged as an issue. Two-thirds of the business leaders interviewed stated that they felt ambivalent or dissatisfied with the progress made so far, citing the complexity and cost of production deployment as the primary reasons. Many companies are therefore trying to build a solid technology stack that can support various foundational models, advanced integration tools, and orchestration solutions to facilitate the large-scale adoption of generative AI. Operational Challenges and Implementation Complexity Among the main challenges reported by business leaders, the quality of AI output is a concern for 72% of respondents. Additionally, 62% reported difficulties in integrating with existing infrastructures, while 58% cited high costs for both inference and model training. Latency is another crucial issue: 56% of companies struggle to reduce response times, particularly in high-interaction, real-time usage scenarios. Another frequently cited problem concerns the management of context by generative models. Harrison Chase, co-founder and CEO of LangChain, emphasized that one of the biggest challenges is providing the right context to the model, especially when linking the results of an LLM to a specific dataset. An effective “orchestration layer” is needed to convey the appropriate context and ensure that responses are relevant and accurate. However, providing greater context to models often implies increased costs, making it crucial to find a balance between response quality and economic efficiency. Training and inference costs are among the most significant challenges: about 58% of companies reported that the costs of running models are still too high, especially for applications requiring high scalability. The cost per token, as highlighted by Rowan Trollope of Redis, is a key parameter for optimizing model efficiency: reducing the cost per token can make large-scale inference more affordable, allowing companies to derive greater value from AI deployment. The difficulty of quantifying return on investment (ROI) also represents a barrier to adoption. According to the survey, 48% of companies are trying to use key performance indicators (KPIs) to evaluate their AI projects, while 38% have developed specific frameworks to assess the impact of generative AI. However, the lack of standardized methods and the inherent complexity of calculating ROI slow down decision-making processes. Many organizations hesitate to invest further in AI without clear evidence of the value generated. Scalability is another significant challenge. While 51% of companies mentioned difficulties in keeping up with growing demand and ensuring systems can handle an increasing number of users, latency becomes a closely related problem. Each new system component adds latency, which can compromise the user experience. Latency is particularly critical in real-time generative AI applications, such as voice interfaces, where even a few milliseconds of delay can negatively impact interaction. Composite AI Systems: A Possible Solution To address these challenges, many companies are exploring composite artificial intelligence systems or “compound AI,” which combine different models and AI technologies to manage complex tasks more efficiently. According to the survey, 54% of companies already use AI agents, and another 29% plan to do so in the future. Composite systems can reduce costs by segmenting work among cheaper models at certain stages of the process while simultaneously improving overall performance. A central aspect of creating composite AI systems is the use of multi-step chains, which allows a complex task to be divided into a series of simpler, specialized steps. According to the survey, 50% of companies have already implemented multi-step chains in their generative AI applications, and an additional 18% plan to do so. This approach enables the use of specialized models for individual phases of the process, reducing costs and improving overall system efficiency. Another key element is semantic routing, which allows user requests to be directed to the most appropriate tool, which could be another AI model or even a human intervention. This type of routing optimizes the use of available resources, avoiding overloading costly models for tasks that can be handled more economically. The adoption of components such as Retrieval-Augmented Generation (RAG) is an example of the composite approach in action. RAG combines a model’s generative capability with searches through corporate databases or documents, improving the relevance and quality of responses. Currently, 38% of companies use this technique, and another 29% plan to implement it. Another technological element supporting composite systems is the use of semantic caches and vector databases. Semantic caches, adopted by 32% of companies, help group and store responses to similar requests to reduce inference costs. Vector databases, adopted by 37% of companies, are essential for storing and searching complex representations of data and questions in vector format, thereby optimizing the ability to retrieve information. Strategies for Building an Adaptable AI Stack To build an adaptable AI stack, companies must address various strategic and operational challenges. A fundamental step is choosing the model or models on which to base applications: 67% of companies have opted for third-party closed models, such as those offered by OpenAI, while 42% have chosen open-source models on the cloud. The preference for open source is growing, partly because it allows greater flexibility and control over costs and security. The adoption of on-premises open-source models is an option considered by 41% of the companies surveyed: 17% already use them, while another 24% plan to implement them in the future. This solution can offer companies greater control over data and reduced licensing costs associated with commercial models. Another crucial element for building an adaptable AI stack is integrating existing technologies with new AI solutions. According to the survey, using standardized APIs, such as those offered by Redis and LangChain, allows companies to easily exchange and replace components within their stack, ensuring greater operational flexibility. Standard APIs help overcome differences between model parameters and facilitate the integration of new tools. Another important consideration is latency management in composite systems, especially for applications requiring real-time responses. To overcome this issue, it is essential to adopt a high-speed data platform capable of supporting models that respond quickly, minimizing user wait times. Rowan Trollope of Redis emphasized that “latency is the new downtime”: response speed becomes a determining factor for large-scale adoption and the success of generative AI applications. The complexity and costs of implementation remain significant barriers, but the adoption of technologies such as semantic caches and vector databases offers an opportunity to improve overall efficiency. These tools can reduce the load on more expensive models, increasing the speed and relevance of responses and are already adopted by a substantial portion of the surveyed companies. In conclusion, building an adaptable AI stack requires balancing cost efficiency, latency management, and operational flexibility. Why Enterprise AI Projects Fail and How to Reverse the Trend Despite the transformative potential of artificial intelligence, a significant percentage of enterprise AI projects fail to achieve the desired outcomes. Recent estimates indicate that over 80% of enterprise AI projects fail, a rate twice that of traditional IT projects. This high failure rate reflects the difficulties many companies encounter in transitioning from experimentation to truly functional and production-ready projects. According to the study “The Root Causes of Failure for Artificial Intelligence Projects and How They Can Succeed” by James Ryseff, Brandon De Bruhl, and Sydne J. Newberry, five main causes of AI project failure were identified through interviews with 65 data scientists and engineers in the industry. The most frequently cited cause is the inability of corporate leadership to properly define project goals. A lack of strategic vision, combined with a poor understanding of AI’s actual capabilities, often leads to initiatives that fail to meet expectations. Another significant cause relates to data quality. Without accurate, complete, and relevant data, even the best AI models fail to provide reliable results. The lack of adequate data was cited by more than half of the respondents as one of the main reasons for failure. This issue is often accompanied by a lack of appreciation for data engineering, which is seen as a less valuable activity compared to model development. Other factors contributing to failure include a lack of adequate infrastructure to support the development team, operational errors by team members, and the intrinsic limitations of AI technology capabilities. Respondents also highlighted how inadequate leadership involvement in operational details and technical decisions contributes to poor alignment between business goals and the AI solutions developed. To reverse this trend, organizations must adopt a more holistic and strategic approach. It is crucial that corporate leadership is actively involved in the process, ensuring that project goals are clear and realistic. Leaders must work closely with the development team to translate these goals into concrete and achievable technical requirements. Moreover, investing in solid infrastructure and competent machine learning (ML) engineers is essential to overcome data quality issues and ensure proper model implementation. A clear understanding of AI’s real capabilities and limitations, combined with a long-term commitment, can help turn AI projects from failed experiments into tangible successes that bring real value to organizations. Conclusions Generative artificial intelligence represents a technological shift with extraordinary potential, but its full exploitation requires a profound rethinking of business and operational strategies. Companies today face a dual challenge: on the one hand, seizing the opportunities offered by this innovation to improve efficiency and generate value; on the other, overcoming technical, economic, and cultural barriers that hinder large-scale implementation. This duality reveals a crucial point: the adoption of generative AI is not a simple technological evolution, but a catalyst for systemic change. A key aspect is the need to rethink the corporate digital infrastructure. The traditional approach, characterized by monolithic and static systems, is no longer adequate to support technologies that require adaptability, scalability, and optimal resource utilization. The emergence of composite and modular solutions, such as multi-step chains, semantic routing, and the use of vector databases, marks the transition to a vision where flexibility is the core of efficiency. Companies must learn to segment processes, distribute loads, and optimize costs, turning complexity into an opportunity to gain competitive advantages. Another fundamental lesson concerns the relationship between innovation and ROI. The difficulties in measuring the economic impact of generative AI are not merely a technical obstacle, but a symptom of a broader gap: the inability of many companies to recognize and value the intangible benefits of innovation. Decision-making speed, large-scale personalization, and improved user experience are not easily quantifiable, but they can determine success in increasingly competitive markets. Companies that develop innovative methods for measuring the value generated by generative AI will have a decisive advantage. Trust emerges as another strategic pillar. The fact that many business leaders declare themselves ambivalent or dissatisfied with the progress in implementing generative AI underscores a cultural as well as technological problem. Building trust cannot be limited to output quality: it must include transparency on costs, predictability of outcomes, and an ethical approach to data use. In an era where corporate reputation is increasingly linked to responsible technology management, the adoption of open-source models and on-premises solutions is not only a technical choice but also a statement of intent. Finally, speed becomes a critical factor. In a scenario where latency is “the new downtime,” as stated by Rowan Trollope, the ability to respond quickly to user needs is not just a technical issue, but a factor that directly influences the perceived value by customers. Investing in infrastructure that reduces latency and increases operational resilience is not a cost but a strategic investment that can differentiate companies in saturated markets. In summary, adopting generative AI is much more than a technological issue: it is a strategic challenge that requires new skills, new metrics, and a holistic vision of innovation. Podcast: https://spotifycreators-web.app.link/e/RWIb8ogd2Ob Source: https://www.technologyreview.com/2024/12/02/1106689/moving-generative-ai-into-production/
- Boston Consulting Group. The AI Maturity Map
In November 2024, the Boston Consulting Group presented a global vision of artificial intelligence (AI) maturity across 73 world economies through its new "AI Maturity Matrix." This study not only analyzes which economies are ready to leverage AI, but also identifies six distinct archetypes of AI development and economic potential. The matrix assesses each economy on two fundamental axes: exposure to AI-driven transformations and readiness to manage and utilize them. Let's explore the key findings. The Leading Economies for AI Maturity Among the 73 economies examined, only five were identified as "AI Pioneers": Canada, China, Singapore, the United Kingdom, and the United States. These countries have reached a high level of readiness by combining key elements such as investments and infrastructure to turn the potential disruptions caused by AI into a competitive advantage. Advanced AI adoption in these countries is driven by robust technological infrastructure, significant research and innovation capacity, and continuous investment in specialized training. The United States and Singapore stand out for their AI talent pools, which are crucial for driving innovation. China, on the other hand, leads in the production of patents and academic papers related to AI. The United States demonstrates an excellent ability to attract private investment in AI-related startups. With a total of over 200 unicorns in the tech sector, the United States also leads the global market for AI-focused venture capital, representing about 50% of total investments in the sector. This flow of investment not only supports existing startups but also creates a fertile environment for new companies developing advanced AI solutions. Furthermore, the presence of some of the world's top universities, such as MIT and Stanford, ensures a steady supply of highly qualified talent. Singapore, despite its relatively small size, has shown remarkable efficiency in implementing a national AI strategy, investing over 743 million dollars in a five-year plan to consolidate its position as a global hub for business and innovation. This investment has been accompanied by government initiatives such as the TechSkills Accelerator, which has trained more than 230,000 people since 2016, increasing the local talent pool and attracting international experts through programs like ONE Pass and Tech@SG. Singapore also established the Centre for Frontier AI Research (CFAR) to support the research and development of advanced AI technologies on a national scale. Mainland China, on the other hand, has adopted an aggressive approach to AI adoption, focusing on strategic sectors such as consumer electronics, surveillance, and autonomous vehicles. China leads the world in AI-related patents, registering over 150,000 patents in recent years, surpassing the United States and Europe. This commitment has also been supported by massive government investments in technological infrastructure, such as the establishment of world-class supercomputing centers and the enhancement of telecommunications networks. China is also a leader in publishing AI-related academic papers, with output accounting for 27% of all global publications in this field. The United Kingdom is one of the main AI hubs in Europe, thanks to a combination of favorable policies, access to capital, and a strong network of leading universities such as the University of Cambridge and Imperial College London. The country has developed a national strategy that includes funding centers of excellence for AI, aiming to expand AI use in sectors such as healthcare and finance. Furthermore, the UK government has allocated around 1.2 billion pounds to support AI, also focusing on developing a regulatory framework to ensure the safe and ethical use of technology. Canada stands out for its inclusive and sustainable approach to AI research and adoption. With the Pan-Canadian AI Strategy, Canada was one of the first countries to outline a national strategic plan for AI, investing 125 million dollars to support development and research in its major tech cities: Toronto, Montreal, and Vancouver. This has led to the creation of a strong research ecosystem, with leading institutes such as the Vector Institute and Mila attracting talent from around the world. Canada has also placed a strong emphasis on ethics and transparency in AI use, contributing to the development of international guidelines for responsible technology adoption. The analysis shows that these countries are not only investing significantly in research and development but are also establishing specific AI regulatory codes, such as Singapore's "Model AI Governance Framework," which ensures the ethical use of AI. Such an approach allows them to maintain a leadership position, influence the global AI ecosystem, and set international standards. AI Contenders and Practitioners Right after the leaders, we find the "AI Contenders" and "AI Practitioners," two categories that include economies like Germany, Japan, India, Malaysia, Saudi Arabia, and Indonesia. The "Contenders" are characterized by high readiness but relatively less exposure to AI compared to the "Pioneers." This means that while they are ready to adopt AI, not all their industries are sufficiently exposed to the benefits of this technology. Germany is an emblematic example of a "Steady Contender." With strong exposure to the financial services and advanced manufacturing sectors, Germany has benefited from a solid industrial base and a long-term technology innovation strategy. The German government has invested significant resources in developing tech hubs and facilitated collaboration between universities, private companies, and research institutes. The robust telecommunications infrastructure and access to advanced technologies have enabled Germany to position itself among the leading European technological players. Japan, known for its industrial innovation capability, has focused its efforts on applying AI in sectors such as robotics and manufacturing. The Japanese government has launched strategic plans to expand AI use in society, aiming to address challenges like an aging population. Significant investments in digital infrastructure and public-private collaboration have contributed to Japan's growing competitiveness in AI. India, on the other hand, is classified among the "Rising Contenders." The Indian government has launched several AI-focused initiatives, such as the National AI Strategy, with the goal of integrating AI into key sectors like agriculture and education. India is investing heavily in training a specialized workforce, with education and training programs aimed at increasing the number of AI specialists. Moreover, the Indian startup ecosystem, particularly in sectors like fintech and agritech, is rapidly expanding, supported by growing access to venture capital. Malaysia represents an interesting case among the Contenders, thanks to strong government support and its National AI Roadmap. This strategic plan includes investments in tech hubs and university programs to train professionals in the AI sector. The Malaysian government's goal is to achieve technological competitiveness comparable to that of high-income economies. Saudi Arabia and Indonesia are also classified as "Rising Contenders" and are making significant progress in AI adoption. Saudi Arabia, with its Vision 2030, aims to become a global center of excellence for AI in priority sectors like energy, healthcare, and education. This path is supported by substantial investments in digital infrastructure and training programs. Indonesia, for its part, is focusing efforts on education and long-term economic growth, with the National AI Strategy emphasizing education and the adoption of emerging technologies to improve productivity. Sectoral Exposure. Where AI Has the Greatest Impact The report also analyzes the level of exposure of different economies to AI based on economic sectors. Six sectors are found to be most exposed to AI-induced changes: information and communication, high-tech goods, financial services, retail, public services, and motor vehicle production. This is due to AI's ability to automate tasks and optimize processes, profoundly transforming how work is done in these sectors. In particular, economies with strong ICT sectors tend to grow in terms of GDP thanks to their ability to produce AI technologies that can be used in other sectors. In sectors like information and communication, AI can increase productivity through the automation of repetitive tasks and the optimization of business communications. According to the Boston Consulting Group, efficiency in these areas can increase by up to 20% through AI integration. Furthermore, AI technologies are particularly important in the production of high-tech goods, where they can reduce production costs and increase the precision of assembly lines, as demonstrated by sectors like electronics and semiconductors. Another key sector is financial services. AI adoption enables better risk management, faster decision-making processes, and a more personalized customer experience. For example, many banks use machine learning algorithms to prevent fraud and more accurately analyze customer risk profiles. This approach has allowed operational costs to be reduced and service efficiency to be improved. In retail, AI is having a significant impact on inventory management and demand forecasting. The use of predictive algorithms helps retailers optimize their inventories, reducing storage costs and improving product availability. AI applications in public services, on the other hand, improve energy efficiency and facilitate resource management through demand forecasting and optimization of distribution networks. Motor vehicle production is another sector where AI is radically transforming processes. The introduction of AI systems for assembly and quality control has improved production precision and speed, with a direct impact on costs and the quality of produced vehicles. Additionally, the development of autonomous vehicle technologies has further strengthened the role of AI in this sector, creating new opportunities for economic growth. On the other hand, countries with a sectoral composition more oriented towards agriculture and construction, such as India, Indonesia, and Ethiopia, show less exposure to potential disruptions caused by AI. However, the use of AI can still bring indirect benefits, improving efficiency in the agricultural sector and modernizing adjacent sectors like transportation. For example, the use of AI in precision agriculture allows optimization of production through monitoring weather and soil conditions, reducing resource use and increasing agricultural yields. In general, AI is contributing to differentiation between sectors that rapidly adopt the technology and sectors that lag behind, creating uneven impacts on the overall economy. However, sectors that effectively integrate AI see significant increases in productivity and competitiveness, as highlighted by the Boston Consulting Group, which estimates a revenue increase of up to 2.5 times for companies that adopt AI compared to those that do not. The ASPIRE Index. Assessing AI Readiness To assess each economy's readiness, the matrix uses the ASPIRE index, which consists of six dimensions: Ambition, Skills, Policy and Regulation, Investments, Research and Innovation, and Ecosystem. Only five economies out of 73 have surpassed 50% in all these dimensions, demonstrating a high degree of maturity in AI adoption. The ASPIRE index considers several key metrics to assess an economy's overall readiness for AI adoption. Among these metrics are the existence of a national AI strategy and the presence of a specialized government entity for implementation, which are key indicators of a country's ambition. Additionally, the index evaluates the concentration of AI specialists through indicators such as the number of professionals registered on platforms like LinkedIn and public contributions on GitHub, highlighting a country's ability to train and retain talent. Regarding regulation, the ASPIRE index includes measures of policy quality, government effectiveness, and data management, as well as the alignment of democratic values with AI development. In terms of investments, the index takes into account the value of AI startups, the market capitalization of tech companies, and the availability of venture capital, elements that indicate how well an economy can financially support AI adoption and growth. The "Research and Innovation" dimension is represented by the number of scientific publications on AI, patents registered, and the number of AI startups, factors that reflect a country's ability to innovate and contribute to the global development of technology. The maturity level of a digital ecosystem, on the other hand, is measured through indicators such as the quality of telecommunications infrastructure, average download speed, and public cloud spending per employee, aspects that directly influence the ability to implement AI technologies on a large scale. The United States and Singapore lead in the skills dimension, with highly developed talent pools. Specifically, the United States leads in investments, thanks to sophisticated capital markets and the presence of numerous unicorns in the AI field. Mainland China, in contrast, excels in research and development, being a leader in both patents registered and the number of academic AI publications. Countries like Japan and Germany perform well in the field of infrastructure and digital ecosystem but often lack adequate levels of investment in research and development, which could limit their long-term competitiveness. The global reality of AI adoption clearly shows significant disparities. More than 70% of the economies analyzed scored below half in the dimensions of ecosystem participation, skills, and R&D. This indicates that many countries still need to work significantly to achieve satisfactory readiness for AI adoption. Governments and the private sector must collaborate to improve infrastructure and promote policies that foster education and technological innovation. The ASPIRE index not only serves as a measure of the current level of AI maturity but also provides a practical guide to identifying priority areas for action to accelerate AI adoption in a balanced and sustainable manner. Italy. A Case of Potential and Challenges Italy ranks among the "AI Practitioners," with a moderate level of exposure and readiness. The country has begun to take significant steps towards AI adoption, but several obstacles still need to be overcome to reach the level of global leaders. One of the crucial aspects characterizing the Italian situation is the lack of adequate technological infrastructure. In particular, the availability of supercomputing centers and advanced data centers is lower compared to many other European economies. This technological limitation affects the country's ability to support large-scale AI projects and reduces attractiveness for foreign investments in high-tech sectors. The number of data centers in Italy is significantly lower than the European average, limiting data storage and processing capacity, an essential aspect for implementing complex AI solutions. In the manufacturing sector, which is one of the pillars of the Italian economy, AI adoption can lead to significant improvements in efficiency and automation. However, only a fraction of companies has started adopting these technologies extensively. The report indicates that about 30% of Italian manufacturing companies have implemented advanced automation solutions, compared to an average of 50% observed in major European countries like Germany and France. Automation of production processes and the introduction of AI technologies for predictive maintenance are two areas of particular interest but require targeted investments and coordinated action by the government and the private sector for effective implementation. Regarding agriculture, the potential for adopting AI technologies is high, especially in precision agriculture, which could significantly improve efficiency in the use of natural resources. However, large-scale adoption of such technologies is hampered by the fragmentation of the agricultural sector and the lack of access to dedicated funding. According to report data, less than 20% of Italian farms have access to the advanced technologies needed for precision agriculture, while countries like Spain and the Netherlands exceed 35%. The implementation of specialized training programs and concessional financing could help overcome these obstacles and facilitate the transition to more modern and sustainable agriculture. Another key element for improving Italy's position in the AI ecosystem concerns skills development. Currently, the number of AI specialists per million inhabitants is much lower than the European average. Only 15 specialists per million inhabitants are dedicated to AI, compared to a European average of 40. Creating regional tech hubs and incentivizing university and post-university programs specifically focused on AI are crucial to bridging this gap. Moreover, integrating AI training courses into high school curricula and collaboration between universities and companies could significantly help expand the available skills pool. Investments in research and development (R&D) are another critical point for Italy. Currently, Italy invests less than 1.5% of GDP in R&D, a value well below the European average of 2.5% and far from the levels of leaders like Germany and France, which invest over 3%. This low level of investment translates into a reduced capacity to innovate and develop advanced technologies. The report suggests that to improve competitiveness, Italy should increase research funding and encourage greater collaborations between the public and private sectors, particularly in AI application areas such as healthcare, mobility, and energy. The technological startup ecosystem in Italy is still weak compared to other advanced economies. The number of AI startups remains low, with fewer than 200 active startups compared to over 500 in comparable economies like Spain. The reasons for this lag include poor availability of venture capital and a high perceived risk associated with investments in emerging technologies. To address this issue, more aggressive tax incentives and dedicated acceleration programs are needed, capable of attracting national and international investments and creating an environment conducive to the birth and growth of new companies in the AI sector. In summary, Italy has the potential to improve its position in the AI field but requires a structural commitment and a long-term vision involving both the public and private sectors. Collaboration between universities, industries, and the government will be crucial to accelerating progress and achieving greater AI adoption maturity. A concerted effort is needed to develop technological infrastructure, increase specialist skills, and create an environment conducive to innovation and entrepreneurship in artificial intelligence. Strategic Next Steps for Countries The report proposes a set of initiatives for each archetype to promote AI adoption. For "AI Emergents," the economies still in the early stages, it is recommended to build national AI strategies and invest in basic digital infrastructure. This includes adopting measures to develop basic digital skills in the population, such as digital literacy programs and AI-focused training courses. It is also crucial to create research and development centers in partnership with international players to improve access to advanced technologies. For "AI Contenders" and "AI Practitioners," the focus should be on accelerating AI adoption. A key recommendation is to focus investments on applied research projects that can generate tangible results in the short term. These countries should also encourage collaboration between industrial sectors to promote the sharing of best practices and the implementation of AI solutions in the most promising sectors, such as manufacturing and financial services. Infrastructure enhancements, such as the expansion of the data center network and improvements to telecommunications networks, are essential to support greater AI adoption on a national scale. The "AI Pioneers" are called to play a global leadership role. To further expand their competitive advantage, these countries must promote flexible regulatory policies that encourage innovation while ensuring the safety and ethics of AI use. Furthermore, the Pioneers should create testing environments (sandboxes) for the development of advanced AI technologies, involving international players to share knowledge and promote the harmonization of global standards. It is also important to invest in continuous workforce training, ensuring that AI skills keep pace with technological advances. An example of a sectoral strategy is India, which aims to use AI to optimize the entire agricultural supply chain, improving yields and logistics through the use of data and predictive technologies. Similarly, Malaysia is promoting the development of specialized tech hubs and tax incentives to attract innovative startups, fostering the creation of a solid ecosystem for AI growth. To conclude, each archetype of country has a set of specific steps to take to advance its AI maturity journey. The strategies suggested in the Boston Consulting Group report aim to provide practical guidance to policymakers on how to navigate the evolving landscape of artificial intelligence and harness its potential to strengthen economies and improve overall social welfare. Conclusions The Boston Consulting Group's analysis clearly highlights how artificial intelligence is becoming a strategic variable for the competitive advantage of global economies. However, the true value of this matrix lies not only in the current snapshot but also in the systemic implications it has for the future of economies and businesses. The emerging reflection is that investing in AI is not enough: it is essential to understand how this technology redefines the economic rules of the game, reshaping strategic priorities. One of the key points is the need for a collaborative ecosystem between public and private sectors. Global leaders such as the United States and Singapore show that government policies are not merely technological "enablers" but tools for co-creation with the private sector. This is a new paradigm, where public investments in training, infrastructure, and regulation are designed not only to stimulate adoption but to foster the birth of entire economic ecosystems. Companies must therefore consider governments as strategic partners, not just regulators. Another crucial aspect is the asymmetry between sectors. Knowledge- and technology-intensive sectors, such as ICT and financial services, are already capitalizing on AI's advantages, while traditional sectors like agriculture and construction are lagging behind. However, this polarization can represent an opportunity. Companies operating in traditional sectors now have a unique window to position themselves as local AI pioneers, turning the delay into a strategic advantage. It is evident that AI adoption is not just a technological issue but a cultural and organizational choice that requires visionary leadership. Competition is shifting towards skills and the ability to retain qualified talent. Countries like Singapore and Canada, which combine strategic immigration policies and investments in advanced training, show that human capital is the core of innovation. For companies, this means that investing in internal training and attracting global talent is not a cost but a competitive imperative. Finally, a fundamental reflection emerges on ethics and governance. AI leaders are setting international standards not only from a technical point of view but also an ethical one. Companies that integrate ethical principles into their AI applications from the outset not only avoid reputational risks but also create a competitive advantage in gaining the trust of consumers and institutions. In an increasingly interconnected world, compliance with global regulations and transparency will become distinguishing elements. In summary, AI is no longer just an emerging technology but an accelerator that forces companies and nations to rethink their business models and governance. Podcast: https://spotifycreators-web.app.link/e/uvvWCb1Y1Ob Source: https://www.bcg.com/publications/2024/which-economies-are-ready-for-ai
- Boston Consulting Group. La mappa della maturità dell'intelligenza artificiale
Nel novembre 2024, il Boston Consulting Group ha presentato una visione globale della maturità dell'intelligenza artificiale (AI) in 73 economie mondiali attraverso la sua nuova "AI Maturity Matrix". Questo studio non solo analizza quali economie sono pronte a sfruttare l'AI, ma identifica anche sei archetipi distinti di sviluppo e potenziale economico legato all'AI. La matrice valuta ciascuna economia su due assi fondamentali: l'esposizione alle trasformazioni indotte dall'AI e la prontezza nel gestirle e utilizzarle. Scopriamo insieme i risultati principali. Le economie leader per maturità dell'intelligenza artificiale Tra le 73 economie esaminate, solo cinque sono state definite "AI Pioneers": Canada, Cina, Singapore, Regno Unito e Stati Uniti. Questi Paesi hanno raggiunto un alto livello di prontezza combinando elementi chiave come investimenti e infrastrutture per trasformare le potenziali interruzioni causate dall'AI in un vantaggio competitivo. L'adozione avanzata dell'AI in questi Paesi è guidata da robuste infrastrutture tecnologiche, una notevole capacità di ricerca e innovazione, e l'investimento continuo in formazione specialistica. Gli Stati Uniti e Singapore si distinguono per i loro pool di talenti in AI, essenziali per guidare l'innovazione. La Cina è invece in testa per la produzione di brevetti e articoli accademici legati all'AI. Gli Stati Uniti mostrano un'eccellente capacità di attrarre investimenti privati in startup legate all'AI. Con un totale di oltre 200 unicorni nel settore tecnologico, gli Stati Uniti guidano anche il mercato globale del capitale di rischio dedicato all'AI, rappresentando circa il 50% degli investimenti totali nel settore. Questo flusso di investimenti non solo sostiene le startup esistenti, ma contribuisce anche alla creazione di un ambiente fertile per nuove aziende che sviluppano soluzioni avanzate basate sull'intelligenza artificiale. Inoltre, la presenza di alcune delle migliori università al mondo, come MIT e Stanford, assicura un continuo apporto di talenti altamente qualificati. Singapore, nonostante la sua dimensione relativamente ridotta, ha dimostrato una notevole efficienza nella realizzazione di una strategia nazionale per l'AI, investendo oltre 743 milioni di dollari in un piano quinquennale volto a consolidare la sua posizione come hub globale per il business e l'innovazione. Questo investimento è stato accompagnato da iniziative governative come la TechSkills Accelerator, che ha formato più di 230.000 persone dal 2016, aumentando il bacino di talenti locali e attirando esperti internazionali grazie a programmi come ONE Pass e Tech@SG. Singapore ha inoltre stabilito il Centro per la Ricerca AI di Frontiera (CFAR) per sostenere la ricerca e sviluppo di tecnologie AI avanzate su scala nazionale. La Cina continentale, invece, ha adottato un approccio aggressivo all'adozione dell'AI, focalizzandosi su settori strategici come l'elettronica di consumo, la sorveglianza e i veicoli autonomi. La Cina guida il mondo per numero di brevetti legati all'AI e ha registrato oltre 150.000 brevetti negli ultimi anni, superando Stati Uniti ed Europa. Questo impegno è stato sostenuto anche da enormi investimenti governativi in infrastrutture tecnologiche, come l'istituzione di centri di supercalcolo di classe mondiale e il miglioramento delle reti di telecomunicazioni. La Cina è anche leader nella pubblicazione di articoli accademici riguardanti l'AI, con una produzione che rappresenta il 27% di tutte le pubblicazioni globali in questo campo. Il Regno Unito è uno dei principali hub di AI in Europa, grazie a una combinazione di politiche favorevoli, accesso ai capitali e una forte rete di università di eccellenza come l'Università di Cambridge e l'Imperial College di Londra. Il Paese ha sviluppato una strategia nazionale che include il finanziamento di centri di eccellenza per l'AI, con l'obiettivo di espandere l'uso dell'AI in settori come la sanità e la finanza. Inoltre, il governo del Regno Unito ha destinato circa 1,2 miliardi di sterline per il supporto all'AI, concentrandosi anche sullo sviluppo di un quadro normativo per garantire l'uso sicuro ed etico della tecnologia. Il Canada si distingue per l'approccio inclusivo e sostenibile alla ricerca e all'adozione dell'AI. Con il programma Pan-Canadian AI Strategy, il Canada è stato uno dei primi Paesi a delineare un piano strategico nazionale per l'AI, investendo 125 milioni di dollari per supportare lo sviluppo e la ricerca nelle sue principali città tecnologiche: Toronto, Montreal e Vancouver. Questo ha portato alla creazione di un ecosistema di ricerca forte, con istituti leader come il Vector Institute e Mila che attraggono talenti da tutto il mondo. Il Canada ha anche puntato molto sull'etica e la trasparenza nell'uso dell'AI, contribuendo allo sviluppo di linee guida internazionali per l'adozione responsabile della tecnologia. L'analisi mostra che questi Paesi non solo stanno investendo significativamente in ricerca e sviluppo, ma stanno anche stabilendo codici di regolamentazione specifici per l'AI, come il "Model AI Governance Framework" di Singapore, che garantisce l'uso etico dell'AI. Tale approccio consente loro di mantenere una posizione di leadership, influenzando l'ecosistema globale dell'AI e stabilendo standard internazionali. AI Contenders e Practitioners Subito dopo i leader troviamo i "AI Contenders" e gli "AI Practitioners", due categorie che includono economie come Germania, Giappone, India, Malesia, Arabia Saudita e Indonesia. I "Contenders" si distinguono per un'alta prontezza ma una relativamente minore esposizione all'AI rispetto ai "Pioneers". Questo significa che, pur essendo pronti a adottare l'AI, non tutte le loro industrie sono ancora sufficientemente esposte ai benefici di questa tecnologia. La Germania è un esempio emblematico di "Steady Contender". Con una forte esposizione ai settori dei servizi finanziari e della produzione avanzata, la Germania ha beneficiato di una base industriale solida e di una strategia di innovazione tecnologica orientata al lungo termine. Il governo tedesco ha investito notevoli risorse per sviluppare hub tecnologici e ha facilitato la collaborazione tra università, aziende private e istituti di ricerca. La robusta infrastruttura di telecomunicazioni e l'accesso a tecnologie avanzate hanno consentito alla Germania di posizionarsi tra i principali attori tecnologici europei. Il Giappone, noto per la sua capacità di innovazione industriale, ha concentrato i suoi sforzi sull'applicazione dell'AI in settori come la robotica e la produzione manifatturiera. Il governo giapponese ha varato piani strategici per espandere l'uso dell'AI nella società, puntando a risolvere sfide come l'invecchiamento della popolazione. Investimenti significativi in infrastrutture digitali e la collaborazione tra settore pubblico e privato hanno contribuito alla crescita della competitività giapponese nel campo dell'AI. L'India si colloca invece tra i "Rising Contenders". Il governo indiano ha lanciato numerose iniziative focalizzate sull'AI, come la National AI Strategy, con lo scopo di integrare l'AI in settori chiave quali l'agricoltura e l'educazione. L'India sta investendo pesantemente nella formazione di una forza lavoro specializzata, con programmi di educazione e formazione per aumentare il numero di specialisti in AI. Inoltre, l'ecosistema di startup indiane, soprattutto in settori come fintech e agritech, è in rapida espansione, sostenuto da un accesso crescente al capitale di rischio. La Malesia rappresenta un caso interessante tra i Contenders, grazie al forte supporto governativo e alla sua National AI Roadmap. Questo piano strategico include investimenti in hub tecnologici e programmi universitari per formare professionisti nel settore AI. L'obiettivo del governo malese è raggiungere una competitività tecnologica paragonabile a quella delle economie ad alto reddito. Arabia Saudita e Indonesia sono anch'esse classificate come "Rising Contenders" e stanno compiendo significativi progressi nell'adozione dell'AI. L'Arabia Saudita, con la sua Vision 2030, mira a diventare un centro di eccellenza globale per l'AI in settori prioritari come l'energia, la sanità e l'istruzione. Questo percorso è sostenuto da ingenti investimenti in infrastrutture digitali e programmi di formazione. L'Indonesia, dal canto suo, sta concentrando gli sforzi sull'istruzione e sulla crescita economica a lungo termine, con la National AI Strategy che enfatizza l'educazione e l'adozione di tecnologie emergenti per migliorare la produttività. L'esposizione settoriale. Dove l'AI sta avendo il maggior impatto Il report analizza anche il livello di esposizione delle diverse economie all'AI in base ai settori economici. Sei settori risultano essere maggiormente esposti ai cambiamenti indotti dall'AI: informazione e comunicazione, beni tecnologici avanzati, servizi finanziari, vendita al dettaglio, servizi pubblici e la produzione di veicoli a motore. Questo è dovuto alla capacità dell'AI di automatizzare compiti e ottimizzare processi, trasformando profondamente il modo di lavorare in questi settori. In particolare, le economie con settori ICT forti tendono a crescere in termini di PIL grazie alla capacità di produrre tecnologie AI che possono essere utilizzate in altri settori. In settori come l'informazione e la comunicazione, l'AI è in grado di aumentare la produttività grazie all'automazione di attività ripetitive e all'ottimizzazione delle comunicazioni aziendali. Secondo il Boston Consulting Group, l'efficienza può aumentare fino al 20% in queste aree grazie all'integrazione dell'AI. Inoltre, le tecnologie AI sono particolarmente importanti nella produzione di beni tecnologici avanzati, dove possono ridurre i costi di produzione e aumentare la precisione delle linee di assemblaggio, come dimostrato dagli esempi di settori come l'elettronica e i semiconduttori. Un altro settore chiave è quello dei servizi finanziari. L'adozione dell'AI consente una migliore gestione del rischio, processi decisionali più veloci e un'esperienza cliente più personalizzata. Ad esempio, molte banche stanno utilizzando algoritmi di machine learning per prevenire le frodi e analizzare in modo più accurato i profili di rischio dei clienti. Questo approccio ha permesso di ridurre i costi operativi e migliorare l'efficienza del servizio. Nella vendita al dettaglio, l'AI sta avendo un impatto significativo nella gestione delle scorte e nella previsione della domanda. L'uso di algoritmi predittivi aiuta i rivenditori a ottimizzare i loro inventari, riducendo i costi di stoccaggio e migliorando la disponibilità dei prodotti. Le applicazioni AI nei servizi pubblici, invece, migliorano l'efficienza energetica e facilitano la gestione delle risorse attraverso la previsione della domanda e l'ottimizzazione delle reti di distribuzione. La produzione di veicoli a motore è un altro settore dove l'AI sta trasformando radicalmente i processi. L'introduzione di sistemi AI per l'assemblaggio e il controllo qualità ha migliorato la precisione e la velocità della produzione, con un impatto diretto sui costi e sulla qualità dei veicoli prodotti. Inoltre, lo sviluppo di tecnologie per veicoli autonomi ha ulteriormente rafforzato il ruolo dell'AI in questo settore, creando nuove opportunità di crescita economica. D'altra parte, Paesi con una composizione settoriale più orientata all'agricoltura e alla costruzione, come India, Indonesia ed Etiopia, mostrano una minore esposizione alle potenziali interruzioni causate dall'AI. Tuttavia, l'utilizzo dell'AI può comunque portare benefici indiretti, migliorando l'efficienza del settore agricolo e modernizzando altri settori adiacenti come i trasporti. Ad esempio, l'uso di AI in agricoltura di precisione permette di ottimizzare la produzione tramite il monitoraggio delle condizioni climatiche e del suolo, riducendo l'impiego di risorse e aumentando i rendimenti agricoli. In generale, l'AI sta contribuendo a una differenziazione tra settori che adottano rapidamente la tecnologia e settori che rimangono indietro, creando un impatto disomogeneo sull'economia complessiva. Tuttavia, i settori che riescono a integrare efficacemente l'AI vedono un aumento significativo della produttività e della competitività, come evidenziato dal Boston Consulting Group, che stima un incremento del fatturato fino a 2,5 volte per le aziende che adottano l'AI rispetto a quelle che non lo fanno. L'indice ASPIRE. Valutare la prontezza all'AI Per valutare la prontezza di ciascuna economia, la matrice utilizza l'indice ASPIRE, che si compone di sei dimensioni: Ambizione, Competenze (Skills), Politica e regolamentazione, Investimenti, Ricerca e innovazione, ed Ecosistema. Solo cinque economie su 73 hanno superato il 50% in tutte queste dimensioni, dimostrando un alto grado di maturità nell'adozione dell'AI. L'indice ASPIRE considera diverse metriche fondamentali per valutare la prontezza complessiva di un'economia verso l'adozione dell'AI. Tra queste metriche vi sono l'esistenza di una strategia nazionale per l'AI e la presenza di un'entità governativa specializzata per l'implementazione, che sono indicatori chiave dell'ambizione di un Paese. Inoltre, l'indice valuta la concentrazione di specialisti in AI attraverso indicatori come il numero di professionisti registrati su piattaforme come LinkedIn e il contributo pubblico su GitHub, evidenziando la capacità di un Paese di formare e trattenere talenti. Per quanto riguarda la regolamentazione, l'indice ASPIRE include misure della qualità delle politiche, dell'efficacia governativa e della gestione dei dati, così come l'allineamento dei valori democratici con lo sviluppo dell'AI. A livello di investimenti, l'indice tiene conto del valore delle startup in ambito AI, della capitalizzazione di mercato delle società tecnologiche, e della disponibilità di venture capital, elementi che indicano quanto un'economia sia in grado di sostenere finanziariamente l'adozione e la crescita dell'AI. La dimensione "Ricerca e innovazione" è rappresentata dal numero di pubblicazioni scientifiche sull'AI, dai brevetti registrati e dal numero di startup in campo AI, fattori che riflettono la capacità di un Paese di innovare e contribuire allo sviluppo globale della tecnologia. Il livello di maturità di un ecosistema digitale, invece, è misurato tramite indicatori come la qualità delle infrastrutture di telecomunicazioni, la velocità di download media, e la spesa per il cloud pubblico per ogni dipendente, aspetti che influenzano direttamente la capacità di implementare tecnologie AI su larga scala. Gli Stati Uniti e Singapore sono leader per la dimensione delle competenze, con pool di talenti molto sviluppati. In particolare, gli Stati Uniti sono leader negli investimenti, grazie a mercati di capitali sofisticati e alla presenza di numerosi unicorni nel campo dell'AI. La Cina continentale si distingue invece nella ricerca e sviluppo, essendo leader sia per i brevetti registrati che per il numero di pubblicazioni accademiche sull'AI. Paesi come Giappone e Germania mostrano buone performance nel campo delle infrastrutture e dell'ecosistema digitale, ma spesso mancano di adeguati livelli di investimento in ricerca e sviluppo, che potrebbero limitare la loro competitività a lungo termine. La realtà globale dell'adozione dell'AI mostra chiaramente delle disparità significative. Più del 70% delle economie analizzate hanno ottenuto un punteggio inferiore alla metà nelle dimensioni di partecipazione all'ecosistema, competenze e R&D. Questo indica che molti Paesi devono ancora lavorare significativamente per raggiungere una prontezza soddisfacente nell'adozione dell'AI. È fondamentale che i governi e il settore privato collaborino per migliorare le infrastrutture e promuovere politiche che favoriscano l'educazione e l'innovazione tecnologica. L'indice ASPIRE non solo funge da misura del livello attuale di maturità dell'AI, ma fornisce anche una guida pratica per identificare le aree prioritarie su cui intervenire per accelerare l'adozione dell'AI in modo equilibrato e sostenibile. Italia. Un caso di potenziale e sfide L'Italia si colloca tra gli "AI Practitioners", con un livello di esposizione e prontezza moderato. Il Paese ha iniziato a intraprendere passi significativi verso l'adozione dell'AI, ma ci sono ancora diversi ostacoli da superare per raggiungere il livello dei leader globali. Uno degli aspetti cruciali che caratterizzano la situazione italiana è la mancanza di un'infrastruttura tecnologica adeguata. In particolare, la disponibilità di centri di supercalcolo e di data center avanzati è inferiore rispetto a molte altre economie europee. Questo limite tecnologico incide sulla capacità del Paese di supportare l'espansione di progetti AI su larga scala e riduce l'attrattività per investimenti esteri in settori ad alta tecnologia. Il numero di data center in Italia è significativamente inferiore alla media europea, limitando la capacità di immagazzinamento e di elaborazione dei dati, un aspetto essenziale per l'implementazione di soluzioni AI complesse. Nel settore manifatturiero, che è uno dei pilastri dell'economia italiana, l'adozione dell'AI può portare a miglioramenti significativi in termini di efficienza e automazione. Tuttavia, solo una frazione delle aziende ha iniziato a adottare queste tecnologie in modo esteso. Il report indica che circa il 30% delle aziende manifatturiere italiane ha implementato soluzioni di automazione avanzata, rispetto a una media del 50% osservata nei principali Paesi europei come Germania e Francia. L'automazione dei processi produttivi e l'introduzione di tecnologie AI per la manutenzione predittiva sono due aree di particolare interesse, ma richiedono investimenti mirati e un'azione coordinata da parte del governo e del settore privato per essere effettivamente implementati. Per quanto riguarda l'agricoltura, il potenziale per l'adozione di tecnologie AI è elevato, soprattutto nell'agricoltura di precisione, che potrebbe migliorare significativamente l'efficienza nell'uso delle risorse naturali. Tuttavia, l'adozione su larga scala di tali tecnologie è ostacolata dalla frammentazione del settore agricolo e dalla mancanza di accesso a finanziamenti dedicati. Secondo i dati del report, meno del 20% delle aziende agricole italiane ha accesso alle tecnologie avanzate necessarie per l'agricoltura di precisione, mentre Paesi come la Spagna e i Paesi Bassi superano il 35%. L'implementazione di programmi di formazione specializzata e di finanziamenti agevolati potrebbe aiutare a superare questi ostacoli e a facilitare la transizione verso un'agricoltura più moderna e sostenibile. Un altro elemento fondamentale per migliorare la posizione dell'Italia nell'ecosistema AI riguarda lo sviluppo delle competenze. Attualmente, il numero di specialisti in AI per ogni milione di abitanti è molto inferiore rispetto alla media europea. Solo 15 specialisti ogni milione di abitanti sono dedicati all'AI, contro una media europea di 40. La creazione di poli tecnologici regionali e l'incentivazione di percorsi universitari e post-universitari specificamente incentrati sull'AI sono cruciali per colmare questo divario. Inoltre, l'integrazione di corsi di formazione sull'AI nei curricula delle scuole superiori e la collaborazione tra università e aziende potrebbero contribuire significativamente ad ampliare il bacino di competenze disponibili. Gli investimenti in ricerca e sviluppo (R&D) rappresentano un altro punto critico per l'Italia. Attualmente, l'Italia investe meno dell'1,5% del PIL in R&D, un valore ben inferiore rispetto alla media europea del 2,5% e lontano dai livelli dei leader come Germania e Francia, che investono oltre il 3%. Questo basso livello di investimenti si traduce in una minore capacità di innovare e di sviluppare tecnologie avanzate. Il report suggerisce che per migliorare la competitività, l'Italia dovrebbe aumentare i fondi destinati alla ricerca e incoraggiare maggiori collaborazioni tra settore pubblico e privato, in particolare nelle aree di applicazione dell'AI, come la sanità, la mobilità e l'energia. L'ecosistema delle startup tecnologiche in Italia è ancora debole rispetto ad altre economie avanzate. Il numero di startup nel settore AI rimane basso, con meno di 200 startup attive rispetto alle oltre 500 presenti in economie comparabili come la Spagna. Le ragioni di questo ritardo includono una scarsa disponibilità di venture capital e una percezione di rischio elevato associato agli investimenti in tecnologie emergenti. Per affrontare questo problema, sarebbero necessari incentivi fiscali più aggressivi e programmi di accelerazione dedicati, capaci di attrarre investimenti nazionali e internazionali e di creare un ambiente favorevole alla nascita e alla crescita di nuove imprese nel settore AI. In sintesi, l'Italia ha il potenziale per migliorare la propria posizione nell'ambito dell'AI, ma necessita di un impegno strutturale e di una visione a lungo termine che coinvolga sia il settore pubblico che quello privato. La collaborazione tra università, industrie e governo sarà fondamentale per accelerare il progresso e raggiungere una maggiore maturità nell'adozione dell'AI. È necessario uno sforzo congiunto per sviluppare le infrastrutture tecnologiche, incrementare le competenze specialistiche e creare un ecosistema favorevole all'innovazione e all'imprenditorialità nel campo dell'intelligenza artificiale. Prossimi passi strategici per i Paesi Il report propone un insieme di iniziative per ciascun archetipo per promuovere l'adozione dell'AI. Per gli "AI Emergents", le economie ancora agli inizi, viene consigliato di costruire strategie nazionali di AI e di investire in infrastrutture digitali di base. Questo include l'adozione di misure volte a sviluppare competenze digitali di base nella popolazione, come programmi di alfabetizzazione digitale e corsi di formazione incentrati sull'AI. È inoltre cruciale creare centri di ricerca e sviluppo in partnership con attori internazionali per migliorare l'accesso alle tecnologie avanzate. Per gli "AI Contenders" e gli "AI Practitioners", il focus dovrebbe essere sull'accelerazione dell'adozione dell'AI. Una raccomandazione fondamentale è quella di concentrare gli investimenti su progetti di ricerca applicata che possano generare risultati tangibili nel breve termine. Questi Paesi dovrebbero anche incentivare la collaborazione tra settori industriali per favorire la condivisione di best practices e l'implementazione di soluzioni AI nei settori più promettenti, come quello manifatturiero e finanziario. Potenziamenti infrastrutturali, come l'espansione della rete di data center e il miglioramento delle reti di telecomunicazioni, sono essenziali per sostenere una maggiore adozione dell'AI su scala nazionale. Gli "AI Pioneers" sono invece chiamati a svolgere un ruolo di leadership globale. Per ampliare ulteriormente il proprio vantaggio competitivo, questi Paesi devono promuovere politiche di regolamentazione flessibile che favoriscano l'innovazione, garantendo allo stesso tempo la sicurezza e l'etica nell'uso dell'AI. Inoltre, i Pioneers dovrebbero creare ambienti di test (sandbox) per lo sviluppo di tecnologie AI avanzate, coinvolgendo attori internazionali per condividere conoscenze e favorire l'armonizzazione degli standard globali. È anche importante investire nella formazione continua del personale, garantendo che le competenze nel settore dell'AI rimangano al passo con le evoluzioni tecnologiche. Un esempio di strategia a livello settoriale è quello dell'India, che mira a utilizzare l'AI per ottimizzare l'intera filiera agricola, migliorando i rendimenti e la logistica grazie all'uso di dati e tecnologie predittive. Analogamente, la Malesia sta promuovendo lo sviluppo di hub tecnologici specializzati e incentivi fiscali per attirare startup innovative, favorendo la creazione di un ecosistema solido per la crescita dell'AI. Per concludere, ogni archetipo di Paese ha una serie di passi specifici da intraprendere per avanzare nel proprio percorso di maturità nell'AI. Le strategie suggerite nel report del Boston Consulting Group mirano a fornire una guida pratica ai policymaker su come navigare nel panorama in evoluzione dell'intelligenza artificiale e sfruttare il suo potenziale per rafforzare le economie e migliorare il benessere sociale complessivo. Conclusioni L'analisi del Boston Consulting Group evidenzia chiaramente come l'intelligenza artificiale stia diventando una variabile strategica per il vantaggio competitivo delle economie globali. Tuttavia, il vero valore di questa matrice non risiede solo nella fotografia attuale, ma nelle implicazioni sistemiche che ne derivano per il futuro delle economie e delle imprese . La riflessione che emerge è che non basta investire nell'AI: occorre comprendere come questa tecnologia reimposta le regole del gioco economico, ridisegnando le priorità strategiche. Uno dei punti chiave è la necessità di un'ecosistema collaborativo tra pubblico e privato . I leader globali come gli Stati Uniti e Singapore dimostrano che le politiche governative non sono semplicemente "abilitatori" tecnologici ma strumenti di co-creazione con il settore privato. Questo è un paradigma nuovo, dove gli investimenti pubblici in formazione, infrastrutture e regolamentazione sono progettati non solo per stimolare l'adozione, ma per favorire la nascita di interi ecosistemi economici. Le aziende devono quindi considerare i governi come partner strategici, non solo come regolatori . Un altro aspetto cruciale è l’asimmetria tra i settori. I settori ad alta intensità di conoscenza e tecnologia, come l’ICT e i servizi finanziari, stanno già capitalizzando sui vantaggi dell’AI, mentre comparti tradizionali come agricoltura e costruzioni rimangono indietro. Tuttavia, questa polarizzazione può rappresentare un'opportunità. Le aziende che operano nei settori tradizionali hanno ora una finestra unica per posizionarsi come pionieri locali dell'AI, trasformando il ritardo in un vantaggio strategico . È evidente che l'adozione dell’AI non è solo una questione tecnologica ma una scelta culturale e organizzativa, che richiede una leadership visionaria. La competizione si sta spostando verso l’ambito delle competenze e della capacità di trattenere talenti qualificati . Paesi come Singapore e Canada, che combinano politiche migratorie strategiche e investimenti in formazione avanzata, mostrano che il capitale umano è il fulcro dell'innovazione. Per le imprese, ciò significa che investire nella formazione interna e nell'attrazione di talenti globali non è un costo, ma un imperativo competitivo. Infine, emerge una riflessione fondamentale sull’etica e la governance. I leader nell’AI stanno definendo gli standard internazionali non solo dal punto di vista tecnico, ma anche etico. Le imprese che integrano fin dall’inizio principi etici nelle loro applicazioni AI non solo evitano rischi reputazionali, ma creano un vantaggio competitivo nel conquistare la fiducia dei consumatori e delle istituzioni . In un mondo sempre più interconnesso, la conformità alle normative globali e la trasparenza diventeranno elementi distintivi. In sintesi, l’AI non è più solo una tecnologia emergente ma un acceleratore che obbliga aziende e nazioni a ripensare i propri modelli di business e governance. Podcast: https://spotifycreators-web.app.link/e/0gpixd1Y1Ob Fonte: https://www.bcg.com/publications/2024/which-economies-are-ready-for-ai
- Adozione dell'AI aziendale. Analisi del Cisco AI Readiness Index 2024
L'intelligenza artificiale (AI) continua a essere il tema dominante nel mondo degli affari. Tuttavia, nonostante gli ingenti investimenti e l'entusiasmo iniziale, molte aziende non sono pronte come pensavano di essere per adottare e integrare appieno l'AI. Questo è quanto emerge dal Cisco AI Readiness Index 2024, un'indagine che valuta la prontezza delle organizzazioni ad adottare l'AI attraverso sei pilastri chiave: Strategia, Infrastruttura, Dati, Governance, Talento e Cultura. L'indagine coinvolge quasi 8.000 leader aziendali a livello globale e offre uno spaccato realistico delle sfide che le aziende devono affrontare. Panoramica dei risultati Il Cisco AI Readiness Index 2024 rivela una situazione complessa: meno di un'azienda su sette viene classificata come "Pacesetter" (leader nell'adozione dell'AI), in diminuzione rispetto all'anno precedente. Le aziende vengono suddivise in quattro livelli di prontezza: Pacesetters (leader assoluti), Chasers (moderatamente preparati), Followers (con preparazione limitata) e Laggards (poco preparati). Le percentuali dei Pacesetters sono scese al 13%, mentre i Followers sono il gruppo più numeroso, rappresentando il 51% del totale. Un altro dato significativo riguarda i livelli di investimento. Circa il 50% delle aziende ha dichiarato di destinare tra il 10% e il 30% del proprio budget IT all'AI, evidenziando un forte impegno finanziario nonostante le sfide. Tuttavia, quasi il 50% dei rispondenti afferma di non aver visto i risultati attesi dagli investimenti in AI, segnalando che molti progetti non hanno prodotto miglioramenti tangibili in termini di efficienza o automazione. Inoltre, è emerso che solo il 38% delle aziende dispone di metriche chiaramente definite per misurare l'impatto delle iniziative AI, suggerendo che la mancanza di processi di valutazione adeguati possa contribuire alla percezione di risultati deludenti. Il 59% delle aziende intervistate ha affermato che ha un massimo di un anno per implementare la propria strategia di AI, altrimenti rischia di perdere il vantaggio competitivo. Questo dato sottolinea l'urgenza percepita di accelerare l'adozione dell'AI, nonostante le difficoltà incontrate. Anche il supporto del top management è in calo: solo il 66% dei consigli di amministrazione e il 75% dei team dirigenziali si dichiara favorevole, percentuali in diminuzione rispetto all'82% dello scorso anno. La pressione per adottare l'AI proviene principalmente dai livelli più alti, con il 50% delle aziende che cita il CEO e il suo team come principali promotori dell'adozione dell'AI. Sei pilastri dell’adozione dell'AI aziendale 1. Strategia La strategia è il pilastro con il livello più alto di prontezza, con il 76% delle aziende classificate come Pacesetters o Chasers. Quasi tutte le organizzazioni (95%) dichiarano di avere una strategia per l'AI ben definita o in fase di sviluppo. La priorità principale per l'adozione dell'AI è la cybersecurity, con il 42% delle aziende che ha già implementato avanzati sistemi di protezione. Inoltre, il 27% delle aziende indica che l'AI rappresenta una priorità assoluta per l'allocazione del budget, senza variazioni significative rispetto allo scorso anno. La volontà di investire è una delle caratteristiche che distingue i Pacesetters dalle altre aziende. 2. Infrastruttura La prontezza dell'infrastruttura è diminuita leggermente rispetto allo scorso anno. Il 68% dei rispondenti afferma che la propria infrastruttura è solo moderatamente pronta per adottare tecnologie AI. Le sfide principali includono la mancanza di potenza di calcolo adeguata e la limitata scalabilità e flessibilità delle infrastrutture esistenti, con il 54% delle aziende che dichiara problemi in questo ambito. Inoltre, il 78% non ha fiducia nella disponibilità di risorse di calcolo sufficienti per supportare i carichi di lavoro AI. L'aumento della richiesta di unità di elaborazione grafica (GPU) è un altro aspetto rilevante, con il 79% delle aziende che richiede ulteriori GPU per sostenere i carichi di lavoro futuri. 3. Dati I dati sono fondamentali per il successo dell'AI, ma meno di un terzo (32%) delle organizzazioni si sente realmente pronta da questo punto di vista. Le principali difficoltà riguardano la frammentazione dei dati, la cui accessibilità è ancora problematica per l'82% delle aziende. Anche l'integrazione degli strumenti di analisi con le piattaforme AI rappresenta un ostacolo significativo, con il 73% delle aziende che segnala difficoltà in quest'area. Un ulteriore 64% ha dichiarato di avere margini di miglioramento nel tracciare l'origine dei dati, mentre l'80% delle aziende continua a riscontrare problemi nella preelaborazione e pulizia dei dati per i progetti AI. 4. Governance La prontezza nella governance è diminuita quest'anno, anche a causa dell'evoluzione del panorama normativo globale sull'AI. Solo il 35% delle organizzazioni afferma di avere una buona comprensione degli standard globali sulla privacy dei dati. Inoltre, solo il 29% dispone di controlli regolari per monitorare e correggere eventuali bias nei dati utilizzati dall'AI. La mancanza di competenze in materia di governance, legge ed etica è stata segnalata dal 51% delle organizzazioni come una delle principali barriere per migliorare la propria prontezza in ambito governance. 5. Talento La mancanza di talento è una delle principali barriere all'adozione dell'AI. Solo il 31% delle aziende dichiara di avere talenti con un alto livello di preparazione per l'AI. Per affrontare questa sfida, il 40% delle organizzazioni sta investendo nella formazione del personale esistente, mentre il 56% si affida a contratti con fornitori esterni per colmare le lacune. In aggiunta, il 45% delle aziende ha indicato la carenza di talenti con competenze adeguate come uno dei principali ostacoli. Inoltre, il 48% degli intervistati ha sottolineato che la crescente competizione per attrarre professionisti qualificati rappresenta un fattore che contribuisce all’aumento dei costi. 6. Cultura La cultura aziendale è forse il pilastro più complesso da affrontare. Solo il 9% delle aziende rientra nella categoria dei Pacesetters per quanto riguarda la prontezza culturale, mentre il numero dei Chasers è diminuito dal 40% al 31%. Le resistenze culturali sono evidenti, con il 30% delle aziende che segnala una resistenza all'adozione dell'AI da parte dei dipendenti. Inoltre, la ricettività dei consigli di amministrazione è diminuita dal 82% al 66%, indicando un calo significativo nell'entusiasmo verso l'adozione dell'AI ai livelli più alti. Anche il supporto dei team di leadership è sceso al 75%, segnalando una maggiore difficoltà nell'ottenere un impegno diffuso all'interno delle organizzazioni. Sfide e raccomandazioni in Italia La situazione italiana presenta delle peculiarità rispetto al resto del panorama globale analizzato dal Cisco AI Readiness Index 2024. In Italia, il livello di prontezza delle aziende per l'adozione dell'AI appare ancora più disomogeneo, con una concentrazione significativa di organizzazioni che rientrano nella categoria dei "Followers" o "Laggards". Infatti, solo il 10% delle aziende italiane è classificato come "Pacesetter", ben al di sotto della media globale del 13%. Questo dato riflette una lenta progressione nell'adottare le tecnologie AI, complice anche la scarsa digitalizzazione e il ritardo nella modernizzazione infrastrutturale che caratterizza molte realtà italiane. Infatti, per quanto riguarda le infrastrutture, l'Italia registra una carenza ancora più marcata in termini di disponibilità di risorse di calcolo e scalabilità. Il 63% delle aziende italiane segnala difficoltà significative nel garantire la disponibilità di GPU e altre risorse di calcolo necessarie per supportare i carichi di lavoro AI, e il 70% afferma che la propria infrastruttura non è sufficientemente flessibile per adattarsi alle esigenze crescenti. Questo aspetto limita fortemente la capacità delle imprese di competere su scala internazionale, dove le infrastrutture pronte per l'AI sono considerate un requisito fondamentale per accelerare l'innovazione. In termini di talento, la mancanza di competenze specifiche è particolarmente acuta in Italia. Solo il 28% delle aziende italiane afferma di disporre di personale adeguatamente formato per l'adozione dell'AI, mentre il 47% si affida a fornitori esterni per colmare le lacune di competenze. Questo dato evidenzia una forte dipendenza da partner esterni, che potrebbe limitare la capacità di sviluppare internamente competenze strategiche e sostenibili nel lungo periodo. Per risolvere questa situazione, il 35% delle aziende italiane ha iniziato a investire in programmi di formazione e reskilling del personale, ma la portata di questi sforzi rimane ancora limitata rispetto alle reali necessità. La governance dell'AI in Italia risulta anch'essa debole, soprattutto in relazione alla conformità con le normative europee emergenti. Solo il 30% delle aziende italiane dichiara di avere una buona comprensione degli standard di privacy e sicurezza dei dati imposti dal GDPR e dalle normative più recenti come l'AI Act dell'Unione Europea. Questo dato mette le aziende italiane in una posizione di vulnerabilità nel garantire la conformità ai requisiti legali, con il rischio di incorrere in sanzioni o di non poter sfruttare appieno le opportunità offerte dall'AI a causa di vincoli normativi. Per affrontare queste sfide, le raccomandazioni per le aziende italiane includono un maggiore focus sull'aggiornamento infrastrutturale e sull'adozione di soluzioni cloud scalabili che possano offrire una capacità di calcolo adeguata senza necessità di ingenti investimenti iniziali. Inoltre, è fondamentale incentivare la collaborazione tra aziende, università e centri di ricerca per favorire lo sviluppo di competenze locali nell'ambito dell'AI, riducendo la dipendenza da fornitori esterni. Infine, una maggiore attenzione alla governance e alla conformità normativa può aiutare le imprese italiane a migliorare la propria prontezza, assicurando che l'adozione dell'AI avvenga in modo responsabile e in linea con gli standard europei. Promuovere una cultura dell'innovazione è un ulteriore passo cruciale per l'Italia. Molte aziende italiane mostrano ancora una certa resistenza culturale all'adozione dell'AI, spesso vista come una minaccia piuttosto che un'opportunità. Incentivare l'uso sperimentale dell'AI, fornendo supporto formativo e promuovendo storie di successo interne, potrebbe contribuire a ridurre queste resistenze e a creare un contesto più favorevole all'innovazione tecnologica. Conclusioni L'adozione dell'intelligenza artificiale (AI) nelle aziende italiane riflette un panorama in cui la complessità delle sfide si intreccia con l'urgenza di trasformazione. Dall'analisi del Cisco AI Readiness Index 2024 emerge chiaramente come molte organizzazioni si trovino in una fase di stallo, dove l'entusiasmo iniziale si è scontrato con la dura realtà della preparazione infrastrutturale, culturale e strategica. Tuttavia, nonostante il ritardo digitale rispetto al panorama industrializzato mondiale, l’Italia dispone di un patrimonio unico: le competenze delle maestranze e dell’imprenditoria diffusa, soprattutto nelle microimprese e PMI, che rappresentano un'eccellenza competitiva a livello globale. Questo elemento deve diventare il cuore di una strategia nazionale che trasformi l’avvento dell’AI in un’opportunità di digitalizzazione delle competenze distintive del Paese, creando un’AI capace di differenziare l’Italia nel contesto industriale e manifatturiero globale. In primo luogo, il dato che solo il 10% delle aziende italiane è classificato come "Pacesetter" evidenzia un problema di visione strategica e investimento sistemico. Questo non può essere letto unicamente come mancanza di risorse, ma piuttosto come una fragilità nella capacità di pensare a lungo termine in un contesto globale. L'AI offre l'opportunità di valorizzare e amplificare le competenze artigianali e specialistiche tipiche dell’Italia, creando un ecosistema tecnologico che rifletta le eccellenze locali. In quest’ottica, il modello italiano potrebbe emergere non come emulazione delle grandi economie digitali, ma come una reinterpretazione in chiave innovativa e distintiva. La governance dell'AI in Italia pone un problema di compliance con le normative europee, ma soprattutto di gestione etica e responsabile delle tecnologie emergenti. Solo il 30% delle aziende italiane dichiara di comprendere pienamente gli standard di privacy e sicurezza. Questo dato è più di una lacuna tecnica; è una mancata opportunità per le aziende di posizionarsi come leader in uno scenario normativo sempre più regolamentato. Integrare le competenze giuridiche e culturali delle PMI italiane nell'AI governance potrebbe rappresentare un elemento distintivo e un vantaggio competitivo. L’approccio etico e su misura, caratteristico del “made in Italy”, può diventare il marchio di qualità anche in ambito tecnologico. Un tema particolarmente delicato è quello del talento. La dipendenza da fornitori esterni e la scarsa disponibilità di competenze specifiche nel mercato italiano riflettono una crisi strutturale che richiede soluzioni innovative. Non basta investire in formazione: è necessario digitalizzare e capitalizzare le capacità uniche delle maestranze italiane, adattandole ai paradigmi dell’AI. Il modello italiano delle filiere produttive, basato su una profonda conoscenza specialistica e su una flessibilità operativa senza eguali, potrebbe essere amplificato dall’introduzione dell’AI, rendendo l'Italia un hub globale di innovazione industriale e artigianale. Anche il problema culturale, spesso attribuito a resistenze interne, deve essere ripensato. La percezione dell’AI come minaccia deve essere ribaltata, comunicandola come un’opportunità per preservare e potenziare l’identità produttiva e culturale del Paese. I leader aziendali devono agire non solo come promotori tecnologici, ma come custodi di una trasformazione che coniughi tradizione e innovazione. Un approccio che metta al centro le persone e il loro know-how potrebbe generare una cultura aziendale dove l’AI diventa strumento per elevare il valore umano. In sintesi, l’Italia può trasformare il ritardo digitale in un’opportunità unica, costruendo un modello di AI che non solo digitalizza ma esalta le competenze distintive delle sue imprese. Non si tratta di rincorrere il modello dei giganti tecnologici, ma di creare una visione alternativa dove la tecnologia serve a valorizzare ciò che rende l’Italia unica. Questo approccio potrebbe non solo colmare il divario con le economie più avanzate, ma posizionare l’Italia come punto di riferimento per un’AI che integra tradizione, innovazione e responsabilità. Podcast: https://spotifycreators-web.app.link/e/Vjpn7otP0Ob Fonte: https://www.cisco.com/c/m/en_us/solutions/ai/readiness-index.html
- Corporate AI. Analysis of the Cisco AI Readiness Index 2024
Artificial Intelligence (AI) continues to dominate the business world. However, despite significant investments and initial enthusiasm, many companies are not as prepared as they thought to adopt and fully integrate AI. This is the main finding of the Cisco AI Readiness Index 2024, a survey that evaluates the readiness of organizations to adopt AI across six key pillars: Strategy, Infrastructure, Data, Governance, Talent, and Culture. The survey involves nearly 8,000 business leaders globally and provides a realistic picture of the challenges companies face. Overview of the Results The Cisco AI Readiness Index 2024 reveals a complex situation: fewer than one in seven companies are classified as "Pacesetters" (leaders in AI adoption), a decrease compared to the previous year. Companies are divided into four readiness levels: Pacesetters (absolute leaders), Chasers (moderately prepared), Followers (with limited preparation), and Laggards (poorly prepared). The percentage of Pacesetters has fallen to 13%, while Followers are the largest group, representing 51% of the total. Another significant finding concerns investment levels. About 50% of companies reported allocating between 10% and 30% of their IT budget to AI, highlighting a strong financial commitment despite the challenges. However, almost 50% of respondents say they have not seen the expected results from their AI investments, indicating that many projects have not delivered tangible improvements in efficiency or automation. Moreover, it emerged that only 38% of companies have clearly defined metrics to measure the impact of AI initiatives, suggesting that a lack of adequate evaluation processes may contribute to the perception of disappointing results. About 59% of the companies interviewed stated that they have a maximum of one year to implement their AI strategy, or they risk losing their competitive advantage. This figure underscores the perceived urgency to accelerate AI adoption, despite the difficulties encountered. Support from top management is also declining: only 66% of boards and 75% of executive teams express support, down from 82% last year. The pressure to adopt AI mainly comes from the highest levels, with 50% of companies citing the CEO and their team as the main promoters of AI adoption. Six Pillars of Corporate AI Adoption 1. Strategy Strategy is the pillar with the highest level of readiness, with 76% of companies classified as Pacesetters or Chasers. Nearly all organizations (95%) claim to have a well-defined or developing AI strategy. The top priority for AI adoption is cybersecurity, with 42% of companies already implementing advanced protection systems. Additionally, 27% of companies indicate that AI is an absolute priority for budget allocation, with no significant variation from last year. The willingness to invest is one of the characteristics that distinguishes Pacesetters from other companies. 2. Infrastructure Infrastructure readiness has slightly decreased compared to last year. About 68% of respondents say their infrastructure is only moderately ready to adopt AI technologies. The main challenges include a lack of adequate computing power and limited scalability and flexibility of existing infrastructures, with 54% of companies reporting issues in this area. Furthermore, 78% lack confidence in the availability of sufficient computing resources to support AI workloads. The growing demand for Graphics Processing Units (GPUs) is another relevant aspect, with 79% of companies requiring additional GPUs to support future workloads. 3. Data Data is fundamental to AI success, but fewer than one-third (32%) of organizations feel truly ready in this regard. The main difficulties concern data fragmentation, with access still being problematic for 82% of companies. The integration of analytics tools with AI platforms is also a significant obstacle, with 73% of companies reporting difficulties in this area. An additional 64% stated that there is room for improvement in tracing data origins, while 80% of companies continue to face issues in data preprocessing and cleaning for AI projects. 4. Governance Governance readiness has decreased this year, partly due to the evolving global regulatory landscape on AI. Only 35% of organizations claim to have a good understanding of global data privacy standards. Furthermore, only 29% have regular controls in place to monitor and correct biases in the data used by AI. A lack of expertise in governance, law, and ethics has been reported by 51% of organizations as one of the main barriers to improving their governance readiness. 5. Talent The lack of talent is one of the main barriers to AI adoption. Only 31% of companies report having talent with a high level of AI preparedness. To address this challenge, 40% of organizations are investing in training existing staff, while 56% rely on contracts with external suppliers to fill the gaps. Additionally, 45% of companies indicated that the lack of adequately skilled talent is one of the main obstacles. Furthermore, 48% of respondents emphasized that the growing competition to attract qualified professionals is contributing to increased costs. 6. Culture Corporate culture is perhaps the most complex pillar to tackle. Only 9% of companies fall into the Pacesetters category regarding cultural readiness, while the number of Chasers has dropped from 40% to 31%. Cultural resistance is evident, with 30% of companies reporting resistance to AI adoption by employees. Furthermore, the receptiveness of boards has dropped from 82% to 66%, indicating a significant decline in enthusiasm for AI adoption at the highest levels. Support from leadership teams has also dropped to 75%, signaling increased difficulty in gaining widespread commitment within organizations. Challenges and Recommendations in Italy The Italian situation presents some peculiarities compared to the rest of the global landscape analyzed by the Cisco AI Readiness Index 2024. In Italy, the level of readiness of companies for AI adoption appears even more uneven, with a significant concentration of organizations falling into the "Followers" or "Laggards" category. Indeed, only 10% of Italian companies are classified as "Pacesetters," well below the global average of 13%. This figure reflects slow progress in adopting AI technologies, partly due to poor digitalization and delayed infrastructure modernization that characterize many Italian companies. Regarding infrastructure, Italy shows an even more marked shortage in terms of computing resources and scalability. About 63% of Italian companies report significant difficulties in ensuring the availability of GPUs and other computing resources needed to support AI workloads, and 70% say that their infrastructure is not flexible enough to adapt to growing needs. This aspect significantly limits the ability of Italian businesses to compete internationally, where AI-ready infrastructure is considered a fundamental requirement to accelerate innovation. In terms of talent, the lack of specific skills is particularly acute in Italy. Only 28% of Italian companies say they have adequately trained personnel for AI adoption, while 47% rely on external providers to fill skill gaps. This figure highlights a strong dependence on external partners, which could limit the ability to develop internal, sustainable, strategic skills in the long term. To address this situation, 35% of Italian companies have started investing in training and reskilling programs for staff, but the scale of these efforts remains limited compared to actual needs. AI governance in Italy is also weak, especially regarding compliance with emerging European regulations. Only 30% of Italian companies claim to have a good understanding of data privacy and security standards imposed by the GDPR and more recent regulations such as the European Union's AI Act. This puts Italian companies in a vulnerable position regarding ensuring compliance with legal requirements, with the risk of incurring sanctions or not being able to fully exploit the opportunities offered by AI due to regulatory constraints. To address these challenges, recommendations for Italian companies include a greater focus on infrastructure upgrades and adopting scalable cloud solutions that can provide adequate computing capacity without requiring significant initial investments. Additionally, it is crucial to encourage collaboration between companies, universities, and research centers to foster the development of local AI skills, reducing reliance on external suppliers. Finally, increased attention to governance and regulatory compliance can help Italian companies improve their readiness, ensuring that AI adoption occurs responsibly and in line with European standards. Promoting an innovation culture is another crucial step for Italy. Many Italian companies still show some cultural resistance to AI adoption, often seen as a threat rather than an opportunity. Encouraging experimental use of AI, providing training support, and promoting internal success stories could help reduce these resistances and create a more favorable environment for technological innovation. Conclusions AI adoption in Italian companies reflects a landscape where the complexity of challenges intertwines with the urgency of transformation. The Cisco AI Readiness Index 2024 clearly shows how many organizations find themselves in a phase of stagnation, where initial enthusiasm has clashed with the harsh reality of infrastructural, cultural, and strategic preparedness. However, despite the digital lag compared to the industrialized world, Italy has a unique asset: the skills of its workforce and widespread entrepreneurship, particularly in micro-enterprises and SMEs, which represent a globally competitive excellence. This element must become the core of a national strategy that transforms the advent of AI into an opportunity to digitize the country's distinctive skills, creating AI capable of differentiating Italy in the global industrial and manufacturing landscape. First of all, the fact that only 10% of Italian companies are classified as "Pacesetters" highlights a problem of strategic vision and systemic investment. This cannot be seen merely as a lack of resources but rather as a weakness in long-term thinking in a global context. AI offers the opportunity to enhance and amplify Italy's artisanal and specialized skills, creating a technological ecosystem that reflects local excellences. In this context, the Italian model could emerge not as an emulation of large digital economies but as an innovative and distinctive reinterpretation. AI governance in Italy presents a problem of compliance with European regulations but, above all, of ethical and responsible management of emerging technologies. Only 30% of Italian companies claim to fully understand privacy and security standards. This figure is more than a technical gap; it is a missed opportunity for companies to position themselves as leaders in an increasingly regulated environment. Integrating legal and cultural expertise from Italian SMEs into AI governance could represent a distinctive element and a competitive advantage. The ethical and tailored approach, characteristic of "made in Italy," can become a mark of quality even in the technological field. A particularly delicate issue is talent. Dependence on external suppliers and the limited availability of specific skills in the Italian market reflect a structural crisis that requires innovative solutions. It is not enough to invest in training; it is necessary to digitize and capitalize on the unique capabilities of the Italian workforce, adapting them to AI paradigms. The Italian model of production chains, based on deep specialist knowledge and unparalleled operational flexibility, could be amplified by the introduction of AI, making Italy a global hub of industrial and artisanal innovation. The cultural problem, often attributed to internal resistance, must also be reconsidered. The perception of AI as a threat must be reversed, communicating it as an opportunity to preserve and enhance the country's productive and cultural identity. Business leaders must act not only as technological promoters but as guardians of a transformation that combines tradition and innovation. An approach that places people and their know-how at the center could generate a corporate culture where AI becomes a tool to elevate human value. In conclusion, Italy can transform its digital lag into a unique opportunity, building an AI model that not only digitizes but also enhances the distinctive competencies of its companies. This is not about chasing the model of technological giants but about creating an alternative vision where technology serves to enhance what makes Italy unique. This approach could not only bridge the gap with more advanced economies but position Italy as a reference point for AI that integrates tradition, innovation, and responsibility. Podcast: https://spotifycreators-web.app.link/e/LILYOqtP0Ob Source: https://www.cisco.com/c/m/en_us/solutions/ai/readiness-index.html
- University Exams and AI
The recent rise of artificial intelligence systems, such as ChatGPT, presents a fundamental challenge for the education sector. The case study we analyze explores the infiltration of artificial intelligence in university examination systems, testing universities' ability to detect the use of AI tools to complete academic assessments. The research was conducted by Peter Scarfe, Kelly Watcham, Alasdair Clarke, and Etienne Roesch at the University of Reading, United Kingdom, and was published in the journal PLOS ONE on June 26, 2024. Objective and Methodology The primary objective of the study was to evaluate the ability of a university to detect exam responses generated by an AI system (specifically GPT-4) and the effect of these responses on the grading system. The methodology involved injecting AI-generated responses into five modules spread across all years of a BSc Psychology course at the University of Reading. For each module, approximately 5% of the total responses were produced by AI, a manageable number that did not overwhelm the evaluators and ensured uniform coverage. Two types of exams were used: Short Answer Questions (SAQ) and Essay-Based Questions. The SAQ exams involved answering four out of six questions, within a 2.5-hour time frame. For the Essay exams, students had to respond to a single question with an essay, completed within an 8-hour time limit. All exams were conducted at home, with access to study materials, academic articles, and the internet, which increased the risk of undetected use of AI tools. To ensure variety in the AI responses, standardized prompts were used for each type of question. However, it was found that the GPT-4 model tended to produce a word count not always in line with the required limit: 160 words for SAQ were often exceeded, while 2000 words for Essays were sometimes insufficient, requiring the use of the prompt "Please continue your answer" to generate more complete texts. In some cases, despite the prompt, the AI generated reference sections that were subsequently removed for consistency with the required response format. An interesting aspect of the experiment's design was the use of university student aliases created specifically for the submission of AI responses, which allowed for anonymity and ensured that the responses were treated like any other real response by the existing submission and evaluation tools. The AI responses were submitted at the end of the submission period for each exam, faithfully replicating the expected behavior of students. University Exams and AI: Main Findings The study's findings highlighted some particularly interesting trends. In addition to the fact that 94% of the AI-generated responses were not detected as suspicious, it was found that AI responses tended to score higher than the average of real students in four of the five modules. This effect was quantified through various measures, offering deeper insight into the results obtained: • Grade Distribution : The AI-generated responses showed a concentration in the higher score range. In particular, the grades obtained by AI responses were often placed between the 2:1 and first-class levels. In the grade distribution charts, the AI responses were concentrated in the upper range compared to real student responses, with averages falling within higher classifications. • Median Analysis : In four of the five modules, the medians of the AI responses were within the 2:1 and first-class range (considered excellent in the British grading system). Only in module P3-M1 did the AI score lower than real students, indicating difficulty in dealing with more advanced and abstract content. • Score Advantage : In terms of grade advantage, the average margin of the AI responses was about half a classification above the grades of real students, with extreme differences in some cases reaching almost an entire classification level. In module P1-M2, for instance, AI consistently scored in the first-class range, significantly outperforming real students. • Pass Probability : Through repeated random sampling analysis conducted 100,000 times, it emerged that there was an 83.4% probability that a random sample of AI responses would outperform a random sample of real student responses. In lower-level modules, such as P1-M1 and P1-M2, this probability was nearly 100%. Only in the more advanced module, P3-M1, did AI have a 19% chance of outperforming student responses. • Pass Rate Analysis : Overall, only 16% of student responses scored higher than the median of AI responses, confirming the superior overall performance of AI-generated answers. These results suggest that AI not only managed to pass undetected in terms of detectability but also produced significantly higher quality content compared to students in various settings. However, AI showed limitations in tasks requiring more abstract reasoning, as evidenced in module P3-M1. The Challenge of Detecting AI in Academic Assessments The analysis of the data collected during the study highlighted a low ability to detect AI-generated responses by the evaluators and the systems currently in use. Only 6% of the responses were flagged for suspicions of academic misconduct, without any explicit reference to the use of artificial intelligence. When the detection criterion was narrowed to cases where AI was specifically mentioned, the detection percentage further dropped to 3%. This highlights a significant difficulty in identifying AI-generated content, despite the efforts of evaluators. A more detailed analysis revealed that the ability to detect AI was particularly ineffective in Essay-Based questions, where none of the AI-generated responses were identified as suspicious. This could be attributed to GPT-4's ability to generate articulate and coherent responses, which closely resemble the writing style of real students, making it extremely difficult to differentiate between human and AI-generated content. In contrast, for Short Answer Questions (SAQ), where no similarity-checking software was used, some flags were raised. However, even in these cases, the detection rate remained extremely low. Interestingly, markers (the evaluators assigned to assign grades) flagged only those responses that had particularly anomalous characteristics, such as stylistic quality that was too high for a university exam. In these cases, some markers even attempted to verify the response through AI detection systems, but with poor results. According to the study, most markers lacked sufficient tools and guidelines to identify AI use, and even software designed to detect text generation by language models proved inadequate. For instance, detection systems used, including solutions specifically developed for GPT-4, had a detection success rate of less than 26%, rendering their efforts to counter unauthorized use of AI in assessments practically useless. These findings suggest a strong need to develop new methods for assessing academic integrity and to enhance markers' training in recognizing signs of AI usage, considering the high probability of false negatives. The analysis of detection rates and obtained grades clearly showed that AI responses were not only practically indistinguishable but also consistently scored better than those of real students, placing themselves in a dangerous position for academic integrity. The adoption of remote proctoring tools and the integration of new pedagogical approaches seem to be the most concrete options for addressing the issue in the future. Implications for Academic Integrity This study raises serious concerns about academic integrity and the ability of higher education institutions to deal with the use of AI. With such a high percentage of AI responses going undetected and even managing to achieve higher grades than real students, there is a real risk that students might use AI to gain undeserved academic advantages. The undetected use of AI raises the risk of a profound distortion of the value of academic qualifications. If AI is systematically outperforming human students and its responses go undetected, there is a danger that grades no longer reflect individual students' competencies, but rather their ability to use technological tools to enhance their performance. This undermines the reliability of the education system as an indicator of merit and acquired knowledge. In addition, the phenomenon of AI "hallucination," where it produces false but seemingly credible information, adds another layer of complexity. However, the fact that such errors were not evident enough to alert evaluators underscores how difficult it is for teachers to distinguish between authentic and automatically generated responses. This issue becomes even more critical considering that even the most advanced tools for AI detection have proven ineffective. Another important aspect is the growing phenomenon of unsupervised exams, a practice accelerated by the COVID-19 pandemic. This exam format offers students a much greater opportunity to use AI tools to complete their assignments. The research showed how home exams, without supervision, are particularly vulnerable to this type of abuse. Since grades assigned to AI-generated assignments were often higher than the average student scores, it is likely that an increasing number of students could be incentivized to use AI to improve their academic performance. The inclusion of AI technology in academic education may be inevitable, but it is necessary for clear norms to be established on how and when it is permissible to use it. A possible response could be to revise assessment methods, integrating approaches that are more challenging to tackle using AI. For example, practical assignments, oral assessments, or supervised group projects could reduce the impact of unauthorized use of technological tools. Additionally, it might be helpful to teach students how to use AI ethically and responsibly, preparing a generation of graduates who can leverage these technologies without resorting to academic misconduct. Conclusions The integration of artificial intelligence in university examination systems represents a crucial turning point for the education sector, highlighting deep vulnerabilities in traditional assessment methods and raising fundamental questions about academic integrity and the future of education. The analyzed study reveals an uncomfortable reality: AI is not only difficult to detect but often outperforms student responses, demonstrating that current evaluation criteria may favor content generated by algorithms rather than by human understanding. This underscores a paradox: academic success may depend less on individual capability and more on technological competence, undermining the meritocratic principle underlying higher education. University exams and AI open up scenarios of great strategic relevance, characterized by considerable complexity and a wide range of implications. First, a systemic challenge emerges: if AI can produce undetectable and high-quality responses, this forces institutions to reconsider not only detection methods but also the very concept of competence assessment. The ability to memorize information or write a well-structured essay may no longer be the benchmark for measuring learning. It becomes essential to redefine educational goals, focusing on skills that AI cannot easily replicate, such as critical thinking, creativity, and the ability to integrate interdisciplinary knowledge. This shift requires a transition from a reactive evaluation model to a proactive one. Universities must develop approaches that not only detect AI usage but consider AI itself as a teaching tool to be ethically integrated. For example, rather than banning the use of AI, students could be evaluated on their ability to collaborate with it effectively, transparently, and innovatively. Such an approach would not only reduce the risk of abuse but also prepare students for a job market where AI is increasingly pervasive. Another crucial element is the urgency of creating a resilient educational ecosystem. The pandemic has accelerated the adoption of unsupervised exams, but this format has proven particularly vulnerable to AI abuse. Institutions must balance the need for flexibility with the requirement to ensure the integrity of results. Solutions like remote proctoring, while useful, risk compromising trust between students and universities if perceived as intrusive. Therefore, it is essential to develop less intrusive but more effective technological tools and invest in a culture of transparency and ethics. Finally, the implications extend beyond education, affecting the job market and society at large. If academic qualifications lose credibility, there is a risk of a crisis of trust in academic institutions, with direct consequences on the employability of graduates. Companies, for their part, will need to adapt their selection processes to distinguish between real skills and abilities derived from AI usage. This requires greater collaboration between universities and employers to define assessment standards that reflect candidates' real capabilities. In summary, the advent of AI in university examination systems represents not only a technological challenge but also a unique opportunity to rethink education and its role in society. The future of learning will not be determined by the ability to avoid AI but by the ability to coexist with it, leveraging it as a catalyst for more authentic, inclusive, and real-world-oriented education. Podcast: https://spotifycreators-web.app.link/e/kRyJzuPp0Ob Source: https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0305354
- Esami universitari e AI
L'ascesa recente dei sistemi di intelligenza artificiale, come ChatGPT, rappresenta una sfida fondamentale per il settore educativo. Il caso studio che analizziamo ha esplorato l'infiltrazione dell'intelligenza artificiale nei sistemi di esame universitari, mettendo alla prova la capacità delle università di rilevare l'utilizzo di strumenti di AI per completare valutazioni accademiche. La ricerca è stata condotta da Peter Scarfe, Kelly Watcham, Alasdair Clarke ed Etienne Roesch presso l'Università di Reading, nel Regno Unito, ed è stata pubblicata sulla rivista PLOS ONE il 26 giugno 2024. Obiettivo e metodologia L'obiettivo principale dello studio è stato valutare la capacità di un'università di rilevare risposte d'esame generate da un sistema di AI (nello specifico GPT-4) e l'effetto di queste risposte sul sistema di valutazione. La metodologia ha previsto l'iniezione di risposte generate dall'AI in cinque moduli, distribuiti su tutti gli anni di studio di un corso di laurea BSc in Psicologia presso l'Università di Reading. Per ogni modulo, circa il 5% del totale delle risposte è stato prodotto dall'AI, un numero gestibile che permetteva di non sovraccaricare i valutatori e garantiva una copertura uniforme. Sono stati utilizzati due tipi di esami: Short Answer Questions (SAQ) ed Essay Based Questions . Gli esami SAQ consistevano nella risposta a quattro domande a scelta su sei, con una finestra di tempo di 2,5 ore . Per gli esami di tipo Essay, gli studenti dovevano rispondere a una singola domanda con un saggio, da completare in un limite di tempo di 8 ore . Tutti gli esami erano svolti a casa, con accesso a materiali di studio, articoli accademici e internet, il che aumentava il rischio di utilizzo non rilevato di strumenti di AI. Per garantire la varietà delle risposte AI, sono stati utilizzati prompt standardizzati per ogni tipo di domanda. Tuttavia, è emerso che il modello GPT-4 tendeva a produrre un numero di parole non sempre in linea con il limite richiesto: 160 parole per SAQ risultavano spesso eccedenti, mentre 2000 parole per gli Essay erano a volte insufficienti, richiedendo l'utilizzo del prompt "Per favore continua la tua risposta" per generare testi più completi. In alcuni casi, nonostante il prompt, l'AI generava sezioni di riferimento che sono state successivamente rimosse per coerenza con il formato di risposta richiesto. Un aspetto interessante del design dell'esperimento è stato l'uso di alias di studenti universitari creati appositamente per la sottomissione delle risposte AI, che hanno consentito di mantenere l'anonimato e garantire che le risposte venissero trattate come qualunque altra risposta reale dagli strumenti di sottomissione e valutazione esistenti. Le risposte AI sono state inviate alla fine del periodo di sottomissione per ogni esame, replicando fedelmente il comportamento atteso dagli studenti. Esami universitari e AI: risultati principali I risultati dello studio hanno evidenziato alcune tendenze particolarmente interessanti. Oltre al fatto che il 94% delle risposte generate dall'AI non è stato rilevato come sospetto, è stato rilevato che le risposte dell'AI tendevano a ottenere punteggi superiori alla media degli studenti reali in quattro dei cinque moduli. Questo effetto è stato quantificato attraverso diverse misure, che offrono una visione più approfondita dei risultati ottenuti: Distribuzione dei voti : Le risposte generate dall'AI hanno mostrato una concentrazione nella fascia alta dei punteggi. In particolare, i voti ottenuti dalle risposte dell'AI erano spesso collocati tra il 2:1 e il primo livello . Nei grafici di distribuzione dei voti, le risposte dell'AI sono risultate concentrate nella fascia superiore rispetto alle risposte degli studenti reali, con medie situate nelle classificazioni più alte. Analisi delle mediane : In quattro dei cinque moduli, le mediane dei voti delle risposte dell'AI si trovavano nel range 2:1 e primo livello (considerati eccellenti nel sistema di classificazione britannico). Solo nel modulo P3-M1, l'AI ha ottenuto voti inferiori rispetto agli studenti reali, indicando una difficoltà nell'affrontare contenuti di livello più avanzato e astratto. Vantaggio di punteggio : In termini di vantaggio sui voti, il margine medio dei voti delle risposte dell'AI era superiore di circa mezza classe di classificazione rispetto ai voti degli studenti reali, con differenze estreme che in alcuni casi hanno raggiunto quasi un'intera classe di classificazione. Nel modulo P1-M2 , ad esempio, l'AI ha ottenuto mediamente voti di prima classe, superando nettamente gli studenti reali. Probabilità di superamento : Attraverso un'analisi di campionamento casuale ripetuto 100.000 volte, è emerso che vi era una probabilità dell' 83,4% che un campione casuale di risposte dell'AI superasse un campione casuale di risposte di studenti reali. Nei moduli di livello più basso, come P1-M1 e P1-M2, tale probabilità era quasi del 100% . Solo nel modulo più avanzato, P3-M1, l'AI ha avuto una probabilità del 19% di superare le risposte degli studenti. Analisi della percentuale di superamento : Complessivamente, solo il 16% delle risposte degli studenti ha ottenuto un punteggio superiore rispetto alla mediana delle risposte dell'AI, confermando la performance complessiva superiore delle risposte generate dall'AI. Questi risultati suggeriscono che l'AI non solo è riuscita a passare inosservata in termini di rilevabilità, ma è anche riuscita a produrre contenuti di qualità significativamente superiore rispetto agli studenti in diversi contesti. Tuttavia, l'AI ha mostrato limiti in compiti che richiedevano un ragionamento più astratto, come evidenziato nel modulo P3-M1. La sfida del rilevamento dell'AI nelle valutazioni accademiche L'analisi dei dati raccolti durante lo studio ha evidenziato una bassa capacità di rilevamento delle risposte generate dall'AI da parte dei valutatori e dei sistemi attualmente in uso. Solo il 6% delle risposte è stato segnalato per sospetti di cattiva condotta accademica, senza che vi fosse un riferimento esplicito all'uso di intelligenza artificiale. Quando il criterio di rilevamento è stato ristretto ai soli casi in cui l'AI veniva specificamente menzionata, la percentuale di rilevamento è ulteriormente scesa al 3% . Questo evidenzia una significativa difficoltà nell'individuare contenuti generati dall'AI, nonostante gli sforzi dei valutatori. Un'analisi più dettagliata ha rivelato che la capacità di rilevare l'AI era particolarmente inefficace nelle domande di tipo Essay Based , dove nessuna delle risposte generate dall'AI è stata identificata come sospetta. Questo potrebbe essere attribuito alla capacità del modello GPT-4 di generare risposte articolate e coerenti, che si avvicinano allo stile di scrittura degli studenti reali, rendendo estremamente difficile differenziare tra contenuti umani e generati. Al contrario, per le domande di tipo Short Answer Questions (SAQ) , in cui non erano utilizzati software di verifica della similitudine, si è verificata qualche segnalazione. Tuttavia, anche in questi casi, il tasso di rilevamento rimaneva estremamente basso. È interessante notare come i marker, ovvero i valutatori incaricati di assegnare i voti, abbiano segnalato come sospette solo le risposte che presentavano caratteristiche particolarmente anomale, come una qualità stilistica troppo elevata rispetto alle attese per un esame universitario. In questi casi, alcuni marker hanno persino provato a verificare la risposta tramite l'uso di sistemi di rilevamento dell'AI, ma con risultati poco efficaci. Secondo quanto emerso dallo studio, la maggior parte dei marker non aveva sufficienti strumenti e linee guida per identificare l'uso dell'AI, e persino i software progettati per rilevare la generazione di testi da parte di modelli di linguaggio risultavano insufficienti. Ad esempio, i sistemi di rilevamento utilizzati, tra cui anche soluzioni sviluppate appositamente per GPT-4, avevano un tasso di rilevamento di successo inferiore al 26% , rendendo di fatto inutili i loro sforzi per contrastare l'uso non autorizzato dell'AI nelle valutazioni. Questi risultati suggeriscono una forte necessità di sviluppare nuovi metodi di valutazione dell'integrità accademica e di potenziare la formazione dei marker nel riconoscere segnali di utilizzo dell'AI, considerando anche l'alta probabilità di falsi negativi. L'analisi delle percentuali di rilevamento e dei voti ottenuti ha mostrato chiaramente che le risposte dell'AI non solo erano praticamente indistinguibili, ma ottenevano anche voti migliori rispetto a quelle degli studenti reali, collocandosi in una posizione pericolosa per l'integrità accademica. L'adozione di strumenti di proctoring remoto e l'integrazione di nuovi approcci pedagogici sembrano essere le opzioni più concrete per contrastare il problema in futuro. Implicazioni per l'integrità accademica Questo studio solleva seri dubbi sull'integrità accademica e sulla capacità degli istituti di istruzione superiore di affrontare l'uso dell'AI. Con una percentuale così elevata di risposte AI non rilevate e addirittura in grado di ottenere voti più alti rispetto agli studenti reali, c'è il rischio concreto che gli studenti possano utilizzare l'AI per ottenere vantaggi accademici non meritati. L'uso non rilevato dell'AI solleva il rischio di una profonda distorsione del valore dei titoli di studio. Se l'AI è in grado di superare sistematicamente gli studenti umani e le sue risposte non vengono rilevate, c'è il pericolo che i voti non riflettano più le competenze individuali degli studenti, ma piuttosto la loro abilità nell'utilizzare strumenti tecnologici per migliorare le proprie prestazioni. Questo compromette l'affidabilità del sistema educativo come indicatore di merito e conoscenza acquisita. In aggiunta, il fenomeno dell' AI che "allucina", ovvero che produce informazioni false ma apparentemente credibili, aggiunge un ulteriore livello di complessità. Tuttavia, il fatto che tali errori non siano stati abbastanza evidenti da allertare i valutatori sottolinea quanto sia arduo per gli insegnanti distinguere tra risposte autentiche e quelle generate automaticamente. Questo problema diventa ancora più critico considerando che anche gli strumenti più avanzati per la rilevazione dell'AI si sono dimostrati inefficaci. Un altro aspetto importante è il crescente fenomeno degli esami non supervisionati , una pratica accelerata dalla pandemia di COVID-19. Questo formato di esame offre agli studenti un'opportunità molto maggiore di sfruttare strumenti di AI per completare i loro compiti. La ricerca ha mostrato come gli esami a casa, senza vigilazione, siano particolarmente vulnerabili a questo tipo di abuso. Poiché i voti assegnati agli elaborati generati dall'AI erano spesso più alti rispetto alla media degli studenti, è probabile che un numero crescente di studenti potrebbe essere incentivato a utilizzare l'AI per migliorare le proprie prestazioni accademiche. L'inclusione della tecnologia AI nella formazione accademica potrebbe essere inevitabile, ma è necessario che vengano stabilite norme chiare su come e quando sia lecito farne uso. Una possibile risposta potrebbe essere quella di rivedere i metodi di valutazione, integrando modalità che siano più difficili da affrontare con l'uso dell'AI. Ad esempio, compiti pratici, valutazioni orali o progetti di gruppo supervisionati potrebbero ridurre l'impatto dell'uso non autorizzato di strumenti tecnologici. Inoltre, potrebbe essere utile insegnare agli studenti come utilizzare l'AI in modo etico e con consapevolezza, preparando una generazione di laureati che sappia sfruttare queste tecnologie senza cadere in comportamenti di cattiva condotta accademica. Conclusioni L’integrazione dell’intelligenza artificiale nei sistemi di esame universitari rappresenta un punto di svolta cruciale per il settore educativo, evidenziando vulnerabilità profonde nei metodi di valutazione tradizionali e sollevando questioni fondamentali sull’integrità accademica e il futuro della formazione. Lo studio analizzato mette in luce una realtà scomoda: l’AI non solo è difficile da rilevare, ma spesso supera in qualità le risposte degli studenti, dimostrando che i criteri di valutazione attuali possono favorire contenuti generati da algoritmi piuttosto che dalla comprensione umana. Questo dato sottolinea un paradosso: il successo accademico potrebbe dipendere sempre meno dalla capacità individuale e sempre più dalla competenza tecnologica, minando il principio meritocratico alla base dell’istruzione superiore. Gli esami universitari e l’AI aprono scenari di grande rilevanza strategica, caratterizzati da una notevole complessità e vastità di implicazioni. In primo luogo, emerge una sfida sistemica: se l’AI è in grado di produrre risposte non rilevabili e di alta qualità, ciò costringe le istituzioni a riconsiderare non solo i metodi di rilevazione, ma anche il concetto stesso di valutazione delle competenze. La capacità di memorizzare informazioni o di scrivere un saggio ben strutturato potrebbe non essere più il parametro di riferimento per misurare l’apprendimento. Diventa quindi essenziale ridefinire gli obiettivi educativi, puntando su competenze che l’AI non può replicare facilmente, come il pensiero critico, la creatività e la capacità di integrare conoscenze interdisciplinari. Questo cambiamento richiede una transizione da un modello valutativo reattivo a uno proattivo. Le università devono sviluppare approcci che non si limitino a rilevare l’uso dell’AI, ma che considerino l’AI stessa come uno strumento didattico da integrare in modo etico. Ad esempio, anziché proibire l’uso dell’AI, gli studenti potrebbero essere valutati sulla loro capacità di collaborare con essa in modo efficace, trasparente e innovativo. Tale approccio non solo ridurrebbe il rischio di abuso, ma preparerebbe gli studenti a un mondo del lavoro dove l’AI è sempre più pervasiva. Un altro elemento cruciale è l’urgenza di creare un ecosistema educativo resiliente. La pandemia ha accelerato l’adozione di esami non supervisionati, ma questo formato si è dimostrato particolarmente vulnerabile all’abuso dell’AI. Le istituzioni devono bilanciare la necessità di flessibilità con l’esigenza di garantire l’integrità dei risultati. Soluzioni come il proctoring remoto, pur utili, rischiano di compromettere la fiducia tra studenti e università se percepite come invasive. Di conseguenza, è fondamentale sviluppare strumenti tecnologici meno intrusivi ma più efficaci e investire in una cultura della trasparenza e dell’etica. Infine, le implicazioni non riguardano solo l’educazione, ma anche il mercato del lavoro e la società nel suo complesso. Se i titoli di studio perdono credibilità, si rischia una crisi di fiducia nei confronti delle istituzioni accademiche, con conseguenze dirette sull’occupabilità dei laureati. Le imprese, dal canto loro, dovranno adattare i loro processi di selezione per distinguere tra competenze effettive e abilità derivanti dall’uso dell’AI. Questo richiede una maggiore collaborazione tra università e datori di lavoro per definire standard di valutazione che riflettano le reali capacità dei candidati. In sintesi, l’avvento dell’AI nei sistemi di esame universitari rappresenta non solo una sfida tecnologica, ma anche un’opportunità unica per ripensare l’educazione e il suo ruolo nella società. Il futuro dell’apprendimento non sarà determinato dalla capacità di evitare l’AI, ma dalla capacità di conviverci, sfruttandola come catalizzatore di una formazione più autentica, inclusiva e orientata al mondo reale. Podcast: https://spotifycreators-web.app.link/e/xBd0tMwp0Ob Fonte: https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0305354
- Impatto dell’AI in contabilità e finanza
L'intelligenza artificiale (AI) sta trasformando il settore della contabilità e della finanza, portando innovazione e migliorando significativamente i processi decisionali. Tuttavia, introduce anche sfide importanti, soprattutto in termini di etica, gestione dei dati e trasformazione delle competenze professionali. Questo articolo si basa su una ricerca condotta dall'Institute of Management Accountants (IMA), guidata da Qi "Susie" Duong, insieme ad altri consulenti esperti del settore. Esploreremo le principali tendenze dell'AI in contabilità e finanza, le applicazioni pratiche, e le sfide e i requisiti per un'implementazione efficace di tali tecnologie. Tendenze dell'AI in contabilità e finanza La crescita esponenziale dell'AI sta portando a una profonda trasformazione delle modalità operative delle aziende nel settore della contabilità e della finanza. Secondo la ricerca dell'IMA, il 70% dei leader aziendali ritiene che l'AI stia trasformando il settore, soprattutto grazie all'adozione di modelli predittivi e all'analisi dei dati in tempo reale. In particolare, l'integrazione di algoritmi di apprendimento automatico consente di ottenere previsioni più accurate e identificare tempestivamente i trend di mercato. Questo è evidente nell'adozione dell'AI da parte di aziende come Zoom e Ford, che stanno utilizzando modelli di AI per prevedere le richieste degli analisti e rispondere a quesiti interni, dimostrando un aumento della produttività fino al 25% in alcuni settori. Le tecnologie AI sono ora utilizzate per automatizzare processi tradizionalmente manuali come conti da pagare e ricevere, chiusure mensili e trimestrali, gestione delle spese e approvvigionamento. I leader aziendali stanno esplorando il potenziale dell'AI generativa per incrementare la produttività e ottenere nuovi spunti strategici. L'AI generativa, una sottoclasse del machine learning, è in grado di creare nuovi contenuti e generare valore aggiunto nei processi aziendali. Per esempio, il 45% dei partecipanti allo studio ha affermato che l'adozione dell'AI generativa ha migliorato significativamente l'efficienza nella gestione dei report finanziari e nella creazione di contenuti automatizzati per analisi strategiche. Applicazioni dell'AI L'AI trova applicazione in vari aspetti della gestione finanziaria, inclusa la semplificazione dei processi e la gestione dei rischi. Una delle principali aree di utilizzo dell'AI è l'automazione dei processi contabili. Circa il 65% delle aziende intervistate ha implementato sistemi di automazione per conti da pagare e ricevere, ottenendo una riduzione dei tempi di elaborazione fino al 30%. Inoltre, l'AI è stata impiegata per migliorare l'accuratezza delle chiusure finanziarie trimestrali, riducendo il margine di errore umano del 20%. Questo è stato possibile grazie all'uso di algoritmi di riconoscimento ottico dei caratteri (OCR) che automatizzano il riconoscimento e la registrazione di documenti finanziari. Un altro esempio significativo è l'implementazione dell'AI per la gestione delle tasse in contesti internazionali complessi. Un'azienda leader nel settore dei dispositivi smart ha utilizzato un motore fiscale integrato basato su AI per identificare discrepanze nelle normative fiscali di diversi paesi, migliorando la compliance e riducendo i costi operativi legati alle irregolarità fiscali del 18%. L'integrazione di sistemi AI per la generazione automatica di report ha inoltre consentito un aumento dell'efficienza, permettendo una visione giornaliera e consolidata delle performance finanziarie globali. Nel settore sanitario, l'AI ha avuto un impatto particolarmente significativo nella gestione dei costi ospedalieri. L'adozione dell'AI per il monitoraggio delle spese operative ha portato a un risparmio del 15%, grazie all'analisi predittiva e al miglioramento delle decisioni basate sui dati. La capacità di processare grandi volumi di dati ha reso l'AI uno strumento chiave per la pianificazione strategica delle risorse, specialmente in situazioni di emergenza come la pandemia da COVID-19. Un altro esempio interessante è l'uso dell'intelligenza artificiale per ottimizzare la gestione della supply chain in un'azienda produttrice di uova. Il sistema AI, addestrato per analizzare le immagini delle uova, ha permesso di contarle accuratamente e rilevare difetti, generando un risparmio di circa 6 milioni di dollari grazie alla riduzione delle perdite. Questo esempio mostra chiaramente come l'AI possa contribuire a migliorare l'efficienza operativa e la redditività. Sfide e prerequisiti dell'implementazione dell'AI Nonostante i vantaggi evidenti, l'integrazione dell'AI nel settore della contabilità e della finanza presenta sfide considerevoli. Secondo la ricerca dell'IMA, il 38% dei partecipanti ha identificato l'aspetto umano come la principale sfida per il successo delle iniziative di AI. In particolare, la mancanza di competenze specialistiche tra il personale rappresenta un problema significativo: molte aziende stanno cercando di colmare questo gap attraverso programmi di formazione e sviluppo, ma il 30% delle organizzazioni afferma di avere difficoltà a trovare talenti adeguati. Inoltre, la mancanza di supporto da parte dei vertici aziendali è stata citata come uno dei principali ostacoli per l'adozione efficace dell'AI, soprattutto per la necessità di riorganizzare le risorse e stabilire nuove priorità strategiche. Dal punto di vista tecnologico, il 33% dei partecipanti ha evidenziato la scarsa qualità dei dati come un elemento critico. La disponibilità di dati di alta qualità è essenziale per l'efficacia degli algoritmi AI, ma molti sistemi esistenti non sono in grado di fornire le informazioni necessarie con la precisione richiesta. La maturità digitale delle organizzazioni è stata identificata come un altro ostacolo rilevante, soprattutto nelle piccole e medie imprese, dove il 44% delle aziende ha dichiarato di non essere pronte a intraprendere un percorso di trasformazione digitale. La ricerca ha anche mostrato differenze regionali nelle sfide affrontate. Negli Stati Uniti, nella regione Asia-Pacifico e in Cina, le sfide principali riguardano gli aspetti umani, mentre nella regione del Medio Oriente e Nord Africa (MENA) i principali ostacoli sono legati alla maturità tecnologica e alla qualità dei dati. In Europa, le sfide operative costituiscono il maggiore ostacolo all'implementazione dell'AI, mentre in India le preoccupazioni sono prevalentemente di tipo etico e legate alla governance. Per quanto riguarda gli aspetti etici e di governance, il 20% dei partecipanti ha espresso preoccupazioni riguardo la sicurezza dei dati e la confidenzialità delle informazioni. La gestione dei bias nei dati e la trasparenza dei modelli di AI sono elementi chiave per garantire la fiducia degli stakeholder e mitigare i rischi etici associati all'adozione di queste tecnologie. È stato suggerito di stabilire protocolli di governance rigorosi e di adottare pratiche di controllo della qualità dei dati per evitare distorsioni che potrebbero compromettere i risultati. Un prerequisito fondamentale per il successo dell'AI, secondo il 40% dei partecipanti allo studio, è l'approccio "top-down". Il supporto e l'impegno della leadership aziendale sono essenziali per garantire che l'AI venga implementata in modo coerente con gli obiettivi strategici dell'organizzazione. Inoltre, il 25% delle organizzazioni ha sottolineato l'importanza di un'analisi costi-benefici dettagliata prima dell'adozione, per assicurarsi che gli investimenti in AI portino effettivi miglioramenti in termini di produttività e risparmio di tempo. L'assenza di supporto da parte dei vertici aziendali, la mancanza di competenze specifiche per lavorare con l'AI e la difficoltà nell'ottenere il consenso di tutti gli stakeholder rappresentano alcuni dei principali fattori limitanti. Ad esempio, è stato riscontrato che la resistenza al cambiamento è spesso più difficile da affrontare rispetto all'adozione stessa della tecnologia. La collaborazione tra professionisti finanziari e data scientist, nota come "collaborative intelligence", è essenziale per garantire un'implementazione efficace dell'AI e risultati ottimali. L'AI può amplificare le capacità cognitive umane, mentre gli esseri umani forniscono il contesto e la supervisione necessari per evitare errori e bias. Ad esempio, la partecipazione di esperti finanziari nel training degli algoritmi AI assicura che i modelli siano addestrati con dati realistici e che le analisi siano pertinenti per gli obiettivi dell'azienda. Aspetti etici e di governance L'adozione dell'AI in contabilità e finanza solleva importanti questioni etiche, come l'integrità dei dati, la sicurezza e la confidenzialità. Secondo la ricerca dell'IMA, il 40% dei partecipanti ha sottolineato l'importanza di garantire l'integrità dei dati per mitigare i rischi di bias nei dati stessi. Un partecipante negli Stati Uniti ha descritto come il proprio sistema AI sia stato addestrato con dati rappresentativi dell'intera popolazione dei prodotti per evitare bias e migliorare l'accuratezza nelle analisi. Inoltre, il 20% dei partecipanti ha espresso preoccupazioni riguardo alla sicurezza dei dati, con particolare enfasi sulla protezione delle informazioni personali e sulla necessità di garantire la confidenzialità durante tutte le fasi del trattamento dei dati. Un altro aspetto fondamentale riguarda la governance dei sistemi AI. Circa il 35% degli intervistati ha evidenziato l'importanza di stabilire protocolli di governance chiari e di educare gli stakeholder sull'uso delle tecnologie AI. Questo aspetto è particolarmente rilevante in regioni come l'Asia-Pacifico, dove alcuni governi, come quello giapponese, stanno iniziando a discutere di come regolamentare l'uso dell'AI sia nel settore pubblico che in quello privato. La fiducia nei sistemi AI dipende in gran parte dalla trasparenza: il 25% dei partecipanti ha dichiarato che una chiara comprensione dei processi che portano alle raccomandazioni generate dall'AI è essenziale per costruire e mantenere la fiducia tra gli utenti. Infine, la questione della fiducia nei sistemi AI rimane un punto cruciale. La mancanza di conoscenza su cosa l'AI possa effettivamente realizzare e su come essa possa trasformare il lavoro dei professionisti della contabilità e finanza è stata citata come un fattore significativo che contribuisce alla mancanza di fiducia. Per affrontare questo problema, è necessario sviluppare programmi di formazione che aiutino i professionisti a comprendere i limiti e le potenzialità dell'AI, promuovendo un utilizzo responsabile e consapevole delle tecnologie AI. Conclusioni L'impatto dell'intelligenza artificiale sulla contabilità e finanza non è soltanto una questione di efficienza operativa o riduzione dei costi: rappresenta una profonda ridefinizione del ruolo umano e organizzativo in un ecosistema finanziario sempre più automatizzato e interconnesso . Ciò che emerge con forza è che la vera sfida non è solo tecnologica, ma anche culturale, strategica e persino etica. L'AI non si limita a cambiare "il come", ma forza le aziende a ripensare "il perché" di molte delle loro attività tradizionali. Questo porta a una riflessione critica sulla trasformazione digitale come opportunità non solo per migliorare, ma per ridefinire i modelli di valore aziendali. In primo luogo, l'automazione e l'analisi predittiva consentite dall'AI stanno spingendo le aziende a muoversi da un approccio reattivo a uno proattivo. Le decisioni non sono più basate solo su dati storici, ma su simulazioni e proiezioni che consentono di anticipare scenari futuri. Questo cambia radicalmente il concetto di rischio , che diventa più gestibile ma anche più esposto all'interdipendenza di sistemi complessi. In tal senso, il ruolo del CFO non sarà più limitato alla supervisione della salute finanziaria aziendale, ma diventerà sempre più strategico, richiedendo una visione integrata che abbracci finanza, tecnologia e sostenibilità. Un punto critico che spesso sfugge è che l'AI ridefinisce il concetto di valore aziendale . Non si tratta solo di fare meglio quello che già si faceva, ma di capire quali nuovi spazi di mercato, prodotti o servizi possono emergere. Ad esempio, l'AI generativa, attraverso la creazione di contenuti strategici, non solo migliora l'efficienza, ma trasforma l'approccio alla conoscenza aziendale, favorendo un tipo di innovazione che potremmo definire "guidata dai dati". Tuttavia, questa potenzialità rischia di rimanere inespressa senza un forte commitment da parte della leadership aziendale, che deve saper tradurre i risultati tecnologici in strategie concrete. Un aspetto ancora più profondo riguarda la trasformazione delle competenze professionali . Il lavoro ripetitivo e transazionale è destinato a scomparire, ma con esso nasce la necessità di sviluppare competenze ibride. I professionisti della contabilità e finanza dovranno diventare interpreti, mediatori e curatori dei risultati generati dall’AI. Questo significa sviluppare un'intelligenza collaborativa che vada oltre il semplice utilizzo delle macchine, per comprendere e contestualizzare le loro analisi. La formazione continua, tuttavia, non è sufficiente: occorre un cambiamento nel mindset, che valorizzi la complementarità tra uomo e macchina. In altre parole, l’AI deve essere vista non come un sostituto, ma come un moltiplicatore delle capacità umane. Sul piano etico e di governance, emerge un tema cruciale: l'AI non è neutrale. I modelli di intelligenza artificiale ereditano i bias e le limitazioni dei dati con cui vengono addestrati. Questo impone alle aziende di ridefinire i confini della responsabilità : chi è responsabile per un errore decisionale derivato da un algoritmo? Come si garantisce la trasparenza nei modelli che, per loro natura, sono spesso percepiti come opachi? E, soprattutto, come si può bilanciare l'adozione di tecnologie avanzate con la fiducia degli stakeholder, sempre più attenti ai temi di sicurezza e sostenibilità? Infine, l'AI introduce una dimensione geopolitica nel settore della contabilità e finanza. La maturità digitale e le normative locali influenzano la velocità e il successo dell'adozione. Tuttavia, le aziende che riescono a superare tali barriere e ad allineare l'implementazione dell'AI agli obiettivi strategici possono acquisire un vantaggio competitivo difficilmente replicabile. Questo pone una sfida ulteriore: l'integrazione dell'AI deve essere accompagnata da una capacità di gestione del cambiamento a livello globale , che tenga conto delle differenze culturali, normative e di maturità tecnologica. In definitiva, l'intelligenza artificiale non è semplicemente un investimento tecnologico, ma un catalizzatore per un cambiamento organizzativo e sociale più ampio. Per sfruttarne appieno il potenziale, le aziende devono abbracciare un approccio olistico, in cui tecnologia, persone e strategie si fondano in un ecosistema agile, etico e orientato al futuro. La vera sfida non è implementare l'AI, ma integrarla in modo che crei valore sostenibile per tutti gli stakeholder, anticipando i bisogni di un mondo sempre più complesso e interconnesso. Podcast: https://spotifycreators-web.app.link/e/YjDUdCcf0Ob Fonte: https://eu.imanet.org/research-publications/ima-reports/the-impact-of-artificial-intelligence-on-accounting-and-finance