top of page

Risultati di ricerca

469 elementi trovati per ""

  • RARE: ottimizzare il ragionamento dei LLM

    L'articolo presenta i risultati di una ricerca condotta da Hieu Tran, Zonghai Yao, Junda Wang, Yifan Zhang, Zhichao Yang e Hong Yu, affiliati con diverse istituzioni accademiche e mediche di rilievo. Tra queste, il Manning College of Information and Computer Sciences e il Miner School of Computer and Information Sciences presso l'Università del Massachusetts (Amherst e Lowell, rispettivamente), il Dipartimento di Medicina dell'Università del Massachusetts Medical School, e il Center for Healthcare Organization and Implementation Research del VA Bedford Health Care. L'oggetto dello studio è il framework RARE (Retrieval-Augmented Reasoning Enhancement), progettato per migliorare la capacità di ragionamento e l'accuratezza fattuale dei Large Language Models (LLM) in compiti complessi che richiedono una conoscenza approfondita, come la diagnostica medica e il ragionamento basato sul buon senso. La ricerca evidenzia il ruolo del RARE nel rendere gli LLM open-source competitivi con modelli proprietari avanzati, come GPT-4, dimostrando le sue potenzialità nei settori della medicina e delle applicazioni di intelligenza artificiale. RARE: ottimizzare il ragionamento dei LLM Panoramica del Framework RARE RARE rappresenta una significativa innovazione nell'ambito del ragionamento aumentato attraverso il recupero di informazioni. Il framework utilizza un generatore potenziato con azioni di recupero e un punteggiatore di fattualità per migliorare sia la coerenza che l'affidabilità dei percorsi di ragionamento. Questo sistema è progettato per affrontare compiti complessi che richiedono conoscenze dettagliate e aggiornate, come il reasoning medico e quello basato sul buon senso. Alla base del framework vi è un approccio di generazione delle traiettorie di ragionamento che integra in modo dinamico informazioni provenienti da fonti esterne rilevanti. Le azioni A6 e A7 rappresentano componenti fondamentali di questo approccio. L'azione A6 è dedicata alla generazione di query di ricerca che consentono di recuperare documenti o fonti rilevanti per arricchire il contesto di ragionamento. L'azione A7, invece, si concentra sul recupero mirato di informazioni specifiche attraverso la formulazione di sotto-domande, migliorando la precisione e la pertinenza delle risposte intermedie generate durante il processo. Durante ogni passo del ragionamento, il sistema genera domande e sotto-domande specifiche, recuperando informazioni utili per arricchire il contesto. Parallelamente, il punteggiatore di fattualità (RAFS) verifica ogni traiettoria di ragionamento prodotta, analizzandone la coerenza con le fonti recuperate e attribuendo un punteggio basato sulla percentuale di affermazioni supportate da evidenze. Questo metodo non solo garantisce la selezione delle traiettorie più affidabili, ma permette anche di mantenere un alto livello di accuratezza in domini complessi e dinamici. L’integrazione di queste componenti in un unico framework è stata progettata per massimizzare l'efficienza del processo di ragionamento senza la necessità di riaddestrare i modelli linguistici di base. Il sistema si avvale, inoltre, di un'architettura flessibile che può essere applicata sia a modelli open-source che a soluzioni chiuse, offrendo una versatilità unica nell'affrontare compiti di diversa natura.   Applicazioni e prestazioni Il framework RARE è stato progettato per affrontare due principali aree applicative: il reasoning medico e quello basato sul buon senso. Nel campo medico, RARE si è dimostrato particolarmente efficace nell'affrontare dataset complessi come MedQA, MedMCQA e MMLU-Medical, che richiedono conoscenze approfondite e multi-step reasoning per formulare risposte accurate. In questo contesto, il framework permette ai modelli open-source, come LLaMA, di superare i limiti delle metodologie tradizionali come Chain of Thought (CoT) e Self-Consistency (SC), raggiungendo prestazioni comparabili o superiori a quelle di modelli closed-source avanzati come GPT-4. Ad esempio, LLaMA 3.1 70B con l'integrazione di RARE ha ottenuto un'accuratezza dell'87,43% su MedQA, superando l'83,97% di GPT-4 e dimostrando la sua competitività. Questo successo è attribuibile alla capacità del framework di integrare informazioni aggiornate e pertinenti, migliorando la coerenza e la rilevanza delle risposte generate. Nel campo del reasoning basato sul buon senso, RARE si è distinto per la sua capacità di migliorare le prestazioni su dataset come StrategyQA, CommonsenseQA, Social IQA e Physical IQA. Questi benchmark richiedono un ragionamento complesso che spesso implica l'inferenza di relazioni nascoste e il multi-hop reasoning. RARE, grazie alle sue azioni di recupero mirato e al punteggiatore di fattualità, è in grado di colmare il divario tra modelli open-source e soluzioni proprietarie di punta. I miglioramenti osservati nelle prestazioni indicano che il framework è in grado di adattarsi a diverse tipologie di task, garantendo risultati affidabili anche in domini non specialistici. Questa versatilità rende RARE una soluzione promettente per una vasta gamma di applicazioni, dalla medicina all'elaborazione di conoscenze generali, evidenziando il suo potenziale come strumento scalabile ed efficace per compiti complessi e knowledge-intensive.   Studi di ablazione Gli studi di ablazione rappresentano un elemento cruciale per comprendere l'efficacia di ciascuna componente del framework RARE. In questo contesto, sono stati condotti esperimenti su un campione di 250 domande tratte dal dataset MedQA utilizzando il modello LLaMA 3.1 8B. I risultati dimostrano che il punteggiatore di fattualità Retrieval-Augmented Factuality Scorer (RAFS) apporta un miglioramento significativo, seppur modesto, con un incremento dell'accuratezza pari allo 0,6%. L'aggiunta dell'azione A6, volta a generare query di ricerca e a recuperare informazioni rilevanti, ha prodotto un incremento notevole dell'accuratezza fino al 72,4%, evidenziando il valore dell'integrazione di conoscenze esterne nei percorsi di ragionamento. In parallelo, l'implementazione dell'azione A7, focalizzata sul recupero di informazioni per sotto-domande e sulla loro riformulazione, ha contribuito ad aumentare l'accuratezza al 71,2%, dimostrando l'importanza del recupero mirato per migliorare i passaggi intermedi del ragionamento. L'integrazione simultanea delle azioni A6 e A7 ha ulteriormente potenziato le prestazioni, portando l'accuratezza al 73,2%, mentre la configurazione completa di RARE, che include il framework rStar, le azioni di recupero (A6 e A7) e il punteggiatore di fattualità, ha raggiunto un'accuratezza massima del 74,8%. Questi risultati sottolineano l'importanza di ciascun elemento del framework nel migliorare l'affidabilità e la precisione delle traiettorie di ragionamento, dimostrando che l'integrazione sinergica di tutte le componenti è essenziale per massimizzare l'efficacia complessiva del sistema.   Limitazioni RARE, nonostante i suoi vantaggi significativi, presenta alcune limitazioni che meritano un'attenzione approfondita. In primo luogo, il framework si distingue per un elevato costo computazionale, principalmente dovuto al numero di chiamate ai modelli e ai processi iterativi di recupero delle informazioni. Questo lo rende meno adatto per ambienti con risorse limitate o con vincoli di tempo stringenti. La complessità computazionale, sebbene giustificata dall'incremento delle prestazioni, limita la scalabilità del sistema in applicazioni più ampie o meno strutturate. Un'altra limitazione rilevante è legata alla selezione delle traiettorie di ragionamento. Sebbene RARE sia progettato per identificare percorsi di ragionamento accurati, non garantisce necessariamente che questi siano i più brevi o i più robusti. La struttura attuale del framework, basata su Monte Carlo Tree Search, esplora molteplici percorsi ma potrebbe beneficiare di modelli di ricompensa più sofisticati per guidare la selezione delle traiettorie più ottimali. Questo apre la strada a futuri miglioramenti attraverso l'integrazione di modelli di apprendimento per rinforzo che possano affinare ulteriormente il processo di selezione. Infine, è importante evidenziare che la valutazione fattuale operata dal Retrieval-Augmented Factuality Scorer (RAFS) si basa su metriche che non sono ancora state standardizzate rispetto alle valutazioni umane. Questo rappresenta un limite per il framework, soprattutto in contesti in cui l'accordo tra valutazioni automatizzate e giudizi umani è cruciale per la credibilità e l'accettazione delle risposte generate. Inoltre, la mancanza di metriche consolidate per valutare i passaggi di ragionamento nei task di Medical QA sottolinea la necessità di ulteriori ricerche per sviluppare standard di valutazione più robusti e universalmente accettati. Queste limitazioni non riducono il valore complessivo di RARE, ma piuttosto delineano aree di miglioramento che potrebbero essere affrontate in future iterazioni del framework, rendendolo ancora più versatile ed efficiente.   Conclusioni Un'analisi riflessiva e completa del framework RARE (Retrieval-Augmented Reasoning Enhancement) richiede un confronto con le tecnologie concorrenti più significative. In particolare, un parallelo essenziale è con i sistemi che già adottano il paradigma del  retrieval-augmented generation  (RAG), come quelli basati su Retrieval-Augmented Transformers (RAT) o le architetture che combinano retrieval e reasoning tramite approcci come il Retrieval-Augmented CoT (Chain of Thought). Mentre RARE si concentra sul miglioramento delle traiettorie di ragionamento attraverso il recupero dinamico e la verifica fattuale, i framework concorrenti,ccome RAG, seguono approcci analoghi ma con differenze sostanziali nelle modalità di integrazione tra recupero e generazione.  I sistemi RAG, ad esempio, utilizzano un processo bidirezionale che collega direttamente le query generate dal modello alle risposte estratte da database strutturati o semi-strutturati. Tuttavia, tendono a focalizzarsi principalmente sulla pertinenza delle informazioni recuperate, trascurando spesso la coerenza logica nelle traiettorie di ragionamento. Questa mancanza viene parzialmente compensata da tecniche come il Retrieval-Augmented CoT, che invece cerca di integrare il recupero con passaggi di reasoning strutturati, ma a volte con compromessi in termini di efficienza. La distinzione fondamentale tra RARE e approcci come RAG o Retrieval-Augmented CoT risiede nel  punteggiatore di fattualità (RAFS) , una componente che garantisce non solo che le informazioni recuperate siano rilevanti, ma che siano effettivamente utilizzate in modo coerente e supportato da evidenze. Questa caratteristica rende RARE particolarmente efficace in domini complessi come il reasoning medico, dove la coerenza delle risposte con dati fattuali aggiornati non è negoziabile. Al contrario, i framework RAG tendono a fornire prestazioni più competitive in contesti con una domanda elevata di informazioni rapide ma meno strutturate, come la ricerca web o la generazione di contenuti non specialistici. Un’altra tecnologia concorrente rilevante è Pathways Language Model (PaLM)  di Google, che utilizza un approccio multi-task avanzato per gestire compiti di reasoning complesso. PaLM combina tecniche di prompting con l’accesso a conoscenze pre-addestrate, spesso senza la necessità di un recupero attivo. Tuttavia, ciò introduce una maggiore dipendenza dalla conoscenza statica, rendendolo meno flessibile rispetto a RARE in domini dinamici dove l’aggiornamento delle informazioni è cruciale. Il confronto evidenzia anche una tensione tra scalabilità ed efficienza.  RARE, non richiedendo il riaddestramento dei modelli linguistici di base, offre un vantaggio significativo rispetto a soluzioni come PaLM, che spesso necessitano di risorse computazionali intensive per mantenere aggiornati i modelli di grandi dimensioni.  Tuttavia, la modularità di RARE, sebbene vantaggiosa in termini di flessibilità, introduce una complessità operativa che potrebbe diventare un collo di bottiglia per l’implementazione su larga scala. L’aspetto cruciale è che RARE rappresenta non solo un’evoluzione tecnica, ma una scelta strategica per indirizzare i modelli linguistici verso un paradigma ibrido, dove l’accesso dinamico alla conoscenza esterna è integrato con un controllo rigoroso sulla coerenza delle risposte.  I concorrenti, pur proponendo soluzioni efficaci in specifici ambiti, spesso mancano della capacità di bilanciare in modo così raffinato la precisione fattuale con la flessibilità nel reasoning. Per le imprese, la scelta tra RARE e tecnologie alternative dipende non solo dal dominio applicativo, ma anche dalla priorità strategica data alla dinamica tra aggiornamento delle conoscenze, scalabilità operativa e affidabilità. In un panorama sempre più dominato dalla necessità di decisioni basate su evidenze, RARE sembra avere un vantaggio tattico, ma la sua complessità operativa e la dipendenza da componenti esterne richiedono una valutazione attenta dei costi-benefici rispetto a soluzioni consolidate come RAG o PaLM.   Podcast: https://spotifycreators-web.app.link/e/Qnj33auJdPb Fonte: https://arxiv.org/abs/2412.02830

  • RARE: optimizing LLM reasoning

    The article presents the results of research conducted by Hieu Tran, Zonghai Yao, Junda Wang, Yifan Zhang, Zhichao Yang, and Hong Yu, affiliated with various prominent academic and medical institutions. These include the Manning College of Information and Computer Sciences and the Miner School of Computer and Information Sciences at the University of Massachusetts (Amherst and Lowell, respectively), the Department of Medicine at the University of Massachusetts Medical School, and the Center for Healthcare Organization and Implementation Research at VA Bedford Health Care. The study focuses on the RARE framework (Retrieval-Augmented Reasoning Enhancement), designed to improve the reasoning capability and factual accuracy of Large Language Models (LLMs) in complex tasks requiring deep knowledge, such as medical diagnostics and common sense reasoning. The research highlights RARE's role in making open-source LLMs competitive with advanced proprietary models like GPT-4, demonstrating its potential in medicine and artificial intelligence applications. RARE: optimizing LLM reasoning Overview of the RARE Framework RARE represents a significant innovation in reasoning enhancement through information retrieval. The framework utilizes a retrieval-augmented generator and a factuality scorer to improve both the consistency and reliability of reasoning paths. This system is designed to tackle complex tasks requiring detailed and up-to-date knowledge, such as medical reasoning and common sense-based reasoning. At the core of the framework is a reasoning trajectory generation approach that dynamically integrates information from relevant external sources. Actions A6 and A7 are fundamental components of this approach. Action A6 focuses on generating search queries to retrieve relevant documents or sources to enrich the reasoning context. Action A7, on the other hand, targets the targeted retrieval of specific information through the formulation of sub-questions, enhancing the precision and relevance of intermediate answers generated during the process. At each reasoning step, the system generates specific questions and sub-questions, retrieving useful information to enrich the context. In parallel, the Retrieval-Augmented Factuality Scorer (RAFS) verifies each reasoning trajectory, analyzing its consistency with retrieved sources and assigning a score based on the percentage of evidence-supported statements. This method not only ensures the selection of the most reliable trajectories but also maintains a high level of accuracy in complex and dynamic domains. The integration of these components into a single framework has been designed to maximize the efficiency of the reasoning process without requiring retraining of the base language models. Furthermore, the system employs a flexible architecture that can be applied to both open-source models and closed solutions, offering unique versatility in addressing tasks of various natures. Applications and Performance The RARE framework has been designed to address two main application areas: medical reasoning and common sense reasoning. In the medical field, RARE has proven particularly effective in tackling complex datasets such as MedQA, MedMCQA, and MMLU-Medical, which require deep knowledge and multi-step reasoning to formulate accurate answers. In this context, the framework enables open-source models, such as LLaMA, to overcome the limitations of traditional methodologies like Chain of Thought (CoT) and Self-Consistency (SC), achieving performance comparable to or exceeding that of advanced closed-source models like GPT-4. For example, LLaMA 3.1 70B with RARE integration achieved an accuracy of 87.43% on MedQA, surpassing GPT-4's 83.97% and demonstrating its competitiveness. This success is attributable to the framework's ability to integrate updated and relevant information, enhancing the coherence and relevance of generated responses. In the field of common sense reasoning, RARE has excelled in improving performance on datasets such as StrategyQA, CommonsenseQA, Social IQA, and Physical IQA. These benchmarks require complex reasoning often involving the inference of hidden relationships and multi-hop reasoning. RARE, through its targeted retrieval actions and factuality scorer, bridges the gap between open-source models and leading proprietary solutions. The observed performance improvements indicate that the framework can adapt to various task types, ensuring reliable results even in non-specialist domains. This versatility makes RARE a promising solution for a wide range of applications, from medicine to general knowledge processing, highlighting its potential as a scalable and effective tool for complex, knowledge-intensive tasks. Ablation Studies Ablation studies are crucial for understanding the effectiveness of each component of the RARE framework. In this context, experiments were conducted on a sample of 250 questions from the MedQA dataset using the LLaMA 3.1 8B model. The results demonstrate that the Retrieval-Augmented Factuality Scorer (RAFS) provides a significant, albeit modest, improvement, with a 0.6% increase in accuracy. Adding Action A6, which generates search queries and retrieves relevant information, produced a substantial accuracy improvement up to 72.4%, highlighting the value of integrating external knowledge into reasoning paths. In parallel, implementing Action A7, focused on retrieving information for sub-questions and their reformulation, contributed to an accuracy increase to 71.2%, demonstrating the importance of targeted retrieval for enhancing intermediate reasoning steps. Simultaneous integration of Actions A6 and A7 further boosted performance, bringing accuracy to 73.2%, while the complete RARE configuration, including the rStar framework, retrieval actions (A6 and A7), and the factuality scorer, achieved a maximum accuracy of 74.8%. These results underline the importance of each element of the framework in improving the reliability and precision of reasoning trajectories, demonstrating that the synergistic integration of all components is essential to maximize the system's overall effectiveness. Limitations Despite its significant advantages, RARE presents some limitations that warrant careful consideration. First, the framework is characterized by a high computational cost, primarily due to the number of model calls and iterative information retrieval processes. This makes it less suitable for resource-constrained environments or scenarios with stringent time constraints. The computational complexity, although justified by performance improvements, limits the system's scalability in broader or less structured applications. Another notable limitation relates to the selection of reasoning trajectories. Although RARE is designed to identify accurate reasoning paths, it does not necessarily ensure that these are the shortest or most robust. The current framework structure, based on Monte Carlo Tree Search, explores multiple paths but could benefit from more sophisticated reward models to guide the selection of optimal trajectories. This opens the door to future improvements through the integration of reinforcement learning models that could further refine the selection process. Finally, it is important to note that the factual evaluation performed by the Retrieval-Augmented Factuality Scorer (RAFS) relies on metrics that have not yet been standardized against human evaluations. This represents a limitation for the framework, especially in contexts where alignment between automated assessments and human judgments is crucial for the credibility and acceptance of generated responses. Moreover, the lack of consolidated metrics for evaluating reasoning steps in Medical QA tasks underscores the need for further research to develop more robust and universally accepted evaluation standards. These limitations do not diminish the overall value of RARE but rather outline areas for improvement that could be addressed in future iterations of the framework, making it even more versatile and efficient. Conclusions A reflective and comprehensive analysis of the RARE framework (Retrieval-Augmented Reasoning Enhancement) requires a comparison with the most significant competing technologies. In particular, an essential parallel is with systems that already adopt the retrieval-augmented generation (RAG) paradigm, such as those based on Retrieval-Augmented Transformers (RAT) or architectures that combine retrieval and reasoning through approaches like Retrieval-Augmented CoT (Chain of Thought). While RARE focuses on improving reasoning trajectories through dynamic retrieval and factual verification, competing frameworks like RAG follow similar approaches but with substantial differences in how retrieval and generation are integrated. RAG systems, for instance, use a bidirectional process that directly links model-generated queries to responses extracted from structured or semi-structured databases. However, they tend to focus primarily on the relevance of retrieved information, often neglecting logical consistency in reasoning trajectories. This shortfall is partially compensated by techniques like Retrieval-Augmented CoT, which attempts to integrate retrieval with structured reasoning steps but sometimes with trade-offs in terms of efficiency. The fundamental distinction between RARE and approaches like RAG or Retrieval-Augmented CoT lies in the factuality scorer (RAFS), a component that ensures not only that retrieved information is relevant but that it is used consistently and evidence-supported. This feature makes RARE particularly effective in complex domains such as medical reasoning, where response coherence with updated factual data is non-negotiable. Conversely, RAG frameworks tend to deliver more competitive performance in contexts demanding rapid but less structured information, such as web searches or non-specialist content generation. Another relevant competing technology is Google's Pathways Language Model (PaLM), which employs an advanced multi-task approach to manage complex reasoning tasks. PaLM combines prompting techniques with access to pre-trained knowledge, often without requiring active retrieval. However, this introduces a greater dependency on static knowledge, making it less flexible than RARE in dynamic domains where information updating is crucial. The comparison also highlights a tension between scalability and efficiency. RARE, by not requiring retraining of base language models, offers a significant advantage over solutions like PaLM, which often require intensive computational resources to keep large models updated. However, RARE's modularity, while advantageous in terms of flexibility, introduces operational complexity that could become a bottleneck for large-scale implementation. The crucial aspect is that RARE represents not just a technical advancement but a strategic choice to steer language models toward a hybrid paradigm, where dynamic access to external knowledge is integrated with rigorous response coherence control. Competitors, while proposing effective solutions in specific areas, often lack the ability to balance factual precision and flexibility in reasoning as finely as RARE does. For businesses, the choice between RARE and alternative technologies depends not only on the application domain but also on the strategic priority given to the dynamics between knowledge updating, operational scalability, and reliability. In an increasingly evidence-driven decision-making landscape, RARE appears to have a tactical advantage, but its operational complexity and dependence on external components require careful cost-benefit evaluation compared to established solutions like RAG or PaLM. Podcast: https://spotifycreators-web.app.link/e/Kfvl1fnJdPb Source: https://arxiv.org/abs/2412.02830

  • PaliGemma 2. Una nuova frontiera nei modelli Vision-Language

    PaliGemma 2 rappresenta un’evoluzione significativa nel campo dei Vision-Language Models (VLMs), offrendo un ampio spettro di applicazioni, dalle attività di riconoscimento ottico dei caratteri (OCR) alla generazione di report medici. Sviluppato da un team di ricercatori tra cui Andreas Steiner, André Susano Pinto e Michael Tschannen presso Google Research, questa famiglia di modelli open-weight è basata sull'integrazione tra l'encoder visivo SigLIP-So400m e i modelli linguistici della famiglia Gemma 2, con versioni che spaziano da 3 a 28 miliardi di parametri e risoluzioni variabili tra 224px² e 896px². PaliGemma 2: architettura e addestramento L'architettura di PaliGemma 2 è concepita per massimizzare la flessibilità e la capacità di trasferire conoscenze da un ambito o compito a un altro, anche significativamente diverso. Il sistema integra un encoder visivo pre-addestrato, SigLIP-So400m, progettato per sfruttare le Tensor Processing Units di ultima generazione di Google, un hardware specifico che accelera i calcoli nei modelli di machine learning. Le rappresentazioni visive vengono mappate linearmente nello spazio di embedding del modello linguistico, consentendo un'integrazione armoniosa con i token testuali per una predizione autoregressiva successiva. L'addestramento si articola in tre fasi principali: Stage 1:  Il primo stadio combina i checkpoint pre-addestrati di SigLIP-So400m e Gemma 2 in un unico framework multimodale, addestrandoli con un mix di compiti disegnati per favorire la trasferibilità. La risoluzione delle immagini è inizialmente fissata a 224px² e nessun parametro viene congelato durante questa fase. Stage 2:  Questo stadio si concentra sull'aumento della risoluzione fino a 448px² e successivamente 896px², ottimizzando i task che traggono vantaggio da dettagli visivi più elevati. Durante questa fase, la lunghezza della sequenza di output viene estesa, supportando applicazioni come OCR per testi visivi complessi e prolungati. Stage 3:  L'ultima fase prevede il fine-tuning specifico per task, utilizzando i checkpoint generati nelle fasi precedenti. Questa fase include l'ottimizzazione di hyperparameter specifici per ogni applicazione target, come il riconoscimento di strutture tabulari o la generazione di report medici. Ulteriori ottimizzazioni includono tecniche di soft-capping per logit di attenzione e output durante gli Stage 1 e 2, mentre nell'ultima fase queste vengono omesse per migliorare le prestazioni su determinati task. Inoltre, l'addestramento utilizza l'ottimizzatore Adam con parametri predefiniti, regolando il learning rate in base alla dimensione del modello. La pipeline di addestramento sfrutta un mix di dati multimodali che include captioning, question answering visuale (VQA), rilevamento e segmentazione, integrando etichette generate da modelli specialistici open-source. Questa strategia si basa su infrastrutture di alto livello, come TPUv5e, e utilizza una strategia di sharding completamente parallela (FSDP), consentendo una scalabilità efficiente anche per i modelli più complessi. Applicazioni e prestazioni PaliGemma 2 si distingue in numerosi ambiti applicativi, dimostrando una flessibilità unica e raggiungendo risultati di stato dell’arte in diversi task complessi: Riconoscimento testuale avanzato (OCR):  Il modello dimostra un'elevata competenza nel rilevare e riconoscere testi presenti nelle immagini, superando le prestazioni di tecniche precedenti in benchmark di riferimento come ICDAR’15, un dataset internazionale progettato per valutare l'efficacia dei sistemi di riconoscimento testuale su immagini complesse, e Total-Text, un insieme di dati che include immagini con testi in vari orientamenti e formati, utile per verificare la robustezza degli algoritmi. Sfruttando dataset multimodali, composti da informazioni eterogenee come immagini e descrizioni testuali, il modello riesce a combinare precisione nella localizzazione, ossia l'abilità di identificare con esattezza la posizione del testo all'interno dell'immagine, con accuratezza nella trascrizione, ovvero la capacità di convertire il testo individuato in caratteri digitali con grande fedeltà. Questo risultato è ottenuto anche grazie alla possibilità di gestire immagini con risoluzioni elevate, fino a 896px², che permette una rappresentazione dettagliata dei caratteri per un'elaborazione più precisa. Riconoscimento della struttura delle tabelle:  Grazie all'ottimizzazione su dataset come PubTabNet, un insieme di immagini tabellari con annotazioni strutturate che rappresenta uno standard per valutare la capacità dei modelli di riconoscere e ricostruire tabelle, e FinTabNet, focalizzato su dati tabellari finanziari complessi, il modello è in grado di estrarre contenuti tabulari da immagini e convertirli in formato HTML. PaliGemma 2 si distingue per i risultati raggiunti in metriche come TEDS (Table Entity Detection and Structure), che valuta la precisione nel riconoscere la struttura tabellare, e GriTS (Grid-based Table Similarity), un indicatore che misura la somiglianza tra la struttura tabellare ricostruita e quella annotata nei dataset. Questi progressi hanno permesso di migliorare significativamente la rappresentazione della struttura delle tabelle e la qualità delle annotazioni generate, garantendo una maggiore coerenza e accuratezza nella ricostruzione. Riconoscimento delle strutture molecolari:  Addestrato su dataset come PubChem, una vasta banca dati pubblica che raccoglie milioni di molecole chimiche con dettagli su struttura, proprietà e attività biologica, PaliGemma 2 converte disegni molecolari in stringhe SMILES (Simplified Molecular Input Line Entry System). Questo formato testuale standardizzato consente di rappresentare le strutture chimiche in modo compatto, facilitando l'elaborazione, il confronto e la ricerca molecolare in ambito chimico computazionale. Il modello raggiunge livelli di precisione mai ottenuti prima, mostrando una straordinaria capacità di adattarsi a variazioni stilistiche nei disegni molecolari. Questa versatilità lo rende uno strumento essenziale per compiti fondamentali della chimica computazionale, come la scoperta di nuove molecole, l'ottimizzazione delle reazioni chimiche e l'analisi delle proprietà chimico-fisiche. Generazione di report medici:  Utilizzando il dataset MIMIC-CXR, un ampio archivio di immagini radiologiche del torace corredate da report testuali, PaliGemma 2 è in grado di produrre descrizioni dettagliate delle immagini radiologiche. Queste descrizioni includono osservazioni cliniche rilevate, come anomalie o lesioni, e suggerimenti diagnostici basati sull'interpretazione delle immagini, offrendo indicazioni su potenziali patologie. Il modello si distingue per le sue capacità in ambito sanitario, migliorando significativamente il RadGraph F1-score, una metrica che valuta l'abilità di identificare e collegare correttamente entità cliniche nei report. Questo progresso rappresenta un passo avanti rispetto ai modelli precedenti, rendendo il sistema uno strumento promettente per supportare l'interpretazione automatizzata delle immagini mediche e la redazione di report clinici accurati. Captioning esteso e Fine-Grained:  Addestrato su dataset come DOCCI, che comprende immagini corredate da descrizioni testuali altamente dettagliate, PaliGemma 2 è in grado di generare descrizioni (caption) precise e ricche per immagini complesse. Il modello integra diverse competenze, come il riconoscimento delle relazioni spaziali, ossia la posizione e l'orientamento degli oggetti all'interno dell'immagine, la capacità di conteggiare correttamente il numero di oggetti presenti e l'uso di conoscenze contestuali per interpretare meglio la scena rappresentata. PaliGemma 2 ha registrato un miglioramento significativo nella factual alignment, ovvero la corrispondenza tra il contenuto descritto nella didascalia e l'effettivo contenuto dell'immagine, superando i risultati ottenuti dai modelli baseline e dimostrando una maggiore affidabilità nel generare descrizioni semanticamente accurate. Musica e ragionamento spaziale:  Nel riconoscimento di spartiti musicali, PaliGemma 2 è in grado di convertire partiture in formati digitali come MusicXML o MEI, rappresentazioni standard che facilitano l'editing, la ricerca e l'analisi automatizzata delle note e delle loro relazioni. Il modello riduce significativamente il margine di errore rispetto alle tecniche precedenti, garantendo maggiore precisione nella digitalizzazione degli spartiti. Parallelamente, si distingue nei benchmark di ragionamento spaziale, come VSR (Visual Spatial Reasoning), che valutano la capacità di comprendere e analizzare le relazioni tra oggetti e spazi, tra cui posizionamento, distanza e orientamento. Il modello risolve con accuratezza compiti complessi che richiedono un'elaborazione avanzata delle relazioni spaziali, dimostrando una notevole competenza in ambiti che combinano percezione visiva e ragionamento geometrico.   Analisi tecnica L’analisi tecnica di PaliGemma 2 evidenzia come l’aumento della risoluzione, inteso come il numero di pixel con cui viene analizzata un’immagine, e l'incremento delle dimensioni del modello, misurate in miliardi di parametri, influenzino le prestazioni sui diversi compiti, quali il riconoscimento testuale o la generazione di descrizioni. I modelli presentano dimensioni variabili, da 3 a 28 miliardi di parametri, con l’encoder visivo SigLIP-So400m che, pur avendo un numero di parametri relativamente contenuto, rappresenta una componente significativa del calcolo complessivo grazie all’elaborazione intensiva dei token visivi, ovvero segmenti di informazione visiva convertiti in unità di input per il modello. L'addestramento utilizza TPUv5e con strategie di sharding parallelo completo, un approccio che suddivide dati e modello su più dispositivi, permettendo un’esecuzione parallela dei calcoli. Questo metodo garantisce scalabilità e velocità di addestramento ottimali anche per modelli di grandi dimensioni. L’aumento della risoluzione da 224px² a 896px² comporta un incremento significativo del costo computazionale, con un aumento fino a 23 volte per il modello da 3 miliardi di parametri. Questo investimento in risorse, tuttavia, si traduce in evidenti miglioramenti per attività che richiedono un alto livello di dettaglio visivo, come il riconoscimento testuale avanzato (OCR) e l’identificazione delle strutture tabulari. Parallelamente, l’aumento della dimensione del modello si rivela particolarmente vantaggioso per compiti che richiedono una comprensione linguistica approfondita, ad esempio nella generazione di descrizioni dettagliate o nell’interpretazione di immagini mediche. Nonostante ciò, l’espansione verso modelli molto grandi, come quello da 28 miliardi di parametri, offre miglioramenti marginali rispetto al notevole incremento dei costi computazionali, suggerendo che una dimensione ottimale del modello per molti compiti possa trovarsi nella fascia tra 10 e 28 miliardi di parametri. Un aspetto distintivo del modello è l’impiego di proiezioni lineari, ovvero funzioni matematiche che mappano i token visivi nello spazio di embedding del modello linguistico. Queste trasformazioni consentono di rappresentare i token visivi come vettori compatibili con il linguaggio, facilitando un’efficace predizione autoregressiva, dove il modello genera gli output in sequenza utilizzando gli output precedenti come input successivi. Tecniche avanzate, come il soft-capping dei logit di attenzione, limitano il range dei valori di attenzione per ridurre errori numerici e garantire maggiore stabilità durante l’addestramento. Inoltre, l’ottimizzazione tramite Adam, un algoritmo largamente utilizzato per la sua capacità di adattare automaticamente il passo di aggiornamento dei parametri, contribuisce a migliorare stabilità e precisione nelle fasi iniziali dell’addestramento. Questi accorgimenti tecnici giocano un ruolo cruciale nell’affidabilità complessiva del modello. Il modello si distingue per la sua capacità di trasferimento, eccellendo su oltre 30 benchmark accademici e dimostrando miglioramenti sostanziali in numerosi task complessi. Per esempio, nei task di captioning dettagliato, come valutato sul dataset DOCCI, PaliGemma 2 ha mostrato un miglioramento fino al 15% in metriche di factual alignment rispetto ai modelli baseline. Nel riconoscimento molecolare, addestrato su un milione di molecole del dataset PubChem, il modello ha raggiunto una precisione del 94,8% nel task di conversione di disegni chimici in stringhe SMILES, superando del 5% le performance del precedente stato dell’arte. PaliGemma 2 si distingue anche per la sua versatilità nell’inferenza, la fase in cui il modello, dopo l’addestramento, viene utilizzato per generare output o fare previsioni. Le versioni a bassa precisione, ottimizzate per l’inferenza su CPU tramite il framework gemma.cpp , consentono di eseguire il modello riducendo i costi computazionali, mantenendo al contempo prestazioni di qualità paragonabile a quelle ottenute su TPU. Questa ottimizzazione ha permesso una riduzione del consumo computazionale fino al 70%. Misurazioni effettuate su CPU come Apple M1 Max  e AMD Genoa  hanno evidenziato tempi di prefill di 0,36 secondi (il tempo necessario per caricare i dati e generare i primi token di output) e una velocità di estensione di 147 token al secondo su AMD Genoa, dimostrando l’efficienza del modello nel generare sequenze di output. Questi risultati rendono PaliGemma 2 altamente adatto a scenari di deployment economici, dove le risorse hardware sono limitate ma le prestazioni devono rimanere competitive. Questo equilibrio tra efficienza computazionale e qualità delle predizioni consolida PaliGemma 2 come una soluzione pratica e scalabile anche per applicazioni in ambienti con vincoli hardware.   Sicurezza ed etica La sicurezza e l’etica rappresentano elementi chiave nello sviluppo e nell’utilizzo di PaliGemma 2. I ricercatori hanno introdotto diversi protocolli per valutare e ridurre i rischi legati al modello, tra cui la generazione di contenuti potenzialmente dannosi o discriminatori. Per questa analisi, sono stati utilizzati dataset diversificati come FairFace , che include immagini del volto bilanciate per etnia, età e genere, con l’obiettivo di identificare e mitigare eventuali bias relativi a genere, etnia ed età. I test hanno evidenziato livelli molto bassi di tossicità. La tossicità percepita, una metrica che misura quanto un testo possa risultare offensivo per valutatori umani o algoritmi di analisi, ha registrato un valore medio di 0,13. Per gli attacchi all’identità, ossia contenuti che prendono di mira specifiche identità sociali (ad esempio per etnia o orientamento sessuale), il valore medio si è attestato su 0,02. Questi risultati dimostrano che il modello è stato progettato con un’attenzione particolare all’inclusività, offrendo prestazioni che minimizzano i rischi di discriminazione e promuovono un utilizzo responsabile e rispettoso delle diversità. Un aspetto fondamentale di PaliGemma 2 è la sua attenzione alla trasparenza e alla capacità di spiegare le proprie decisioni. Il modello integra approcci di interpretabilità, ossia tecniche che permettono di comprendere le ragioni alla base di una risposta. Questi metodi, come l’evidenziazione delle parti dell’input che hanno maggiormente influenzato il risultato, forniscono una tracciabilità delle predizioni, risultando particolarmente utili in settori sensibili. In ambito medico, ad esempio, è essenziale comprendere i motivi di una diagnosi automatizzata per supportare i professionisti sanitari nella valutazione. Analogamente, nel diritto, è necessario fornire motivazioni trasparenti che giustifichino una decisione o un consiglio giuridico, garantendo la coerenza con il quadro normativo. Nonostante questi avanzamenti, è cruciale un monitoraggio continuo per evitare che il modello generi contenuti potenzialmente offensivi o pregiudizievoli. Questo assicura che l’uso del modello rimanga etico e affidabile, promuovendo fiducia e responsabilità nel suo impiego. In ambito etico, il team di sviluppo ha adottato strategie mirate a evitare che il modello amplifichi stereotipi culturali o discriminazioni implicite. Tra queste misure spicca l’uso di dataset bilanciati, progettati per garantire una distribuzione equa di generi, etnie e altre caratteristiche, prevenendo la sovra rappresentazione di un gruppo a scapito di altri. Inoltre, l’addestramento è stato supportato da tecniche di fairness-aware learning , che integrano obiettivi di equità direttamente nel processo di apprendimento del modello, riducendo il rischio di bias sistemici. Per mantenere alti standard di qualità, il team ha implementato una valutazione continua delle predizioni attraverso strumenti come Perspective API , sviluppata da Google. Questa API utilizza modelli di machine learning per rilevare in tempo reale contenuti potenzialmente tossici o offensivi, consentendo un monitoraggio costante e un miglioramento iterativo delle prestazioni del modello. Queste iniziative testimoniano l’impegno del team nello sviluppare un sistema affidabile, inclusivo e rispettoso delle diversità. Infine, per garantire un uso responsabile, i ricercatori hanno rilasciato PaliGemma 2 con una documentazione dettagliata che include linee guida per l’utilizzo sicuro ed etico del modello. Questo approccio rappresenta un passo significativo verso l’adozione di VLMs in contesti reali, bilanciando innovazione tecnologica e responsabilità sociale.   Prospettive future Le prospettive future per PaliGemma 2 puntano a un’espansione verso applicazioni sempre più complesse e diversificate, sfruttando l’integrazione di risoluzioni elevate con modelli linguistici di grandi dimensioni. Tra gli sviluppi più promettenti si distingue l’ottimizzazione per il trasferimento in compiti specifici, utilizzando strategie di addestramento mirate. Un ruolo chiave potrebbe essere svolto da approcci come il meta-learning , che permette al modello di apprendere come adattarsi rapidamente a nuovi compiti, rendendolo più flessibile e efficace in contesti dinamici. Allo stesso tempo, il reinforcement learning  potrebbe essere utilizzato per migliorare ulteriormente le prestazioni del modello: tramite un sistema di ricompense e penalità, il modello potrebbe apprendere a ottimizzare le proprie decisioni in base agli obiettivi del compito. Questi approcci combinati aprono la strada a una nuova generazione di modelli, capaci non solo di eccellere in singoli task, ma anche di adattarsi con facilità a esigenze emergenti, consolidando il ruolo di PaliGemma 2 come una piattaforma versatile e innovativa. Ad esempio, l’adozione di task-specific reward systems , ossia sistemi di ricompensa progettati su misura per obiettivi specifici, rappresenta un’opportunità significativa per migliorare ulteriormente le capacità del modello in domini specialistici. In questi sistemi, il modello riceve un feedback positivo ogni volta che raggiunge un risultato desiderato in un determinato compito, rafforzando così comportamenti ottimali e adattando le sue risposte alle esigenze del dominio. Questa strategia consentirebbe di perfezionare le prestazioni in contesti sempre più complessi, come la diagnosi medica, l’interpretazione giuridica o l’elaborazione di dati scientifici, dove gli obiettivi sono altamente specifici e richiedono precisione estrema. L’integrazione di sistemi di ricompensa personalizzati, combinata con tecniche avanzate di apprendimento, potrebbe trasformare PaliGemma 2 in uno strumento ancora più performante e versatile, capace di rispondere alle sfide dei settori più esigenti con soluzioni mirate e ottimizzate. Un'area di interesse fondamentale riguarda l'implementazione di PaliGemma 2 in contesti industriali con risorse computazionali limitate. Grazie alle sue versioni ottimizzate per l’inferenza su CPU, il modello ha già dimostrato la capacità di mantenere prestazioni elevate, risultando particolarmente adatto per ampliare l’accesso a tecnologie avanzate in settori critici. Questo approccio potrebbe avere un impatto significativo in ambiti come la sanità nei paesi in via di sviluppo, l’agricoltura di precisione e l’analisi ambientale, dove i vincoli tecnologici rappresentano una sfida importante. Un ulteriore passo avanti è rappresentato dall’integrazione con dati multispettrali e temporali , che aprirebbe nuove opportunità applicative. Ad esempio, l’interpretazione di dati provenienti da sensori multispettrali, come immagini satellitari e rilevazioni lidar, potrebbe espandere l’utilizzo del modello in settori come il monitoraggio climatico, la prevenzione dei disastri e la gestione sostenibile delle risorse naturali. Parallelamente, l’addestramento su dati temporali fornirebbe al modello la capacità di analizzare e gestire informazioni dinamiche, migliorando le sue prestazioni in applicazioni quali la sorveglianza intelligente e la previsione di eventi. Questi sviluppi potrebbero rendere PaliGemma 2 uno strumento ancora più versatile e indispensabile, capace di affrontare sfide complesse in contesti globali e promuovere soluzioni innovative in ambiti diversificati. Un’altra direzione promettente per lo sviluppo di PaliGemma 2 è l’ottimizzazione della scala dei modelli, ovvero il bilanciamento tra dimensione in termini di parametri, complessità architetturale e risorse computazionali necessarie. Questo approccio mira a individuare configurazioni che ottimizzino il rapporto costo-beneficio, concentrandosi su soluzioni che riducano i costi computazionali mantenendo o migliorando le prestazioni. Sebbene i modelli più grandi abbiano finora mostrato vantaggi marginali rispetto ai costi aggiuntivi, ulteriori ricerche potrebbero individuare combinazioni di architetture e iperparametri, come il learning rate, la dimensione dei batch e la profondità del modello, che massimizzino l’efficienza per scenari applicativi specifici. Un esempio promettente è rappresentato dalle tecniche di distillazione del modello , un processo in cui un modello più piccolo, definito "studente", apprende a replicare il comportamento di un modello più grande, detto "maestro". Questo approccio consente di trasferire le capacità di modelli complessi in versioni più leggere, riducendo significativamente il numero di parametri senza comprometterne in modo sostanziale le prestazioni. L’uso della distillazione, combinato con l’ottimizzazione di scala, potrebbe portare alla creazione di versioni di PaliGemma 2 più leggere e versatili, adatte per applicazioni in contesti con risorse limitate.   Conclusioni PaliGemma 2 rappresenta un avanzamento strategico in un settore in rapida evoluzione, ma la sua reale differenziazione emerge dalla capacità di bilanciare precisione, scalabilità e versatilità applicativa in un ecosistema sempre più competitivo.  Mentre altri modelli vision-language spesso si limitano a eccellere in ambiti specifici, PaliGemma 2 riesce a creare un ponte tra molteplici contesti, spaziando dall’analisi molecolare alla generazione di report medici. Questa integrazione interdisciplinare non è solo una dimostrazione di eccellenza tecnologica, ma un’indicazione della direzione verso cui il settore dell’intelligenza artificiale si sta muovendo: soluzioni olistiche, in grado di operare in contesti diversificati senza sacrificare la specializzazione. Un aspetto distintivo di PaliGemma 2 è la sua enfasi sulla trasferibilità e sulla modularità. L’architettura, progettata per supportare task specifici attraverso un addestramento scalabile e progressivo, risponde a un’esigenza chiave del mercato: offrire modelli che non richiedano una completa riprogettazione per ogni nuova applicazione. Questo non solo riduce il time-to-market per le implementazioni, ma rappresenta un vantaggio competitivo nei settori dove la velocità di adattamento alle mutevoli necessità del cliente è cruciale. Tuttavia, la sfida più grande per PaliGemma 2 non risiede nella tecnologia in sé, ma nella sua capacità di differenziarsi in un panorama dove piattaforme come GPT-4 Vision o altri modelli multimodali di nuova generazione stanno investendo su efficienza e prestazioni. La capacità di operare efficacemente su dispositivi a risorse limitate, un punto di forza di PaliGemma 2, potrebbe essere la chiave per conquistare mercati emergenti o contesti con infrastrutture tecnologiche meno avanzate, come quelli della sanità nei paesi in via di sviluppo o dell’agricoltura di precisione.  Questa capacità di democratizzare l’accesso a tecnologie avanzate non è solo un’opportunità di mercato, ma una responsabilità strategica che potrebbe ampliare l’impatto sociale del modello. Allo stesso tempo, l’attenzione posta sulla sicurezza e sull’etica dell’IA riflette una consapevolezza delle implicazioni sociali e reputazionali che accompagnano l’uso di tecnologie di questo calibro. La capacità di mantenere bias e tossicità a livelli minimi, unita a misure di interpretabilità, rafforza l’affidabilità del modello, in particolare in settori regolamentati come quello sanitario o legale. Tuttavia, la vera sfida per PaliGemma 2 sarà garantire che queste salvaguardie restino efficaci anche quando il modello verrà adottato in scenari non previsti dai suoi sviluppatori, un rischio intrinseco per qualsiasi tecnologia altamente adattabile. Guardando al futuro, l’evoluzione di PaliGemma 2 dovrà concentrarsi su due direzioni chiave: ottimizzazione e specializzazione. Da un lato, la ricerca di configurazioni più efficienti in termini di costo computazionale potrebbe garantire una maggiore accessibilità a lungo termine, favorendo l’adozione su scala globale. Dall’altro, l’espansione verso ambiti emergenti come l’integrazione di dati multispettrali e temporali offrirà nuove opportunità di mercato, rafforzando il posizionamento competitivo del modello. In definitiva, il vero valore di PaliGemma 2 non risiede solo nelle sue prestazioni, ma nella sua capacità di fungere da piattaforma adattabile e responsabile. In un’epoca in cui l’innovazione tecnologica rischia spesso di essere un fine a sé stessa, modelli come PaliGemma 2 ci ricordano che il successo a lungo termine dipenderà dalla capacità di bilanciare eccellenza tecnica, sostenibilità operativa e impatto sociale.   Podcas: https://spotifycreators-web.app.link/e/FMEhxfrhaPb Fonte: https://arxiv.org/abs/2412.03555

  • PaliGemma 2: A New Frontier in Vision-Language Models

    PaliGemma 2 represents a significant evolution in the field of Vision-Language Models (VLMs), offering a wide range of applications from Optical Character Recognition (OCR) tasks to medical report generation. Developed by a team of researchers including Andreas Steiner, André Susano Pinto, and Michael Tschannen at Google Research, this family of open-weight models is based on the integration between the SigLIP-So400m visual encoder and the Gemma 2 language models, with versions ranging from 3 to 28 billion parameters and resolutions varying between 224px² and 896px². PaliGemma 2: Architecture and Training The architecture of PaliGemma 2 is designed to maximize flexibility and the ability to transfer knowledge from one domain or task to another, even when they differ significantly. The system integrates a pre-trained visual encoder, SigLIP-So400m, designed to leverage Google’s latest Tensor Processing Units, a specialized hardware accelerating calculations in machine learning models. Visual representations are linearly mapped into the embedding space of the language model, enabling seamless integration with textual tokens for subsequent autoregressive prediction. The training process is divided into three main stages: 1. Stage 1: The first stage combines the pre-trained checkpoints of SigLIP-So400m and Gemma 2 into a unified multimodal framework, training them with a mix of tasks designed to foster transferability. The image resolution is initially set at 224px², and no parameters are frozen during this phase. 2. Stage 2: This stage focuses on increasing the resolution to 448px² and subsequently 896px², optimizing tasks that benefit from higher visual details. During this phase, the output sequence length is extended, supporting applications such as OCR for complex and lengthy visual texts. 3. Stage 3: The final stage involves task-specific fine-tuning, using the checkpoints generated in the previous stages. This phase includes the optimization of hyperparameters specific to each target application, such as table structure recognition or medical report generation. Additional optimizations include soft-capping techniques for attention logits and outputs during Stages 1 and 2, while these are omitted in the final stage to enhance performance on specific tasks. Moreover, training uses the Adam optimizer with predefined parameters, adjusting the learning rate based on the model size. The training pipeline employs a mix of multimodal data, including captioning, visual question answering (VQA), detection, and segmentation, integrating labels generated by open-source specialist models. This strategy relies on high-level infrastructures, such as TPUv5e, and employs a Fully Sharded Data Parallel (FSDP) approach, enabling efficient scalability even for the most complex models. Applications and Performance PaliGemma 2 excels in numerous application domains, demonstrating unique flexibility and achieving state-of-the-art results in various complex tasks: 1. Advanced Text Recognition (OCR): The model exhibits high competence in detecting and recognizing text in images, outperforming previous techniques in benchmarks such as ICDAR’15, an international dataset designed to evaluate text recognition systems on complex images, and Total-Text, a dataset including images with texts in various orientations and formats, useful for testing algorithm robustness. Leveraging multimodal datasets composed of heterogeneous information like images and textual descriptions, the model combines localization accuracy—the ability to precisely identify the text's position within the image—with transcription accuracy, or the ability to convert detected text into digital characters with high fidelity. This result is also achieved thanks to its ability to handle high-resolution images up to 896px², enabling detailed character representation for more precise processing. 2. Table Structure Recognition: Optimized using datasets such as PubTabNet, a collection of tabular images with structured annotations representing a standard for evaluating models’ ability to recognize and reconstruct tables, and FinTabNet, focused on complex financial tabular data, the model can extract tabular content from images and convert it into HTML format. PaliGemma 2 stands out in metrics such as TEDS (Table Entity Detection and Structure), which assesses precision in recognizing table structure, and GriTS (Grid-based Table Similarity), an indicator measuring similarity between reconstructed table structures and those annotated in the datasets. These advancements have significantly improved table structure representation and the quality of generated annotations, ensuring greater consistency and accuracy in reconstruction. 3. Molecular Structure Recognition: Trained on datasets like PubChem, a vast public database collecting millions of chemical molecules with details on structure, properties, and biological activity, PaliGemma 2 converts molecular drawings into SMILES (Simplified Molecular Input Line Entry System) strings. This standardized textual format allows chemical structures to be represented compactly, facilitating molecular computing, comparison, and research. The model achieves unprecedented accuracy levels, showcasing an extraordinary ability to adapt to stylistic variations in molecular drawings. This versatility makes it an essential tool for fundamental computational chemistry tasks, such as discovering new molecules, optimizing chemical reactions, and analyzing physicochemical properties. 4. Medical Report Generation: Using the MIMIC-CXR dataset, a large archive of chest radiological images accompanied by textual reports, PaliGemma 2 can produce detailed descriptions of radiological images. These descriptions include detected clinical observations, such as anomalies or lesions, and diagnostic suggestions based on image interpretation, offering insights into potential pathologies. The model excels in the healthcare field, significantly improving the RadGraph F1-score, a metric that evaluates the ability to identify and correctly link clinical entities in reports. This advancement represents a step forward compared to previous models, making the system a promising tool for supporting automated medical image interpretation and accurate clinical report writing. 5. Extended and Fine-Grained Captioning: Trained on datasets such as DOCCI, which includes images with highly detailed textual descriptions, PaliGemma 2 can generate precise and rich descriptions (captions) for complex images. The model integrates various capabilities, such as spatial relationship recognition, i.e., the position and orientation of objects within the image, the ability to accurately count the number of objects present, and the use of contextual knowledge to better interpret the represented scene. PaliGemma 2 has shown a significant improvement in factual alignment, i.e., the correspondence between the content described in the caption and the actual image content, outperforming baseline models and demonstrating greater reliability in generating semantically accurate descriptions. 6. Music and Spatial Reasoning: In music score recognition, PaliGemma 2 can convert sheet music into digital formats such as MusicXML or MEI, standardized representations facilitating editing, searching, and automated note analysis and relationships. The model significantly reduces the margin of error compared to previous techniques, ensuring greater precision in sheet music digitization. In parallel, it excels in spatial reasoning benchmarks such as VSR (Visual Spatial Reasoning), which assess the ability to understand and analyze relationships between objects and spaces, including positioning, distance, and orientation. The model accurately solves complex tasks requiring advanced processing of spatial relationships, demonstrating remarkable competence in areas combining visual perception and geometric reasoning. Technical Analysis The technical analysis of PaliGemma 2 highlights how increasing resolution, defined as the number of pixels used to analyze an image, and the model size, measured in billions of parameters, impact performance on various tasks, such as text recognition or description generation. The models vary in size from 3 to 28 billion parameters, with the SigLIP-So400m visual encoder, although relatively small in parameter count, representing a significant computational component due to the intensive processing of visual tokens, i.e., segments of visual information converted into input units for the model. Training uses TPUv5e with fully parallel sharding strategies, an approach that splits data and model across multiple devices, enabling parallel execution of computations. This method ensures optimal scalability and training speed, even for large models. Increasing resolution from 224px² to 896px² entails a significant computational cost, up to 23 times higher for the 3-billion-parameter model. This investment in resources, however, results in evident improvements for activities requiring high levels of visual detail, such as advanced text recognition (OCR) and table structure identification. In parallel, increasing model size proves particularly advantageous for tasks requiring deep linguistic understanding, such as generating detailed descriptions or interpreting medical images. Nevertheless, expanding to very large models, such as the 28-billion-parameter version, offers marginal improvements compared to the significant increase in computational costs, suggesting that an optimal model size for many tasks may be in the 10 to 28-billion-parameter range. A distinctive feature of the model is the use of linear projections, i.e., mathematical functions that map visual tokens into the embedding space of the language model. These transformations allow visual tokens to be represented as vectors compatible with language, facilitating effective autoregressive prediction, where the model generates outputs sequentially using previous outputs as subsequent inputs. Advanced techniques, such as attention logit soft capping, limit the range of attention values to reduce numerical errors and ensure greater stability during training. Furthermore, optimization using Adam, an algorithm widely used for its ability to automatically adapt parameter update steps, contributes to improved stability and accuracy in the initial training phases. These technical precautions play a crucial role in the model's overall reliability. The model excels in transferability, performing well on over 30 academic benchmarks and demonstrating substantial improvements in numerous complex tasks. For example, in detailed captioning tasks, as evaluated on the DOCCI dataset, PaliGemma 2 showed up to a 15% improvement in factual alignment metrics compared to baseline models. In molecular recognition, trained on one million molecules from the PubChem dataset, the model achieved a 94.8% accuracy in converting chemical drawings into SMILES strings, surpassing the previous state-of-the-art performance by 5%. PaliGemma 2 also stands out for its versatility in inference, the phase in which the model, after training, is used to generate outputs or make predictions. Low-precision versions, optimized for inference on CPUs via the gemma.cpp framework, allow the model to run while reducing computational costs and maintaining comparable performance quality to those obtained on TPUs. This optimization has enabled a reduction in computational consumption of up to 70%. Measurements conducted on CPUs such as Apple M1 Max and AMD Genoa highlighted prefill times of 0.36 seconds (the time required to load data and generate the first output tokens) and an extension speed of 147 tokens per second on AMD Genoa, demonstrating the model's efficiency in generating output sequences. These results make PaliGemma 2 highly suitable for cost-effective deployment scenarios where hardware resources are limited but performance needs to remain competitive. This balance between computational efficiency and prediction quality consolidates PaliGemma 2 as a practical and scalable solution even for applications in hardware-constrained environments. Safety and Ethics Safety and ethics are key elements in the development and use of PaliGemma 2. Researchers have introduced several protocols to assess and mitigate risks associated with the model, including the generation of potentially harmful or discriminatory content. For this analysis, diverse datasets like FairFace, which includes facial images balanced by ethnicity, age, and gender, were used to identify and mitigate biases related to gender, ethnicity, and age. Tests revealed very low levels of toxicity. Perceived toxicity, a metric measuring how offensive a text might appear to human evaluators or analysis algorithms, recorded an average value of 0.13. For identity attacks, i.e., content targeting specific social identities (e.g., based on ethnicity or sexual orientation), the average value was 0.02. These results demonstrate that the model was designed with particular attention to inclusivity, offering performances that minimize discrimination risks and promote responsible and respectful use of diversity. A fundamental aspect of PaliGemma 2 is its emphasis on transparency and its ability to explain its decisions. The model integrates interpretability approaches, i.e., techniques that allow understanding the reasons behind a response. These methods, such as highlighting the input parts that most influenced the result, provide traceability of predictions, proving particularly useful in sensitive sectors. In the medical field, for instance, understanding the reasons for an automated diagnosis is essential to support healthcare professionals in their assessments. Similarly, in law, it is necessary to provide transparent justifications for a decision or legal advice, ensuring consistency with the regulatory framework. Despite these advancements, continuous monitoring is crucial to prevent the model from generating potentially offensive or prejudiced content. This ensures that the model's use remains ethical and reliable, fostering trust and responsibility in its deployment. In the ethical domain, the development team has adopted targeted strategies to prevent the model from amplifying cultural stereotypes or implicit discrimination. Among these measures is the use of balanced datasets designed to ensure an equitable distribution of genders, ethnicities, and other characteristics, preventing the over-representation of one group at the expense of others. Furthermore, training was supported by fairness-aware learning techniques, which integrate equity objectives directly into the model's learning process, reducing the risk of systemic biases. To maintain high-quality standards, the team implemented continuous prediction evaluation through tools such as Perspective API, developed by Google. This API uses machine learning models to detect potentially toxic or offensive content in real-time, enabling constant monitoring and iterative improvement of the model's performance. These initiatives testify to the team's commitment to developing a reliable, inclusive, and respectful system. Finally, to ensure responsible use, researchers released PaliGemma 2 with detailed documentation that includes guidelines for the model's safe and ethical use. This approach represents a significant step towards the adoption of VLMs in real-world scenarios, balancing technological innovation and social responsibility. Future Perspectives The future perspectives for PaliGemma 2 aim at expanding towards increasingly complex and diversified applications, leveraging the integration of high resolutions with large-scale language models. Among the most promising developments is optimization for transfer to specific tasks using targeted training strategies. A key role could be played by approaches such as meta-learning, which allows the model to learn how to quickly adapt to new tasks, making it more flexible and effective in dynamic scenarios. At the same time, reinforcement learning could be used to further enhance the model’s performance: through a reward and penalty system, the model could learn to optimize its decisions based on task objectives. These combined approaches pave the way for a new generation of models capable of not only excelling in individual tasks but also easily adapting to emerging needs, consolidating PaliGemma 2's role as a versatile and innovative platform. For example, adopting task-specific reward systems, i.e., reward systems tailored to specific objectives, represents a significant opportunity to further improve the model's capabilities in specialized domains. In these systems, the model receives positive feedback whenever it achieves a desired outcome in each task, reinforcing optimal behaviors and adapting its responses to domain requirements. This strategy would allow refining performance in increasingly complex contexts, such as medical diagnosis, legal interpretation, or scientific data processing, where objectives are highly specific and require extreme precision. The integration of personalized reward systems, combined with advanced learning techniques, could transform PaliGemma 2 into an even more performant and versatile tool, capable of responding to the challenges of the most demanding sectors with targeted and optimized solutions. A fundamental area of interest concerns the implementation of PaliGemma 2 in industrial settings with limited computational resources. Thanks to its CPU-optimized inference versions, the model has already demonstrated the ability to maintain high performance, making it particularly suitable for expanding access to advanced technologies in critical sectors. This approach could have a significant impact in areas such as healthcare in developing countries, precision agriculture, and environmental analysis, where technological constraints represent a major challenge. Another significant step forward is represented by integration with multispectral and temporal data, opening up new application opportunities. For example, interpreting data from multispectral sensors, such as satellite images and lidar scans, could expand the model's use in sectors such as climate monitoring, disaster prevention, and sustainable resource management. Similarly, training on temporal data would provide the model with the ability to analyze and manage dynamic information, improving its performance in applications such as intelligent surveillance and event prediction. These developments could make PaliGemma 2 an even more versatile and indispensable tool, capable of tackling complex challenges in global settings and promoting innovative solutions in diverse fields. Another promising direction for PaliGemma 2’s development is model scaling optimization, i.e., balancing the size in terms of parameters, architectural complexity, and computational resources required. This approach aims to identify configurations that optimize the cost-benefit ratio, focusing on solutions that reduce computational costs while maintaining or improving performance. Although larger models have so far shown marginal advantages relative to additional costs, further research could identify combinations of architectures and hyperparameters, such as learning rate, batch size, and model depth, that maximize efficiency for specific application scenarios. A promising example is represented by model distillation techniques, a process in which a smaller model, called a "student," learns to replicate the behavior of a larger model, called a "teacher." This approach enables transferring the capabilities of complex models into lighter versions, significantly reducing parameter counts without substantially compromising performance. The use of distillation, combined with scaling optimization, could lead to the creation of lighter and more versatile versions of PaliGemma 2, suitable for applications in resource-constrained environments. Conclusions PaliGemma 2 represents a strategic advancement in a rapidly evolving sector, but its real differentiation emerges from its ability to balance precision, scalability, and application versatility in an increasingly competitive ecosystem. While other vision-language models often excel in specific domains, PaliGemma 2 manages to bridge multiple domains, ranging from molecular analysis to medical report generation. This interdisciplinary integration is not just a demonstration of technological excellence but an indication of the direction in which the AI sector is moving: holistic solutions capable of operating in diverse domains without sacrificing specialization. A distinctive aspect of PaliGemma 2 is its emphasis on transferability and modularity. The architecture, designed to support specific tasks through scalable and progressive training, addresses a key market need: offering models that do not require complete redesign for every new application. This not only reduces the time-to-market for implementations but represents a competitive advantage in sectors where adaptability to changing customer needs is crucial. However, the biggest challenge for PaliGemma 2 does not lie in the technology itself but in its ability to differentiate itself in a landscape where platforms like GPT-4 Vision or other next-generation multimodal models are investing in efficiency and performance. The ability to operate effectively on resource-constrained devices, a strength of PaliGemma 2, could be the key to capturing emerging markets or contexts with less advanced technological infrastructures, such as healthcare in developing countries or precision agriculture. This ability to democratize access to advanced technologies is not just a market opportunity but a strategic responsibility that could expand the model’s social impact. At the same time, the focus on AI safety and ethics reflects an awareness of the social and reputational implications accompanying the use of technologies of this caliber. The ability to keep bias and toxicity to a minimum, combined with interpretability measures, strengthens the model's reliability, particularly in regulated sectors such as healthcare or legal. Nevertheless, the real challenge for PaliGemma 2 will be ensuring these safeguards remain effective even when the model is adopted in scenarios unforeseen by its developers, an inherent risk for any highly adaptable technology. Looking ahead, the evolution of PaliGemma 2 will need to focus on two key directions: optimization and specialization. On the one hand, the pursuit of more cost-efficient configurations could ensure greater long-term accessibility, favoring global adoption. On the other hand, expansion into emerging domains such as multispectral and temporal data integration will offer new market opportunities, strengthening the model’s competitive positioning. Ultimately, the true value of PaliGemma 2 lies not only in its performance but in its ability to serve as an adaptable and responsible platform. In an era where technological innovation often risks becoming an end, models like PaliGemma 2 remind us that long-term success will depend on the ability to balance technical excellence, operational sustainability, and social impact. Podcast: https://spotifycreators-web.app.link/e/uixW9hrhaPb Source: https://arxiv.org/abs/2412.03555

  • U.S. Digital Security Law: Lessons from the TikTok Case

    On December 6, 2024, the United States Court of Appeals for the District of Columbia examined relevant aspects of the "Protecting Americans from Foreign Adversary Controlled Applications Act," addressing issues related to the TikTok and ByteDance case without issuing a definitive ruling. This article explores the main aspects of the case, highlighting constitutional questions, national interests, and practical implications for digital platforms. Background of the Controversy The law, enacted on April 24, 2024, aims to protect American citizens from risks associated with foreign control over digital applications, specifically identifying China, Russia, Iran, and North Korea as "foreign adversaries." It prohibits the distribution and updating of applications controlled by these countries unless certain conditions are met, such as the transfer of control to entities unaffiliated with adversarial nations. This legislative measure stems from a long-standing concern regarding national security, initiated in 2017 when ByteDance relaunched TikTok in the United States following the acquisition of Musical.ly . The U.S. government, recognizing a growing risk, began investigating potential links between ByteDance and the Chinese government. In 2020, the Committee on Foreign Investment in the United States (CFIUS) concluded that TikTok could not adequately mitigate national security concerns, leading President Trump to issue executive orders aimed at forcing ByteDance to divest ownership. While these orders were later challenged in court, the Biden administration continued investigations, identifying foreign control as a critical threat. Key risks identified included: • Personal data collection: TikTok gathers a wide array of data, from keystroke patterns to GPS information, potentially accessible to ByteDance and indirectly to the Chinese government. • Content manipulation: The U.S. government fears TikTok could be used to covertly influence information flow, promote propaganda, or censor content critical of the Chinese regime. In response, Congress held hearings and classified briefings, culminating in the law, which stands out for three main features: Definition of "foreign adversary-controlled applications," including platforms like TikTok managed by entities linked to adversarial governments. Targeted prohibitions to prevent operational support in the U.S. for such applications without qualified divestiture. A "divestiture exemption" option, allowing continued operations only if ownership is transferred to entities unaffiliated with adversarial governments. This law reflects a balance between national security concerns and efforts to regulate foreign control over digital technologies, setting a significant precedent for the future of global platforms operating in the U.S. TikTok Case: Analysis of the Ruling The ruling focused on multiple constitutional and regulatory aspects, analyzing the balance between national security risks and rights guaranteed under the First and Fifth Amendments of the Constitution. The court assessed the proportionality of the law's measures relative to governmental interests, considering the escalating geopolitical tensions between the U.S. and China. A central issue of the decision involves the Chinese government's control over domestic technology companies. The court acknowledged that the Chinese Communist Party possesses legislative and operational tools to access data collected by companies like ByteDance. Such tools, including China’s 2017 cybersecurity law, mandate companies to cooperate with government authorities, making U.S. concerns about potential data misuse for espionage or information manipulation credible. Another relevant point is the analysis of the Chinese government’s ability to influence content distributed by TikTok. The court evaluated evidence provided by the U.S. government, including documented cases of censorship of content critical of China on other platforms controlled by entities similar to ByteDance. These incidents supported the argument that the risk of content manipulation on TikTok is not merely theoretical but tangible. The court also reviewed alternatives proposed by TikTok, such as the National Security Agreement (NSA), which involved data management by Oracle and the implementation of independent controls. However, these measures were deemed insufficient by the U.S. government, which highlighted the difficulty of effectively monitoring compliance and the inherent vulnerability stemming from the integration between ByteDance and TikTok. The ruling further addressed the preventive nature of the law, emphasizing that it is not retroactive punishment but a necessary measure to protect the future interests of the U.S. The court dismissed TikTok’s argument that the law violated the Bill of Attainder clause and the Takings Clause, affirming that the provisions allow operational flexibility, provided the condition of control transfer is met. Lastly, the court underscored the importance of legislative and interinstitutional cooperation between Congress and the Presidency in defining the law, highlighting how it represents a proportional and specific response to identified risks. The decision reaffirms the principle that national security can justify significant restrictions, provided they are based on solid evidence and accompanied by appropriate review mechanisms. Conclusions The U.S. Court of Appeals ruling on the "Protecting Americans from Foreign Adversary Controlled Applications Act" is not just a significant legal precedent but a pivotal moment for reflecting on the interplay between digital sovereignty, constitutional rights, and the geopolitics of technological innovation. The ruling highlights a growing conflict between the openness of the global digital market and the protection of national interests, emphasizing how technology has evolved from merely an economic and social progress tool to a battleground for political and strategic control. The TikTok case is not an isolated anomaly but a symbol of a broader dynamic posing unprecedented challenges to global digital governance. The law, and its judicial confirmation, mark a departure from the traditional laissez-faire approach to technology. The United States, long a proponent of a free and open internet model, is adopting a more protectionist approach, reflecting an increasing awareness of the role of data as a strategic resource. The massive collection of personal information, enabled by digital platforms, is no longer seen solely as a privacy issue but as an existential threat to national security. The court recognized that the Chinese government, through cybersecurity and national security laws, can compel ByteDance to provide sensitive data on American users, with potential implications for political coercion, informant recruitment, and social manipulation. Moreover, fears that the Chinese Communist Party could use TikTok to influence American public opinion through content distribution control were deemed not only theoretical but plausibly concrete. This decision challenges the very concept of technological neutrality. Far from being neutral infrastructure, technology has become a geopolitical power tool. Governments, especially in Western democracies, face the challenge of balancing individual rights protection with safeguarding critical infrastructures from the growing influence of hostile foreign actors. The ruling suggests that the U.S. approach is no longer guided solely by economic considerations but by a strategic vision that sees digital sovereignty as an essential component of national security. This approach could trigger a chain reaction, prompting other nations to replicate similar measures and contributing to the fragmentation of the global cyberspace, already threatened by regulatory and cultural barriers. A less obvious but equally significant aspect concerns the impact on the technological innovation ecosystem. The exclusion of TikTok from the U.S. market, should the divestiture imposed by the law not be completed, would create a void that could be filled by local or international competitors. However, this scenario raises questions about the diversity and competitiveness of the digital market. While it could encourage the development of domestic platforms, it risks fostering market concentration, consolidating the power of a few already dominant players. Moreover, regulatory uncertainty could deter foreign investment in the U.S., particularly in the tech sector, with potential negative effects on innovation. Another point for reflection is the interaction between national legislation and global dynamics. The ruling reaffirms the primacy of national law over transnational platforms but raises questions about the ability of individual nations to address challenges that, by nature, transcend geographical boundaries. Unilateral regulation risks creating inefficiencies and duplications, highlighting the need for more coordinated and inclusive international digital governance. However, the current geopolitical climate, characterized by growing U.S.-China rivalry, makes global cooperation on these issues unlikely in the short term. For businesses, this decision sends a clear signal: the geopolitical landscape is no longer a marginal variable but a determining factor in defining corporate strategies. Technology companies must adopt a proactive approach to managing geopolitical risk, recognizing that their operational and governance decisions can have strategic consequences beyond mere profit. This entails not only compliance with local regulations but also a deep understanding of the political and social implications of their global operations. The "Protecting Americans from Foreign Adversary Controlled Applications Act" ruling marks a turning point in the relationship between technology, politics, and law. This judgment suggests that the future of digital will increasingly be defined by governments' ability to balance openness and protection, innovation and security, local and global. In an increasingly interconnected world, this tension is not only inevitable but will likely constitute the main battleground for 21st-century economies and societies. Businesses, lawmakers, and citizens must adapt to this new reality, recognizing that technology is not just a driver of progress but also a field of conflict where some of the most crucial challenges of our time are played out.   Podcast: https://spotifycreators-web.app.link/e/dkZ8d7PI8Ob

  • Legge sulla sicurezza digitale USA. Lezioni dal caso TikTok

    Il 6 dicembre 2024, la Corte d'Appello degli Stati Uniti per il Distretto di Columbia ha discusso aspetti rilevanti legati all'applicazione della legge "Protecting Americans from Foreign Adversary Controlled Applications Act", esaminando questioni legate al caso TikTok e ByteDance, senza emettere una vera e propria sentenza conclusiva in merito. Questo articolo esamina i principali aspetti della sentenza, evidenziando le questioni costituzionali, gli interessi nazionali e le conseguenze pratiche per le piattaforme digitali. Contesto della controversia La legge, promulgata il 24 aprile 2024, mira a proteggere i cittadini americani dai rischi legati al controllo straniero su applicazioni digitali, identificando specificamente la Cina, la Russia, l’Iran e la Corea del Nord come "avversari stranieri". In particolare, vieta la distribuzione e l'aggiornamento di applicazioni controllate da questi paesi a meno che non siano rispettate determinate condizioni, come la cessione del controllo a entità non affiliate a paesi avversari. Questo provvedimento legislativo nasce da un lungo processo di preoccupazioni riguardanti la sicurezza nazionale, avviato nel 2017, quando ByteDance rilanciò TikTok negli Stati Uniti a seguito dell'acquisizione di Musical.ly . Il governo americano, riconoscendo un rischio crescente, ha iniziato a indagare sui possibili legami tra ByteDance e il governo cinese. Nel 2020, il Comitato sugli Investimenti Esteri negli Stati Uniti (CFIUS) ha concluso che TikTok non poteva mitigare adeguatamente le preoccupazioni di sicurezza nazionale, portando il Presidente Trump a emettere ordini esecutivi mirati a forzare la cessione della proprietà di ByteDance. Sebbene questi ordini siano stati successivamente contestati in tribunale, la nuova amministrazione Biden ha proseguito le indagini, identificando il controllo straniero come una minaccia cruciale. Tra i principali rischi individuati vi sono stati: Raccolta di dati personali : La piattaforma TikTok raccoglie un vasto assortimento di dati, dai modelli di digitazione alle informazioni GPS, che potrebbero essere accessibili a ByteDance e, indirettamente, al governo cinese. Manipolazione dei contenuti : Il governo americano teme che TikTok possa essere usato per influenzare segretamente il flusso di informazioni, promuovendo propaganda o censurando contenuti critici verso il regime cinese. In risposta, il Congresso ha condotto audizioni e briefing classificati, culminati nella promulgazione della legge, che si distingue per tre caratteristiche principali: Definizione di "foreign adversary controlled applications" che include piattaforme come TikTok gestite da entità collegate a governi avversari. Proibizioni mirate a impedire il supporto operativo negli Stati Uniti per tali applicazioni senza una cessione qualificata del controllo. Opzione di "divestiture exemption", che consente la continuazione delle operazioni solo con la cessione della proprietà a entità non affiliate a governi avversari. Questa legge rappresenta una sintesi tra preoccupazioni di sicurezza nazionale e tentativi di regolamentare il controllo straniero sulle tecnologie digitali, stabilendo un precedente significativo per il futuro delle piattaforme globali operanti negli Stati Uniti. Caso TikTok, analisi della sentenza La sentenza si è focalizzata su molteplici aspetti di carattere costituzionale e normativo, analizzando il bilanciamento tra i rischi per la sicurezza nazionale e i diritti garantiti dal Primo e dal Quinto Emendamento della Costituzione. La Corte ha valutato la proporzionalità delle misure previste dalla Legge rispetto agli interessi governativi, considerando anche il contesto di crescente tensione geopolitica tra Stati Uniti e Cina. Un aspetto centrale della decisione riguarda il controllo esercitato dal governo cinese sulle aziende tecnologiche nazionali. La Corte ha riconosciuto che il Partito Comunista Cinese possiede strumenti legislativi e operativi per accedere ai dati raccolti da aziende come ByteDance. Tali strumenti, come la legge cinese sulla cybersicurezza del 2017, obbligano le aziende a collaborare con le autorità governative, rendendo plausibili i timori del governo americano su possibili utilizzi dei dati raccolti per attività di spionaggio o manipolazione dell'informazione. Un altro punto rilevante è l'analisi della capacità del governo cinese di influenzare i contenuti distribuiti da TikTok. La Corte ha valutato le prove fornite dal governo degli Stati Uniti, che includono casi documentati di censura di contenuti critici verso la Cina su altre piattaforme controllate da entità simili a ByteDance. Questi episodi sono stati utilizzati per sostenere che il rischio di manipolazione dei contenuti su TikTok non è solo teorico, ma concreto. La Corte ha anche analizzato le alternative proposte da TikTok, come l'accordo di sicurezza nazionale (NSA) che prevedeva la gestione dei dati da parte di Oracle e l'implementazione di controlli indipendenti. Tuttavia, tali misure sono state ritenute insufficienti dal governo americano, che ha evidenziato la difficoltà di monitorare efficacemente il rispetto delle condizioni e la vulnerabilità intrinseca derivante dall'integrazione tra ByteDance e TikTok. La sentenza ha inoltre discusso la natura preventiva della Legge, sottolineando che non si tratta di una punizione retroattiva, ma di una misura necessaria per proteggere gli interessi futuri degli Stati Uniti. La Corte ha rigettato l'argomentazione di TikTok secondo cui la Legge violerebbe la clausola di Attainder e la clausola di Esproprio, affermando che le disposizioni consentono un margine di operatività, a patto che venga soddisfatta la condizione della cessione del controllo. Infine, la Corte ha sottolineato l'importanza del ruolo legislativo e della cooperazione interistituzionale tra Congresso e Presidenza nella definizione della Legge, evidenziando come questa rappresenti una risposta proporzionata e specifica ai rischi identificati. La decisione riafferma il principio secondo cui la sicurezza nazionale può giustificare restrizioni significative, purché basate su prove solide e accompagnate da meccanismi di revisione adeguati. Conclusioni La sentenza della Corte d'Appello del Distretto di Columbia sulla  “Protecting Americans from Foreign Adversary Controlled Applications Act”  non rappresenta solo un precedente giuridico significativo, ma un momento di riflessione fondamentale sul rapporto tra  sovranità digitale , diritti costituzionali e  geopolitica dell’innovazione tecnologica . La sentenza mette in luce un conflitto crescente tra  l’apertura del mercato digitale globale  e la protezione degli interessi nazionali, evidenziando come la tecnologia non sia più soltanto uno strumento di progresso economico e sociale, ma anche un  campo di battaglia per il controllo politico e strategico . Il caso TikTok non è un’anomalia isolata, ma un simbolo di una dinamica più ampia che pone sfide senza precedenti alla governance globale del digitale. La legge, e la sua conferma giudiziaria, segnano una rottura rispetto al paradigma tradizionale del  laissez-faire tecnologico . Gli Stati Uniti, da tempo promotori di un modello di internet libero e aperto, stanno adottando un approccio più  protezionista , riflettendo una crescente consapevolezza del ruolo dei  dati come risorsa strategica . La raccolta massiva di informazioni personali, abilitata dalle piattaforme digitali, non è più vista solo come una questione di  privacy , ma come un rischio esistenziale per la  sicurezza nazionale . La Corte ha riconosciuto che il governo cinese, attraverso le leggi sulla  cybersicurezza  e sulla  sicurezza nazionale , può obbligare ByteDance a fornire  dati sensibili sugli utenti americani , con potenziali implicazioni per il  ricatto politico , il  reclutamento di informatori  e la  manipolazione sociale . Inoltre, il timore che il Partito Comunista Cinese possa utilizzare TikTok per influenzare  l’opinione pubblica americana , attraverso il controllo della distribuzione dei contenuti, è stato giudicato non solo teorico, ma concretamente plausibile. Questa decisione mette in discussione il concetto stesso di  neutralità tecnologica . La tecnologia, lungi dall’essere un’infrastruttura neutrale, è diventata uno  strumento di potere geopolitico . I governi, specialmente quelli delle democrazie occidentali, si trovano a dover bilanciare la tutela dei  diritti individuali  con la protezione delle proprie  infrastrutture critiche  dalla crescente influenza di attori stranieri ostili. La sentenza suggerisce che l’approccio statunitense non è più guidato solo da considerazioni economiche, ma da una visione strategica che considera la  sovranità digitale una componente essenziale della sicurezza nazionale . Questo approccio potrebbe innescare una reazione a catena, spingendo altre nazioni a replicare misure simili e contribuendo a una  frammentazione del cyberspazio globale , già minacciato da barriere normative e culturali. Un aspetto meno evidente, ma altrettanto significativo, riguarda  l’impatto sull’ecosistema dell’innovazione tecnologica . L’esclusione di TikTok dal mercato americano, qualora la cessione imposta dalla legge non venga completata, creerebbe un vuoto che potrebbe essere riempito da  concorrenti locali o internazionali . Tuttavia, questo scenario solleva interrogativi sulla  diversità e sulla competitività del mercato digitale . Se da un lato potrebbe incentivare lo sviluppo di piattaforme domestiche, dall’altro rischia di favorire una  concentrazione di mercato , consolidando il potere di pochi attori già predominanti. Inoltre,  l’incertezza normativa  potrebbe scoraggiare gli investimenti esteri negli Stati Uniti, specialmente nel settore tecnologico, con potenziali effetti negativi sull’innovazione. Un altro elemento di riflessione è l’interazione tra  legislazione nazionale  e  dinamiche globali . La sentenza riafferma il  primato del diritto nazionale  sulle piattaforme transnazionali, ma solleva domande sulla capacità delle singole nazioni di affrontare sfide che, per loro natura,  trascendono i confini geografici . La regolamentazione unilaterale rischia di creare inefficienze e duplicazioni, evidenziando la necessità di una  governance internazionale del digitale  che sia più coordinata e inclusiva. Tuttavia, l’attuale contesto geopolitico, caratterizzato da  rivalità crescenti tra Stati Uniti e Cina , rende difficile immaginare una cooperazione globale su questi temi nel breve termine. Per le imprese, questa decisione rappresenta un segnale chiaro: il  contesto geopolitico  non è più una variabile marginale, ma un  fattore determinante  nella definizione delle strategie aziendali. Le aziende tecnologiche, in particolare, devono adottare un  approccio proattivo  alla gestione del rischio geopolitico, riconoscendo che le loro decisioni operative e di governance possono avere  conseguenze strategiche  che vanno oltre il semplice profitto. Ciò implica non solo il rispetto delle normative locali, ma anche una  comprensione approfondita delle implicazioni politiche e sociali  delle proprie operazioni globali. La sentenza sulla  "Protecting Americans from Foreign Adversary Controlled Applications Act"  segna un punto di svolta nel rapporto tra tecnologia, politica e diritto. Questo giudizio suggerisce che il  futuro del digitale  sarà sempre più definito dalla capacità dei governi di bilanciare  apertura e protezione ,  innovazione e sicurezza ,  locale e globale . In un mondo sempre più interconnesso, questa tensione non è solo inevitabile, ma probabilmente costituirà il principale terreno di confronto per le  economie e le società del XXI secolo . Le imprese, i legislatori e i cittadini dovranno adattarsi a questa nuova realtà, riconoscendo che la tecnologia non è solo un  motore di progresso , ma anche un  campo di conflitto  dove si giocano alcune delle sfide più cruciali del nostro tempo. Podcast: https://spotifycreators-web.app.link/e/XgGai9PI8Ob

  • Organized Crime and Artificial Intelligence

    Artificial Intelligence (AI) is rapidly transforming many aspects of our society, but its impact is not always positive. One of the areas where AI is finding controversial applications is organized crime. A recent study from the EL PACCTO 2.0 program highlighted how the adoption of AI technologies by criminal groups is already a reality, especially in Latin America, the Caribbean, and the European Union. This article explores how AI is exploited by organized crime, the main crimes committed using AI tools, and how justice and security institutions are attempting to respond to these challenges. Organized Crime and Artificial Intelligence: A Dangerous Alliance Organized crime and artificial intelligence have strengthened illegal activities such as human trafficking, ransomware, banking fraud, and sexual exploitation. A particularly alarming aspect is the ease with which these technologies can be used even by individuals with limited technical expertise. Through automation, the scope of criminal operations can be expanded while reducing the likelihood of detection. One illustrative example is the use of AI-controlled bots to launch large-scale attacks such as Distributed Denial of Service (DDoS) or to distribute malware. Recent reports indicate that these bots are increasingly sophisticated and capable of identifying and exploiting vulnerabilities in real time, enhancing efficiency and reducing the time required to carry out an attack. According to the EL PACCTO program, between 2021 and 2023, there was a 284% increase in identity theft cases in South Africa, facilitated by AI use in creating fake identities and financial fraud. These numbers demonstrate how AI not only increases the effectiveness of criminal actions but also makes it extremely difficult for authorities to counteract. In Latin America, criminal groups have begun using AI-controlled drones to transport drugs and carry out physical attacks against rival groups or law enforcement. For instance, in 2018, a drone attack targeted the Secretary of Public Security in Baja California, Mexico. Equipped with explosive devices, these drones represent a new threat that combines the autonomy and precision of AI technologies with the lethality of weapons. Furthermore, these devices have been used to monitor and surveil law enforcement activities, further complicating authorities' operations. AI is also used to identify potential victims of human trafficking through digital platforms such as social media and dating sites. This enables criminals to precisely target vulnerable individuals in economically or socially difficult situations. A recent EL PACCTO report noted that online recruitment and AI manipulation of victims are now standard practices in human trafficking networks in Europe and Latin America. Machine learning techniques are employed to analyze victim profiles and optimize persuasion tactics, increasing the success of recruitment operations. Another worrying aspect is the use of deepfake technologies. Beyond creating fake videos and audio to impersonate others, these technologies are exploited for sophisticated financial fraud. In 2024, a scam in England involved deepfakes to impersonate a CFO, convincing an employee to transfer over $25 million. In many cases, deepfakes are used to forge identities and commit banking fraud or other fraudulent activities, making it increasingly difficult for victims to distinguish between reality and fiction. The Response of Justice and Security Institutions Justice and security institutions are trying to respond to the challenges posed by the criminal use of AI by adopting AI technologies themselves for crime prevention and counteraction. Among the most common applications are: • Predictive analysis and surveillance: AI is used to analyze large amounts of data and predict where crimes might occur, enabling law enforcement to optimize resource allocation. A significant example is the use of predictive algorithms to identify high-risk areas and improve patrolling. In Colombia, a project developed in collaboration with UNESCO improved police resource distribution based on historical and real-time crime data. However, the use of predictive technologies raises ethical issues and concerns related to human rights, such as discrimination and excessive surveillance of vulnerable communities. • Judicial case management: In Europe, several countries have adopted AI-based systems to manage judicial cases more efficiently, automating repetitive tasks and facilitating access to legal information. In Germany, the OLGA system (Online Criminal Proceedings Register for Organized Crime and Money Laundering) centralizes and manages organized crime case data, improving information sharing and response times. Similarly, in Latin America, some jurisdictions are attempting to digitize and modernize their judicial infrastructures through AI integration, though implementation is hindered by limited resources and fragile infrastructures. • Facial recognition: AI-based facial recognition technologies are used to identify suspects or victims, though there are significant ethical issues related to privacy and the possibility of errors. In Latin America, facial recognition systems have been adopted in countries like Brazil and Mexico, where they are used to monitor public spaces and ensure security. However, there have been numerous cases of misuse, such as unauthorized surveillance of activists and journalists, raising concerns about human rights protection. • International cooperation and blockchain: Another important element in the response to organized crime is international cooperation. Projects like INSPECTr, funded by the European Union, use blockchain technology to ensure the integrity of collected evidence and data traceability across jurisdictions. This technology helps reduce the risk of evidence tampering and facilitates secure information sharing among authorities. • Automatic translation and interpretation: In the context of international cooperation, language barriers represent a significant challenge. Projects like MARCELL, within the Connecting Europe Facility (CEF) program, aim to improve the quality of automatic translations in legal contexts, enabling smoother communication during transnational proceedings. This is particularly relevant in cases where cooperation between different countries is essential to combat organized crime. Despite these efforts, many challenges remain in using AI for justice and security activities. One major issue concern protecting human rights and managing algorithmic biases that could lead to discrimination. The need for rigorous regulations to ensure ethical and responsible use of these technologies is more evident than ever, especially in the introduction of tools like facial recognition and predictive analysis, which can have a direct impact on citizens' lives. Recommendations and Guidelines from International Organizations In recent years, there has been a growing interest in the ethical, responsible, and fair development of artificial intelligence technologies. In this field, many international institutions have worked diligently to define guidelines, principles, and recommendations. A significant reference at the European level is the "Guidelines for Trustworthy AI," published in 2019 by the High-Level Expert Group on Artificial Intelligence (HLEG), a group of experts established by the European Commission to outline a shared vision ensuring respect for human rights, democratic values, and deeply rooted ethical principles. The guidelines highlighted the importance of technical robustness capable of minimizing risks and vulnerabilities, the centrality of safety in technological development, and transparency, essential for enabling users and regulators to understand the logic underlying automated decision-making processes. Additionally, they emphasized the responsibility of all actors involved in the AI lifecycle and the need to prevent any form of discrimination to avoid technology becoming a tool for injustice or inequality. Attention to this issue has extended well beyond the European Union, reaching the United Nations and its decision-making bodies. In 2024, the UN General Assembly adopted a General Resolution (78/L.49), emphasizing the centrality of human rights and urging member states not to use AI in ways contrary to international law, committing them to prevent scenarios where these technologies could be exploited to harm fundamental freedoms or target already vulnerable groups. This document lays the foundation for international cooperation aimed at protecting rights at every stage of the design, development, distribution, and use of automated systems, inspiring national policies that never overlook the ethical dimension of technology. Another tool provided to the international community is the Toolkit for Responsible Artificial Intelligence for law enforcement, developed by the United Nations Interregional Crime and Justice Research Institute (UNICRI) and INTERPOL, with support from the European Union. This Toolkit offers practical guidance for security agencies in understanding and employing AI systems, providing recommendations on how to use technology consistently with human rights, ethical principles, and fundamental values underpinning contemporary societies. Through this initiative, police forces and judicial institutions in various countries can acquire theoretical and operational knowledge, adopt transparent procedures, assess the impact of technologies on the ground, and enhance crime prevention and control activities without compromising principles of accountability and legitimacy. The United Nations Educational, Scientific and Cultural Organization (UNESCO) has played a crucial role in this global effort by creating a Global Observatory on AI Ethics and Governance, designed as a permanent monitoring tool for ethical practices adopted in different national settings. In addition to providing guidelines for evaluating the impact of AI technologies, UNESCO has promoted the dissemination of best practices and established structures like the AI Ethics and Governance Lab, intended to gather knowledge, experiences, studies, and research to foster the continuous evolution of regulations and supervisory mechanisms. Already in 2021, UNESCO published the "Recommendation on the Ethics of Artificial Intelligence," a landmark document summarizing values and principles useful for guiding governments and policymakers in creating regulatory frameworks that combine technological innovation with respect for human dignity, cultural diversity, and environmental protection. Another prominent body is the Organization for Economic Co-operation and Development (OECD), which outlined a specific recommendation on AI, promoting the vision of technology usage aligned with democratic principles, human rights protection, and the need to maintain human oversight where automated systems may exhibit undesired behavior. The OECD updated its guidelines in 2024, broadening the definition of "AI system" and addressing safety issues more specifically, ensuring that human intervention remains possible and secure even in emergency scenarios, thus preventing potential abuses or malfunctions. Overall, the framework emerging from the work of international organizations, specialized agencies, and globally funded projects is one of a constantly evolving ecosystem aimed at creating shared standards for the governance, regulation, and ethics of artificial intelligence. This ecosystem, while recognizing the innovative potential of these technologies, seeks to maintain human oversight, bind them to specific ethical principles, and place them within a sustainable, inclusive perspective attentive to social, environmental, and economic dimensions. It is an ongoing process, a collective effort involving governments, supranational institutions, experts, scientific communities, civil society, and the private sector, aiming to ensure that artificial intelligence becomes a resource benefiting humanity, consistently oriented towards respect for rights, freedoms, safety, and the common good. International Legal Cooperation In recent years, international legal cooperation has gained increasing importance in combating transnational crime, prompting the European Union and its partners to finance and promote innovative projects to support security agencies, law enforcement, and judicial institutions. Projects like EXCAPE have inaugurated a new generation of tools based on artificial intelligence and advanced data analysis, aimed at identifying and predicting organized crime dynamics on a global scale. By integrating diverse information sources, ranging from social networks to financial and criminal records, EXCAPE seeks to provide a comprehensive view of illicit activities, fostering more effective coordination among various jurisdictions and accelerating interventions against particularly complex and articulated phenomena. In parallel, the ROXANNE project has demonstrated how voice recognition, combined with advanced social network analysis techniques, can enhance law enforcement's ability to identify and dismantle organized criminal groups. By processing intercepted communications, ROXANNE has shown how it is possible to connect suspected individuals, revealing links, hierarchies, and internal dynamics often very difficult to uncover with traditional methods. In this way, it has been possible to provide more solid evidence to the competent authorities, improving the quality and effectiveness of investigations. Another piece of this mosaic is represented by the TRACE project, which specifically aims to combat human trafficking using machine learning algorithms capable of detecting online recruitment patterns and mapping routes used by traffickers. This approach makes it possible to systematically analyze communications and movements, revealing networks of accomplices and geographical trafficking routes that, once identified, can be disrupted and dismantled. Understanding these dynamics has provided an important practical tool for helping investigators intervene promptly and effectively, protecting vulnerable individuals and discouraging the proliferation of such crimes. Equally relevant has been the experience gained with the INSPECTr project. Here, the focus has been on creating a common technological infrastructure, a sort of shared intelligence platform that, leveraging big data analysis, machine learning, and blockchain technology, has facilitated the circulation of digital and forensic information across different jurisdictions. INSPECTr has enabled faster and smarter management of investigations into complex crimes, reducing costs and overcoming obstacles related to fragmented databases or heterogeneous procedures. This greater fluidity in information exchange and operational coordination has strengthened cross-border collaboration, raising the level of trust among the parties involved and significantly improving the effectiveness of the international response to rapidly evolving criminal threats. A different but equally crucial approach to legal cooperation has been implemented by the AVIDICUS project, which investigated the use of video-mediated interpretation in international criminal proceedings. Divided into three phases, this journey allowed for the observation of the impact of videoconferencing and remote interpretation on the quality of communication between judges, lawyers, defendants, witnesses, and interpreters. From improving mutual understanding to providing specific training for the professionals involved, AVIDICUS has shown how communication technologies can contribute to a more efficient and inclusive judicial system, reducing linguistic and cultural barriers that previously slowed or compromised the fairness of trials. Harmonizing procedures and easier access to interpretation services have also facilitated information sharing, enhancing cooperation between states and promoting effective administration of justice. Overall, the combination of these projects highlights an integrated vision of international legal cooperation, where cutting-edge technologies, data analysis, mediated interpretation, artificial intelligence, and blockchain come together to make crime control more timely, coordinated, and incisive. The common goal is to establish a collaborative ecosystem where regulatory, linguistic, or organizational differences no longer constitute insurmountable obstacles but rather challenges to be overcome through knowledge sharing, technological innovation, and building mutual trust. These initiatives demonstrate the international community's commitment to ensuring a future where legal cooperation can constantly adapt to the changing nature of crime, protecting citizens, fundamental values, and the stability of societies in the long term. Regional and National Regulatory Initiatives In recent years, at regional and national levels, there has been an intensification of efforts to integrate international ethical recommendations and principles into strategies for adopting artificial intelligence. In particular, Latin America and the Caribbean are progressively incorporating these guidelines, with numerous countries developing their own national strategies to promote the responsible use of AI technologies in various economic and social sectors. Argentina, Brazil, Chile, Colombia, Mexico, Peru, and Uruguay, for example, have already defined or are defining policy guidelines reflecting the awareness of the need to balance innovation opportunities with safeguarding human rights, protecting democracy, ensuring process transparency, and equitable access to the benefits of AI. Costa Rica, through its Ministry of Science, Innovation, Technology, and Telecommunications (MICITT), has made public the 2024-2027 National AI Strategy, indicating that alongside technological progress, maintaining fundamental values such as inclusion, responsibility, and sustainability is essential. These initiatives are not limited to mechanically replicating recommendations from entities such as the OECD and UNESCO but tend to root them in local dynamics and priorities. The search for a balance between economic needs, infrastructure availability, trained human capital, and attention to digital rights has led, for instance, to the creation of the Latin American Artificial Intelligence Index (ILAI), developed by the Economic Commission for Latin America and the Caribbean (ECLAC) in collaboration with Chile's National Center for Artificial Intelligence (CENAI) and supported by the Inter-American Development Bank (IDB). This assessment tool not only highlights the capacity of individual countries to adopt and integrate AI technologies but also provides a comparative framework on the quality of introduced policies and resources. The ILAI results indicate that Chile, Brazil, and Uruguay stand out in terms of investments in research, training, and innovation, positioning themselves as regional models in creating more mature and aware technological ecosystems. Despite progress, there are still areas where regulations and strategies appear less developed, particularly in the justice sector. Employing AI systems in the judicial context could offer significant advantages in terms of efficiency and workflow management but raises critical issues related to protecting individual rights, fairness in automated decisions, algorithm transparency, and the accountability of involved actors. So far, only a limited number of countries have begun developing dedicated AI strategies in the justice sector, and the guidelines developed by CEPEJ and UNESCO, as well as the experiences of other countries, serve as essential reference points to avoid automation introducing new forms of discrimination or undermining trust in legal systems. The regulation of AI has become particularly prominent in the European Union, where the Artificial Intelligence Regulation (REAI) approved in 2024 establishes a regulatory framework identifying different risk levels associated with AI technology use, imposing stringent obligations in critical sectors and banning certain applications deemed incompatible with the EU's fundamental values. This approach is based on preventing potential abuses, such as prohibiting certain remote biometric identification systems in public spaces, and strengthening provider accountability, requiring them to meet specific requirements before bringing their systems to market. Alongside the REAI, the Council of Europe's Framework Convention on AI, open for signature also in 2024, adds another layer to protecting human rights, democracy, and the rule of law in the digital age. This binding international treaty emphasizes the importance of adopting legislative, policy, and supervisory measures to ensure the use of AI aligns with the highest standards of transparency, safety, and accountability, calling on states for continuous cooperation in harmonizing national policies. Overall, the regional and national landscape reveals a complexity where countries with varying development levels, political priorities, and financial resources are trying to build a regulatory framework consistent with international principles and ethical recommendations. On the one hand, integrated strategies connecting key economic sectors, training pathways, technological infrastructures, and governance choices are maturing; on the other hand, there remains a pressing need to strengthen regulation in specific areas such as justice and the protection of vulnerable individuals, as well as to consolidate cooperation among states and international organizations. The outcome of these intersecting efforts should be greater confidence in humanity's ability to govern and leverage artificial intelligence so that technology, rather than undermining rights and values, transparently and responsibly contributes to economic growth, social progress, and sustainable development. Ethical Challenges and Human Rights The use of AI-based tools in justice and security activities raises numerous ethical questions. Among the main risks are algorithmic biases, which can lead to significant discrimination. For example, facial recognition systems often make errors in identifying individuals belonging to ethnic minorities, risking the impartiality of investigations. A study conducted by the AI Now Institute found that women of color have significantly higher error rates compared to Caucasian men, thus increasing the danger of injustices and discrimination. To address these issues, the European Union has issued Recommendation CM/Rec(2020)1, prescribing periodic assessments of the impact that AI systems used in criminal investigations have on human rights and privacy. Moreover, using AI for predictive surveillance raises concerns about citizens' privacy and potential violations of fundamental human rights. Predictive surveillance tools could lead to mass profiling of individuals, where people from certain social or demographic categories are identified as potential threats without concrete evidence. Colombia's Constitutional Court recently issued an opinion on using generative AI tools, such as ChatGPT, in judicial decisions, warning about risks to citizens' fundamental rights and emphasizing the importance of ensuring the final decision remains in the hands of human judges. Additionally, adopting AI in justice without adequate training for judicial personnel could amplify risks of bias and incorrect decisions. For this reason, various international organizations, such as UNESCO and the OECD, are promoting training programs to ensure judicial personnel have the necessary skills to understand and responsibly use AI technologies. For example, the fAIr LAC+ program by the Inter-American Development Bank offers ethical guidelines and tools to evaluate AI use in the public sector, specifically targeting contexts in Latin America and the Caribbean. Another issue is the lack of representation of women in AI algorithm development. According to a UNESCO study, only 22% of AI professionals are women, which can lead to a lack of gender perspectives in technology development. This imbalance not only perpetuates existing biases but also limits the ability to create inclusive solutions that protect all sectors of society. UNESCO has launched initiatives like the Global AI Ethics and Governance Observatory to monitor the adoption of ethical guidelines and promote gender equality in AI technology development. In conclusion, addressing the ethical challenges and human rights issues posed by AI adoption in justice and security requires a multilateral commitment. AI technologies can offer powerful tools for crime prevention and control, but their implementation must be accompanied by strict regulation, adequate training, and oversight mechanisms to ensure fair and responsible use. Without these measures, there is a risk that AI technologies will reinforce inequalities and perpetuate injustices rather than contribute to a safer and fairer society. Conclusions The use of artificial intelligence by organized crime represents a dark reflection of our technological aspirations, revealing one of the most profound dichotomies of innovation: the ability to amplify both human progress and its deviations. The real question is not so much how to limit the illicit uses of AI but rather understanding why systemic, cultural, and institutional vulnerabilities in our society continue to create fertile ground for such abuses. This analysis prompts a strategic reflection on governance, political priorities, and dominant economic models, urging businesses and institutions to rethink their roles in a complex and interconnected global scenario. The increasing use of AI for illicit activities such as drug trafficking, human trafficking, and financial fraud cannot be viewed solely as a "technological problem" to be solved with more security tools. It is rather an inevitable consequence of a development model that prioritizes innovation speed over ethical and social sustainability. The democratization of access to AI technologies, while positive in many respects, is breaking down technical barriers that once limited the adoption of sophisticated tools by criminals. However, the deeper issue lies in the structural gap between the pace of technological innovation and the normative and institutional capacity to regulate it in real-time. The response strategy must go beyond implementing counter technologies such as facial recognition or predictive analysis and address a systemic revision of root causes. This includes institutional fragility in some regions, disparities in access to educational resources, and the inability to build resilient governance infrastructures. Organized crime exploits these weaknesses not only to adopt AI but to fill the voids left by inefficient or corrupt state institutions, strengthening its social and economic control. An often-overlooked element is the private sector's role as a crucial actor in preventing abuses related to AI. Technology companies, traditionally seen as solution providers, are also the primary producers of technologies that end up being used illicitly. The urgency to monetize innovations often leads to relaxed safety standards, creating products that, while market-accessible, lack adequate safeguards against misuse. This raises an ethical dilemma for companies: to what extent are they willing to sacrifice economic growth to ensure greater social security? It is here that the concept of "shared accountability" should be redefined, requiring companies to take direct responsibility not only for the legitimate use of their technologies but also for the side effects of their applications. The emergence of technologies like deepfakes and autonomous drones introduces another dimension of risk: AI's ability to undermine the very fabric of social trust. When the line between reality and fiction dissolves, the foundations that sustain cooperation and respect for the law begin to erode. This effect is not limited to those who directly suffer fraud or attacks but has deeper implications for the stability of financial markets, trust in public institutions, and the collective sense of security. In this scenario, companies are called to reflect on their role as guarantors of public trust, adopting stricter ethical principles in innovation processes. Another key point is the paradox of predictive surveillance, which promises to prevent crime but risks fueling inequalities and discrimination. The adoption of predictive tools based on historical data can perpetuate existing biases, worsening the marginalization of already vulnerable communities. This raises a fundamental question: who has the right to define what constitutes "normality" or "deviation" in the context of security? Companies, particularly those operating in the technology sector, must consider their contribution to perpetuating these biases and develop algorithms that reflect authentic diversity rather than perpetuating exclusion models. Finally, adopting AI in crime control should not become a technological arms race between criminals and institutions but rather an opportunity to rethink the foundations of the global security system. In a world where digital technologies know no borders, security must be redefined as a global public good, requiring deeper and more structured international cooperation. In this sense, businesses play an essential role in facilitating dialogue between governments, civil society, and academic institutions, contributing to the construction of an ethical and regulatory framework that is not merely reactive but proactive and long-term-oriented. Artificial intelligence, therefore, is not just a tool but a mirror reflecting the priorities and fragilities of our societies. The way we choose to address its adoption by organized crime will not only determine the future of security but also shape our relationship with innovation, justice, and ethics.   Podcast: https://spotifycreators-web.app.link/e/BWYcyiIk8Ob Source: https://elpaccto.eu/en/

  • Criminalità organizzata e intelligenza artificiale

    L'intelligenza artificiale (AI) sta rapidamente trasformando molti aspetti della nostra società, ma il suo impatto non è sempre positivo. Uno degli ambiti in cui l'AI sta trovando utilizzi controversi è quello della criminalità organizzata. Un recente studio del programma EL PACCTO 2.0 ha evidenziato come l'adozione di tecnologie AI da parte di gruppi criminali sia già una realtà, soprattutto in America Latina, nei Caraibi e nell'Unione Europea. In questo articolo, esploreremo come l'AI viene sfruttata dalla criminalità organizzata, quali sono i principali crimini commessi con strumenti AI e come le istituzioni di giustizia e sicurezza stanno cercando di rispondere a queste sfide. Criminalità organizzata e intelligenza artificiale: un connubio pericoloso Criminalità organizzata e intelligenza artificiale hanno favorito un rafforzamento delle attività illecite come il traffico di esseri umani, il ransomware, le frodi bancarie e gli abusi sessuali. Un elemento particolarmente allarmante riguarda la semplicità con cui queste tecnologie possono essere utilizzate anche da individui con competenze tecniche limitate. Grazie all'automazione, è possibile ampliare il raggio d'azione delle operazioni criminali, riducendo al contempo le probabilità di essere individuati. Un esempio emblematico è l'utilizzo dei bot controllati dall'AI per lanciare attacchi su larga scala, come i Distributed Denial of Service (DDoS), o per distribuire malware. Recenti rapporti evidenziano che questi bot sono sempre più sofisticati e in grado di identificare e sfruttare le vulnerabilità in tempo reale, aumentando l'efficacia e riducendo i tempi necessari per portare a termine un attacco. Secondo il programma EL PACCTO, tra il 2021 e il 2023, si è registrato un aumento del 284% nei casi di furto d'identità in Sud Africa, facilitato dall'utilizzo di AI per creare identità false e frodi finanziarie. Questi numeri testimoniano come l'AI non solo incrementi l'efficacia delle azioni criminali, ma renda anche estremamente difficile il contrasto da parte delle autorità. In America Latina, i gruppi criminali hanno iniziato ad utilizzare droni controllati da AI per trasportare droga e per condurre attacchi fisici contro gruppi rivali o forze dell'ordine. Nel 2018, ad esempio, un attacco con droni è stato portato contro il Segretario della Sicurezza Pubblica dello Stato di Baja California in Messico. I droni, equipaggiati con dispositivi esplosivi, rappresentano una nuova minaccia che combina l'autonomia e la precisione delle tecnologie AI con l'efficacia di armi letali. Inoltre, questi dispositivi sono stati utilizzati per monitorare e sorvegliare le attività delle forze dell'ordine, complicando ulteriormente le operazioni delle autorità. L'AI viene anche utilizzata per identificare le vittime potenziali del traffico di esseri umani attraverso piattaforme digitali, come social media e siti di incontri. Questo consente ai criminali di targettizzare con precisione persone vulnerabili in situazioni di difficoltà economica o sociale. Un recente rapporto del programma EL PACCTO ha rilevato che il reclutamento online e l'uso di AI per manipolare le vittime è una pratica ormai consolidata nelle reti di traffico di esseri umani in Europa e America Latina. Le tecniche di machine learning vengono impiegate per analizzare i profili delle vittime e ottimizzare le tattiche di persuasione, aumentando il successo delle operazioni di reclutamento. Un altro aspetto preoccupante è l'uso delle tecnologie deepfake. Oltre a creare video e audio falsi per impersonare altre persone, queste tecnologie vengono sfruttate per truffe finanziarie sofisticate. Nel 2024, una truffa in Inghilterra ha visto l'utilizzo di deepfake per impersonare un direttore finanziario, convincendo un dipendente a trasferire oltre 25 milioni di dollari. In molti casi, i deepfake vengono utilizzati per falsificare identità e compiere truffe bancarie o altre attività fraudolente, rendendo sempre più difficile per le vittime distinguere tra realtà e finzione.   La risposta delle istituzioni di Giustizia e Sicurezza Le istituzioni di giustizia e sicurezza stanno cercando di rispondere alle sfide poste dall'uso criminale dell'AI adottando a loro volta tecnologie AI per la prevenzione e il contrasto dei crimini. Tra le applicazioni più comuni ci sono: Analisi predittiva e sorveglianza : L'AI viene utilizzata per analizzare grandi quantità di dati e prevedere dove potrebbero verificarsi crimini, consentendo alle forze dell'ordine di ottimizzare l'allocazione delle risorse. Un esempio significativo è l'utilizzo di algoritmi predittivi per identificare aree ad alto rischio e migliorare il pattugliamento. In Colombia, il progetto sviluppato in collaborazione con UNESCO ha permesso di migliorare la distribuzione delle risorse di polizia basandosi su dati di criminalità storici e in tempo reale. Tuttavia, l'utilizzo di tecnologie predittive solleva importanti questioni etiche e relative ai diritti umani, come la discriminazione e la sorveglianza eccessiva di comunità vulnerabili. Gestione dei casi giudiziari : In Europa, vari paesi hanno adottato sistemi basati sull'AI per gestire i casi giudiziari in modo più efficiente, automatizzando compiti ripetitivi e facilitando l'accesso alle informazioni legali. In Germania, il sistema OLGA (On-line-Strafverfahrensregister für Organisierte Kriminalität und Geldwäsche) consente di centralizzare e gestire i dati dei casi di criminalità organizzata, migliorando la condivisione delle informazioni e ottimizzando i tempi di risposta. Anche in America Latina, alcune giurisdizioni stanno cercando di digitalizzare e modernizzare le loro infrastrutture giudiziarie attraverso l'integrazione dell'AI, anche se l'implementazione è ostacolata da risorse limitate e infrastrutture fragili. Riconoscimento facciale : Le tecnologie di riconoscimento facciale basate sull'AI sono utilizzate per identificare sospetti o vittime, sebbene vi siano importanti questioni etiche legate alla privacy e alla possibilità di errori. In America Latina, i sistemi di riconoscimento facciale sono stati adottati in paesi come Brasile e Messico, dove vengono utilizzati per monitorare luoghi pubblici e garantire la sicurezza. Tuttavia, vi sono stati numerosi casi di uso improprio di queste tecnologie, come la sorveglianza non autorizzata di attivisti e giornalisti, sollevando preoccupazioni riguardo alla protezione dei diritti umani. Cooperazione internazionale e blockchain : Un altro elemento importante nella risposta alla criminalità organizzata è la cooperazione internazionale. Progetti come INSPECTr, finanziato dall'Unione Europea, utilizzano la tecnologia blockchain per garantire l'integrità delle prove raccolte e la tracciabilità dei dati tra le diverse giurisdizioni. Questa tecnologia aiuta a ridurre il rischio di manipolazione delle prove e facilita la condivisione sicura delle informazioni tra le autorità. Traduzione e interpretazione automatica : In un contesto di cooperazione internazionale, le barriere linguistiche rappresentano una sfida significativa. Progetti come MARCELL, all'interno del programma Connecting Europe Facility (CEF), mirano a migliorare la qualità delle traduzioni automatiche in contesti legali, permettendo una comunicazione più fluida durante i procedimenti transnazionali. Questo è particolarmente rilevante nei casi in cui la cooperazione tra diversi paesi è essenziale per combattere il crimine organizzato. Nonostante questi sforzi, rimangono numerose sfide legate all'utilizzo dell'AI nelle attività di giustizia e sicurezza. Una delle principali riguarda la protezione dei diritti umani e la gestione dei bias algoritmici che potrebbero portare a discriminazioni. La necessità di regolamentazioni rigorose per garantire un uso etico e responsabile di queste tecnologie è più che mai evidente, soprattutto nel contesto dell'introduzione di strumenti come il riconoscimento facciale e l'analisi predittiva, che possono avere un impatto diretto sulla vita dei cittadini. Raccomandazioni e linee guida di organizzazioni internazionali Negli ultimi anni si è registrato un crescente interesse verso lo sviluppo etico, responsabile ed equo delle tecnologie di intelligenza artificiale. In questo ambito, molte istituzioni internazionali hanno operato con impegno, contribuendo alla definizione di linee guida, principi e raccomandazioni. Un riferimento significativo a livello europeo è rappresentato dalle "Linee Guida per l’AI Affidabile", pubblicate nel 2019 dall'High Level Expert Group on Artificial Intelligence (HLEG), un gruppo di esperti istituito dalla Commissione Europea con l'obiettivo di delineare una visione condivisa che assicuri il rispetto dei diritti umani, dei valori democratici e dei principi etici profondamente radicati. Le linee guida hanno evidenziato l’importanza di una robustezza tecnica capace di minimizzare rischi e vulnerabilità, la centralità della sicurezza nello sviluppo tecnologico e la trasparenza, essenziale per consentire a utenti e regolatori di comprendere le logiche alla base dei processi decisionali automatizzati. Inoltre, è stata messa in luce la responsabilità di ogni soggetto coinvolto nel ciclo di vita dei sistemi di intelligenza artificiale e l’esigenza di prevenire qualsiasi forma di discriminazione, per evitare che la tecnologia diventi strumento di ingiustizia o disuguaglianza. L’attenzione verso il tema si è estesa ben oltre l’Unione Europea, toccando le Nazioni Unite e i loro organi decisionali. Nel 2024, l’Assemblea Generale delle Nazioni Unite ha adottato una Risoluzione Generale (78/L.49) che, rimarcando la centralità dei diritti umani, invita gli Stati membri a non utilizzare l’AI in modo contrario al diritto internazionale, impegnandoli a prevenire scenari in cui queste tecnologie possano essere sfruttate per attività lesive delle libertà fondamentali o per colpire categorie di persone già vulnerabili. Il documento pone le basi per una cooperazione internazionale che miri alla protezione dei diritti in ogni fase della progettazione, sviluppo, distribuzione e utilizzo dei sistemi automatizzati, ispirando politiche nazionali che non trascurino, nemmeno per un istante, la dimensione etica della tecnologia. Un ulteriore strumento messo a disposizione della comunità internazionale è rappresentato dal Toolkit per l’Intelligenza Artificiale Responsabile destinato alle forze dell’ordine, realizzato dall’Istituto Interregionale delle Nazioni Unite per la Ricerca sul Crimine e la Giustizia (UNICRI) e da INTERPOL, con il sostegno dell’Unione Europea. Questo Toolkit offre una guida pratica per orientare le agenzie di sicurezza nella comprensione e nell’impiego di sistemi di AI, fornendo indicazioni su come utilizzare la tecnologia in modo coerente con i diritti umani, i principi etici e i valori fondamentali su cui si basano le società contemporanee. Attraverso questa iniziativa, le forze di polizia e le istituzioni giudiziarie di diversi paesi possono acquisire conoscenze teoriche e operative, adottare procedure trasparenti, valutare l’impatto delle tecnologie sul terreno e rendere più efficaci le attività di prevenzione e contrasto del crimine, senza però venir meno ai principi di responsabilità e legittimità. L’Organizzazione delle Nazioni Unite per l’Educazione, la Scienza e la Cultura (UNESCO) ha svolto un ruolo cruciale in questo sforzo globale attraverso la creazione di un Osservatorio Globale per la Governance e l’Etica dell’AI, concepito come uno strumento di monitoraggio permanente sulle pratiche etiche adottate in diversi contesti nazionali. Oltre a fornire linee guida per valutare l’impatto delle tecnologie AI, l’UNESCO ha promosso la diffusione di buone pratiche e dato vita a strutture come il Laboratorio per l’Etica e la Governance dell’AI, pensato per raccogliere conoscenze, esperienze, studi e ricerche, così da favorire una costante evoluzione delle normative e dei meccanismi di supervisione. Già nel 2021 l’UNESCO aveva pubblicato la “Raccomandazione sull’Etica dell’Intelligenza Artificiale”, un documento fondamentale che sintetizza valori e principi utili a orientare i governi e i decisori politici nella creazione di quadri normativi capaci di coniugare l’innovazione tecnologica con il rispetto della dignità umana, della diversità culturale e della tutela ambientale. Un altro organismo di primo piano è l’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE), che ha delineato una raccomandazione specifica sull’AI, promuovendo la visione di un uso della tecnologia in linea con i principi democratici, la protezione dei diritti umani e la necessità di mantenere il controllo umano laddove i sistemi automatizzati possano manifestare comportamenti non desiderati. L’OCSE ha aggiornato le proprie linee guida nel 2024, ampliando la definizione di “sistema di AI” e affrontando in modo più specifico le problematiche legate alla sicurezza, in modo che l’intervento umano continui a essere possibile e sicuro anche in scenari di emergenza, prevenendo potenziali abusi o malfunzionamenti. Nel complesso, il quadro che emerge dal lavoro di organizzazioni internazionali, agenzie specializzate e progetti finanziati su scala globale è quello di un ecosistema in costante evoluzione, teso alla creazione di standard condivisi per la governance, la regolamentazione e l’etica dell’intelligenza artificiale. Un ecosistema che, pur riconoscendo le potenzialità innovative di queste tecnologie, cerca di mantenerne il controllo umano, di vincolarle a precisi principi etici e di collocarle all’interno di una prospettiva sostenibile, inclusiva e attenta alle dimensioni sociali, ambientali ed economiche. Si tratta di un processo in corso, un lavoro collettivo che coinvolge governi, istituzioni sovranazionali, esperti, comunità scientifiche, società civile e settore privato, e che mira ad assicurare che l’intelligenza artificiale diventi una risorsa a beneficio dell’umanità, costantemente orientata al rispetto dei diritti, delle libertà, della sicurezza e del bene comune.   Cooperazione giuridica internazionale Negli ultimi anni, la cooperazione giuridica internazionale ha acquisito un ruolo di crescente rilevanza nel contrasto alla criminalità transnazionale, spingendo l’Unione Europea e i suoi partner a finanziare e promuovere progetti innovativi per sostenere agenzie di sicurezza, forze dell’ordine e istituzioni giudiziarie. Progetti come EXCAPE hanno inaugurato una nuova generazione di strumenti basati sull’intelligenza artificiale e sull’analisi avanzata dei dati, finalizzati a identificare e prevedere le dinamiche della criminalità organizzata su scala globale. Attraverso l’integrazione di fonti informative diversificate, che spaziano dai social network ai registri finanziari e criminali, EXCAPE mira a fornire una visione completa delle attività illecite, favorendo un coordinamento più efficace tra le varie giurisdizioni e accelerando gli interventi contro fenomeni particolarmente complessi e articolati. In parallelo, il progetto ROXANNE ha illustrato come il riconoscimento vocale, unito a sofisticate tecniche di analisi delle reti sociali, possa potenziare la capacità delle forze dell’ordine di identificare e disarticolare gruppi criminali organizzati. Attraverso l’elaborazione di comunicazioni intercettate, ROXANNE ha mostrato come sia possibile collegare tra loro individui sospettati, svelando legami, gerarchie e dinamiche interne spesso molto difficili da far emergere con i metodi tradizionali. In tal modo, è stato possibile fornire prove più solide alle autorità competenti, migliorando la qualità e l’efficacia delle indagini. Un ulteriore tassello di questo mosaico è rappresentato dal progetto TRACE, che punta specificamente a contrastare il traffico di esseri umani grazie all’impiego di algoritmi di apprendimento automatico in grado di rilevare pattern di reclutamento online e mappare le rotte utilizzate dai trafficanti. Questo approccio rende possibile analizzare comunicazioni e movimenti in modo sistematico, facendo emergere reti di complici e percorsi geografici della tratta che, una volta identificati, possono essere ostacolati e smantellati. La comprensione di queste dinamiche ha offerto un importante strumento pratico per aiutare gli inquirenti a intervenire in maniera tempestiva e mirata, proteggendo individui vulnerabili e scoraggiando la proliferazione di tali crimini. Altrettanto rilevante è stata l’esperienza maturata con il progetto INSPECTr. Qui, l’attenzione si è concentrata sulla creazione di un’infrastruttura tecnologica comune, una sorta di piattaforma di intelligence condivisa che, sfruttando l’analisi di big data, il machine learning e la tecnologia blockchain, ha facilitato la circolazione di informazioni digitali e forensi fra diverse giurisdizioni. INSPECTr ha infatti consentito una gestione più rapida e intelligente delle indagini su crimini complessi, riducendo i costi e superando ostacoli legati alla frammentazione delle banche dati o all’eterogeneità delle procedure. Questa maggiore fluidità nello scambio di informazioni e nel coordinamento operativo ha rafforzato la collaborazione transfrontaliera, innalzando il livello di fiducia tra le parti coinvolte e migliorando sensibilmente l’efficacia della risposta internazionale a minacce criminali in rapida evoluzione. Un approccio diverso ma altrettanto cruciale per la cooperazione giuridica è stato implementato dal progetto AVIDICUS, che ha indagato l’utilizzo dell’interpretazione video-mediata nei procedimenti penali internazionali. Suddiviso in tre fasi, questo percorso ha consentito di osservare l’impatto della videoconferenza e dell’interpretazione a distanza sulla qualità delle comunicazioni tra giudici, avvocati, imputati, testimoni e interpreti. Dal miglioramento della comprensione reciproca alla fornitura di formazione specifica per i professionisti coinvolti, AVIDICUS ha mostrato come le tecnologie di comunicazione possano contribuire a un sistema giudiziario più efficiente e inclusivo, riducendo le barriere linguistiche e culturali che in passato rallentavano o compromettevano l’equità dei processi. L’armonizzazione delle procedure e l’accesso più agevole ai servizi di interpretariato hanno inoltre agevolato la condivisione di informazioni, potenziando la cooperazione tra gli Stati e favorendo un’efficace amministrazione della giustizia. Nel complesso, l’insieme di questi progetti mette in luce una visione integrata della cooperazione giuridica internazionale, in cui tecnologie all’avanguardia, analisi dei dati, interpretazione mediata, intelligenza artificiale e blockchain si combinano per rendere il contrasto al crimine più tempestivo, coordinato e incisivo. L’obiettivo comune è instaurare un ecosistema di collaborazione in cui le differenze normative, linguistiche o organizzative non costituiscano più un ostacolo insormontabile, bensì una sfida da superare attraverso la condivisione di conoscenze, l’innovazione tecnologica e la costruzione di fiducia reciproca. Queste iniziative testimoniano l’impegno profuso a livello internazionale per garantire un futuro in cui la cooperazione giuridica sia in grado di adeguarsi costantemente alla natura mutevole della criminalità, proteggendo i cittadini, i valori fondamentali e la stabilità delle società nel lungo periodo.   Iniziative regolamentari regionali e nazionali Negli ultimi anni, a livello regionale e nazionale, si è osservata un’intensificazione degli sforzi volti a integrare le raccomandazioni e i principi etici internazionali all’interno delle strategie per l’adozione dell’intelligenza artificiale. In particolare, l’America Latina e i Caraibi stanno progressivamente incorporando questi orientamenti, con numerosi paesi impegnati nello sviluppo di proprie strategie nazionali volte a favorire l’uso responsabile di tecnologie AI in diversi settori economici e sociali. Argentina, Brasile, Cile, Colombia, Messico, Perù e Uruguay, ad esempio, hanno già definito o stanno definendo linee guida politiche che riflettono la consapevolezza della necessità di bilanciare opportunità d’innovazione con la salvaguardia dei diritti umani, la tutela della democrazia, la trasparenza dei processi e l’accesso equo ai benefici dell’AI. Il Costa Rica, attraverso il suo Ministero della Scienza, Innovazione, Tecnologia e Telecomunicazioni (MICITT), ha reso pubblica la Strategia Nazionale sull’Intelligenza Artificiale 2024-2027, indicando come, oltre al progresso tecnologico, sia essenziale mantenere saldo il rispetto di valori fondamentali come l’inclusione, la responsabilità e la sostenibilità. Queste iniziative non si limitano a ricalcare meccanicamente le raccomandazioni provenienti da enti quali OCSE e UNESCO, ma tendono a radicarle nelle dinamiche e nelle priorità locali. La ricerca di un equilibrio tra esigenze economiche, disponibilità infrastrutturale, capitale umano formato e attenzione ai diritti digitali ha portato, ad esempio, alla creazione dell’Indice Latino-americano sull’Intelligenza Artificiale (ILAI), sviluppato dalla Commissione Economica per l’America Latina e i Caraibi (CEPAL) in collaborazione con il Centro Nazionale di Intelligenza Artificiale del Cile (CENAI) e con il sostegno della Banca Interamericana di Sviluppo (IDB). Questo strumento di valutazione non solo evidenzia la capacità dei singoli paesi di adottare e integrare tecnologie AI, ma offre anche un quadro comparativo sulla qualità delle politiche e delle risorse introdotte. I risultati dell’ILAI indicano che Cile, Brasile e Uruguay si distinguono in termini di investimenti in ricerca, formazione e innovazione, proponendosi come modelli regionali nella creazione di ecosistemi tecnologici più maturi e consapevoli. Nonostante i progressi, emergono ancora aree in cui le normative e le strategie appaiono meno sviluppate, specialmente nel settore della giustizia. L’impiego di sistemi AI nel contesto giudiziario potrebbe infatti offrire notevoli vantaggi in termini di efficienza e gestione dei flussi di lavoro, ma solleva questioni critiche relative alla protezione dei diritti individuali, all’equità delle decisioni automatizzate, alla trasparenza degli algoritmi e alla responsabilità degli attori coinvolti. Finora, soltanto un numero limitato di paesi ha iniziato a elaborare strategie dedicate all’AI nel settore della giustizia, e le linee guida elaborate dalla CEPEJ e dall’UNESCO, così come le esperienze di altri paesi, rappresentano punti di riferimento essenziali per evitare che l’automazione introduca nuove forme di discriminazione o comprometta la fiducia nei sistemi legali. La questione della regolamentazione dell’AI è diventata particolarmente viva nell’Unione Europea, dove il Regolamento sull’Intelligenza Artificiale (REAI) approvato nel 2024 stabilisce un quadro normativo che individua diversi livelli di rischio associati all’uso delle tecnologie AI, imponendo obblighi stringenti in settori critici e vietando talune applicazioni considerate incompatibili con i valori fondamentali dell’UE. Questo approccio si fonda sulla prevenzione di eventuali abusi, ad esempio vietando alcuni sistemi di identificazione biometrica remota in spazi pubblici, e sul rafforzamento della responsabilità dei fornitori, imponendo loro di rispettare determinati requisiti prima di immettere i propri sistemi sul mercato. Parallelamente al REAI, la Convenzione Quadro del Consiglio d’Europa sull’AI, aperta alla firma sempre nel 2024, aggiunge un ulteriore tassello alla protezione dei diritti umani, della democrazia e dello stato di diritto nell’era digitale. Questo trattato internazionale vincolante sottolinea l’importanza di adottare misure legislative, politiche e di supervisione in grado di rendere l’uso dell’AI compatibile con gli standard più elevati di trasparenza, sicurezza e responsabilità, richiamando gli Stati a un costante sforzo di cooperazione nell’armonizzazione delle politiche nazionali. Nel complesso, il panorama regionale e nazionale mostra una complessità in cui paesi con diversi livelli di sviluppo, diverse priorità politiche e differenti risorse finanziarie stanno cercando di costruire un framework normativo coerente con i principi internazionali e con le raccomandazioni etiche. Da un lato, si assiste alla maturazione di strategie integrate, che collegano settori economici chiave, percorsi di formazione, infrastrutture tecnologiche e scelte di governance; dall’altro, rimane viva la necessità di rinforzare la regolamentazione in ambiti specifici come la giustizia e la protezione di soggetti vulnerabili, nonché di consolidare la cooperazione tra Stati e organizzazioni internazionali. Il risultato di questi sforzi incrociati dovrebbe essere una maggiore fiducia nella capacità dell’umanità di governare e sfruttare l’intelligenza artificiale in modo che la tecnologia, anziché sovvertire diritti e valori, contribuisca in modo trasparente e responsabile alla crescita economica, al progresso sociale e allo sviluppo sostenibile.   Sfide etiche e di diritti umani L'uso di strumenti basati sull'intelligenza artificiale nelle attività di giustizia e sicurezza pone numerosi interrogativi di natura etica. Tra i rischi principali si evidenziano i pregiudizi algoritmici, che possono determinare discriminazioni significative. Ad esempio, i sistemi di riconoscimento facciale tendono spesso a commettere errori nell'identificazione di individui appartenenti a minoranze etniche, mettendo a rischio l'imparzialità delle indagini. Uno studio condotto dall'AI Now Institute ha rilevato che le donne di colore presentano tassi di errore significativamente superiori rispetto agli uomini caucasici, aumentando così il pericolo di ingiustizie e discriminazioni. Per affrontare questi problemi, l'Unione Europea ha emanato la Raccomandazione CM/Rec(2020)1, che prescrive valutazioni periodiche sull'impatto che i sistemi di intelligenza artificiale utilizzati nelle indagini penali hanno sui diritti umani e sulla privacy. Inoltre, l'utilizzo dell'AI per la sorveglianza predittiva solleva preoccupazioni riguardo la privacy dei cittadini e la possibile violazione dei diritti umani fondamentali. L'uso di strumenti di sorveglianza predittiva potrebbe portare a una "profilazione di massa" delle persone, in cui individui appartenenti a determinate categorie sociali o demografiche vengano identificati come potenziali minacce senza alcuna prova concreta. La Corte costituzionale della Colombia ha recentemente emesso un parere sull'uso di strumenti generativi di AI, come ChatGPT, nelle decisioni giudiziarie, avvertendo sui rischi per i diritti fondamentali dei cittadini e sull'importanza di garantire che la decisione finale rimanga nelle mani dei giudici umani. Inoltre, l'adozione di AI nel campo della giustizia senza un'adeguata formazione del personale giudiziario potrebbe amplificare i rischi di bias e decisioni scorrette. Per questo motivo, varie organizzazioni internazionali, come UNESCO e OECD, stanno promuovendo programmi di formazione per garantire che il personale giudiziario abbia le competenze necessarie per comprendere e utilizzare in modo responsabile le tecnologie AI. Ad esempio, il programma fAIr LAC+ dell'Inter-American Development Bank offre linee guida etiche e strumenti per valutare l'uso delle AI nel settore pubblico, mirate specificamente ai contesti dell'America Latina e dei Caraibi. Un altro problema è la scarsità di rappresentanza delle donne nello sviluppo di algoritmi AI. Secondo uno studio dell'UNESCO, solo il 22% dei professionisti dell'AI sono donne, il che può portare a una scarsa considerazione delle prospettive di genere nello sviluppo delle tecnologie. Questo squilibrio non solo contribuisce a perpetuare bias esistenti, ma limita anche la capacità di creare soluzioni inclusive che proteggano tutti i settori della società. L'UNESCO ha lanciato iniziative come il Global AI Ethics and Governance Observatory per monitorare l'adozione di linee guida etiche e promuovere la parità di genere nello sviluppo delle tecnologie AI. In conclusione, affrontare le sfide etiche e di diritti umani poste dall'adozione dell'AI nel campo della giustizia e della sicurezza richiede un impegno multilaterale. Le tecnologie AI possono offrire strumenti potenti per la prevenzione e il contrasto della criminalità, ma la loro implementazione deve essere accompagnata da una regolamentazione rigorosa, formazione adeguata e meccanismi di controllo per garantire un uso equo e responsabile. Senza queste misure, il rischio è che le tecnologie AI finiscano per rafforzare disuguaglianze e perpetuare ingiustizie piuttosto che contribuire a una società più sicura ed equa.   Conclusioni L'utilizzo dell’intelligenza artificiale da parte della criminalità organizzata rappresenta uno specchio oscuro delle nostre aspirazioni tecnologiche, svelando una delle più profonde dicotomie dell’innovazione: la capacità di amplificare sia il progresso umano sia le sue devianze.  La vera questione non è tanto come limitare gli usi illeciti dell’AI, quanto piuttosto comprendere il perché le vulnerabilità sistemiche, culturali e istituzionali della nostra società continuino a creare terreno fertile per tali abusi.  Questa analisi porta a una riflessione strategica sulla governance, sulle priorità politiche e sui modelli economici dominanti, spingendo le imprese e le istituzioni a ripensare il proprio ruolo in uno scenario globale complesso e interconnesso. Il crescente utilizzo dell’AI per attività illecite come il traffico di droga, la tratta di esseri umani e le truffe finanziarie non può essere letto esclusivamente come un "problema tecnologico" da risolvere con maggiori strumenti di sicurezza.  È piuttosto una conseguenza inevitabile di un modello di sviluppo che privilegia la velocità di innovazione rispetto alla sostenibilità etica e sociale.  La democratizzazione dell’accesso alle tecnologie AI, pur positiva per molti versi, sta abbattendo le barriere tecniche che un tempo limitavano l’adozione di strumenti sofisticati da parte dei criminali. Ma la questione più profonda riguarda il divario strutturale tra il ritmo dell’innovazione tecnologica e la capacità normativa e istituzionale di regolarla in tempo reale. La strategia di risposta deve andare oltre l'implementazione di tecnologie di contrasto, come il riconoscimento facciale o l'analisi predittiva, e affrontare una revisione sistemica delle cause alla radice.  Ciò include la fragilità istituzionale in alcune regioni, la disparità nell'accesso a risorse educative e l'incapacità di costruire infrastrutture di governance resilienti. La criminalità organizzata sfrutta queste debolezze non solo per adottare l’AI, ma per inserirsi nei vuoti lasciati da istituzioni statali inefficienti o corrotte, rafforzando il proprio controllo sociale ed economico. Un elemento spesso trascurato è il ruolo del settore privato come attore cruciale nella prevenzione degli abusi legati all’AI.  Le imprese tecnologiche, tradizionalmente viste come fornitrici di soluzioni, sono anche le principali produttrici delle tecnologie che finiscono per essere utilizzate in modo illecito. L’urgenza di monetizzare le innovazioni spesso porta a un rilassamento degli standard di sicurezza, creando prodotti che, pur essendo accessibili sul mercato, mancano di meccanismi di protezione adeguati contro l’abuso. Questo solleva un dilemma etico per le aziende: fino a che punto sono disposte a sacrificare la crescita economica per garantire una maggiore sicurezza sociale? È qui che il concetto di "accountability condivisa" dovrebbe essere ridefinito, richiedendo alle imprese di assumersi una responsabilità diretta non solo per l’uso legittimo delle loro tecnologie, ma anche per gli effetti collaterali delle loro applicazioni. L’emergere di tecnologie come i deepfake e i droni autonomi introduce un'altra dimensione di rischio: la capacità dell’AI di minare il tessuto stesso della fiducia sociale.  Quando la linea tra realtà e finzione si dissolve, le basi che sostengono la cooperazione e il rispetto della legge iniziano a cedere. Questo effetto non si limita a colpire chi subisce direttamente frodi o attacchi, ma incide in modo più profondo sulla stabilità dei mercati finanziari, sulla fiducia nelle istituzioni pubbliche e sulla percezione collettiva di sicurezza. Di fronte a questo scenario, le imprese sono chiamate a riflettere sul proprio ruolo come garanti della fiducia pubblica, adottando principi etici più rigorosi nei processi di innovazione. Un altro punto chiave è il paradosso della sorveglianza predittiva, che promette di prevenire il crimine, ma rischia di alimentare disuguaglianze e discriminazioni.  L’adozione di strumenti predittivi basati su dati storici può perpetuare bias esistenti, aggravando la marginalizzazione di comunità già vulnerabili. Questo solleva una questione fondamentale: chi ha il diritto di definire cosa sia "normalità" o "devianza" nel contesto della sicurezza? Le imprese, in particolare quelle che operano nel settore tecnologico, devono considerare il loro contributo alla perpetuazione di questi bias e sviluppare algoritmi che riflettano una diversità autentica, piuttosto che perpetuare modelli di esclusione. Infine, l’adozione di AI nel contrasto alla criminalità non deve trasformarsi in una corsa agli armamenti tecnologici tra criminali e istituzioni, ma piuttosto in un’opportunità per ripensare i fondamenti del sistema di sicurezza globale.  In un mondo in cui le tecnologie digitali non conoscono confini, la sicurezza deve essere ridefinita come un bene pubblico globale, richiedendo una cooperazione internazionale più profonda e strutturata. In questo senso, le imprese hanno un ruolo essenziale nel facilitare un dialogo tra i governi, la società civile e le istituzioni accademiche, contribuendo alla costruzione di un framework etico e normativo che non sia semplicemente reattivo, ma proattivo e orientato al lungo termine. L'intelligenza artificiale, dunque, non è solo uno strumento, ma uno specchio che riflette le priorità e le fragilità delle nostre società.  Il modo in cui scegliamo di affrontare la sua adozione da parte della criminalità organizzata non determinerà solo il futuro della sicurezza, ma plasmerà anche il nostro rapporto con l’innovazione, la giustizia e l’etica. Podcast: https://spotifycreators-web.app.link/e/WUGYcG5i8Ob Fonte: https://elpaccto.eu/en/

  • Il Panorama della Cybersecurity nell'Unione Europea 2024

    Il 2024 si è rivelato un anno cruciale per la cybersecurity nell'Unione Europea, con l'Agenzia dell'Unione Europea per la Cybersecurity (ENISA) che ha pubblicato il primo rapporto sullo stato della sicurezza informatica nell'UE, elaborato in collaborazione con il Gruppo di Cooperazione NIS e la Commissione Europea. Questo documento rappresenta uno strumento fondamentale per comprendere il panorama attuale e per definire le strategie future in ambito di sicurezza informatica. Cybersecurity nell'Unione Europea in numeri Nel corso del 2024, l'Unione Europea ha registrato un significativo aumento delle minacce informatiche, dovuto all'accelerazione della digitalizzazione e all'incremento della connettività sociale ed economica. Il rapporto sottolinea un forte aumento degli attacchi ransomware e di tipo Denial-of-Service (DoS/DDoS), che insieme costituiscono oltre la metà degli incidenti osservati. Tra luglio 2023 e giugno 2024, si è registrato un picco di attacchi DDoS, con un massimo di 600 eventi mensili durante questo periodo Secondo i dati del rapporto ENISA, tra luglio 2023 e giugno 2024, il numero totale di incidenti di cybersecurity segnalati è aumentato del 24% rispetto all'anno precedente. Di questi, il 32% erano attacchi ransomware, mentre gli attacchi DoS/DDoS hanno rappresentato il 29%. Questo incremento è attribuito in parte al contesto geopolitico instabile, che ha portato a un maggiore utilizzo di attacchi da parte di gruppi di hacktivisti legati a conflitti internazionali, come quello in Ucraina e quello tra Israele e Palestina. Gli attacchi alla supply chain sono stati un'altra tendenza preoccupante, con il 14% degli incidenti che ha coinvolto direttamente fornitori digitali. In termini di settori colpiti, il rapporto evidenzia che il settore pubblico hanno subito il 19% degli attacchi totali, mentre il settore della sanità ha visto un incremento significativo, con il 15% degli attacchi rivolti verso ospedali e infrastrutture sanitarie. Questo aumento è stato attribuito alla vulnerabilità dei sistemi legacy e alla crescente dipendenza da dispositivi medici connessi. Anche il settore bancario e finanziario è stato preso di mira, rappresentando il 9% degli incidenti segnalati, principalmente attraverso attacchi ransomware volti a estorcere denaro o informazioni sensibili. Un altro dato significativo riguarda la durata media delle interruzioni causate da attacchi informatici. Nel 2024, la durata media delle interruzioni è aumentata a 17 ore, rispetto alle 12 ore dell'anno precedente. Questo aumento riflette la crescente sofisticazione degli attacchi e la difficoltà delle organizzazioni nel ripristinare rapidamente i propri sistemi. La risposta agli incidenti è stata spesso ostacolata dalla mancanza di personale qualificato e dalle carenze nei piani di risposta agli incidenti. Inoltre, il rapporto ENISA segnala che il 25% delle organizzazioni colpite da attacchi informatici ha subito una compromissione dei dati, con una significativa quantità di dati sensibili che è stata esfiltrata o distrutta. La maggior parte di questi attacchi è stata perpetrata utilizzando vulnerabilità note ma non risolte, il che mette in evidenza l'importanza della gestione delle vulnerabilità e degli aggiornamenti tempestivi dei sistemi. Il rapporto mostra inoltre che la maturità della cybersecurity tra i vari paesi dell'Unione presenta una notevole variabilità, con alcuni paesi che mostrano un'alta preparazione e altri che sono ancora in ritardo. Livello di maturità e capacità cybersecurity L'analisi del livello di maturità delle capacità di cybersecurity a livello dell'Unione mostra una valutazione complessiva di 62,65 su 100. Questo valore indica una discreta convergenza tra gli Stati Membri, ma con notevoli differenze nei settori legati all'attuazione delle politiche di disclosure delle vulnerabilità e delle misure di sorveglianza. Secondo il rapporto ENISA, esistono alcune aree con punteggi di maturità molto alti, come la gestione delle minacce e la capacità di rilevamento degli incidenti. Tuttavia, altri settori mostrano notevoli lacune. Ad esempio, solo il 47% degli Stati Membri ha adottato un processo di disclosure coordinato delle vulnerabilità a livello nazionale, mentre il 55% è ancora nella fase di definizione. Questo indica che vi è una considerevole disparità nella capacità di gestire e divulgare le vulnerabilità tra i diversi Stati Membri. Inoltre, l'adozione di misure di sicurezza per la supply chain è ancora limitata. Solo il 37% degli Stati Membri ha adottato politiche di gestione della sicurezza della supply chain per le entità essenziali e importanti. Questo dato è particolarmente preoccupante alla luce dell'aumento degli attacchi alla supply chain che colpiscono fornitori critici di servizi digitali. Il rapporto sottolinea anche che il 52% delle entità critiche ha implementato una policy rigorosa di gestione delle vulnerabilità, ma il 13,5% di queste non ha alcuna visibilità sullo stato di patching dei propri asset informatici. Nel contesto del settore privato, i settori telecomunicazioni, energia e finanza sono considerati altamente maturi in termini di cybersecurity, mentre i settori della salute e del trasporto ferroviario, seppur critici, presentano livelli di maturità inferiori. La situazione è particolarmente problematica per il settore del petrolio, che si trova agli inizi del suo percorso di digitalizzazione e di maturità in termini di sicurezza informatica. Inoltre, il rapporto indica che la mancanza di competenze specifiche rappresenta una delle principali sfide per la maggior parte degli Stati Membri, con un divario crescente nella disponibilità di personale qualificato e nella capacità di rispondere agli incidenti.   Consapevolezza e capacità sociale Uno degli aspetti più preoccupanti emersi dal rapporto riguarda la consapevolezza informatica tra i cittadini dell'UE. Secondo i dati di Eurostat riportati nel rapporto ENISA, il 46% degli europei non possiede competenze digitali sufficienti, con una forte disparità tra le diverse fasce d'età. Solo il 35% dei cittadini di età compresa tra 55 e 74 anni possiede competenze digitali di base, rispetto al 70% dei giovani adulti. Inoltre, il divario digitale tra le aree urbane e quelle rurali è ancora significativo: il 61% degli abitanti delle aree urbane possiede competenze digitali di base, mentre nelle aree rurali questa percentuale scende al 46%. Nonostante il divario di genere nelle competenze digitali sia in diminuzione, esiste ancora una differenza del 3,4% tra uomini e donne. Un altro aspetto emerso riguarda la fiducia dei cittadini nella propria capacità di proteggersi dai rischi informatici, che è diminuita al 59% nel 2024 rispetto al 71% nel 2017. Questa diminuzione potrebbe riflettere una maggiore consapevolezza dei rischi informatici e della crescente complessità delle minacce. Inoltre, solo il 22% dei cittadini è consapevole dell'esistenza di un canale ufficiale per la segnalazione dei crimini informatici, un dato che sottolinea l'urgenza di migliorare la comunicazione e l'informazione a livello pubblico. Questi dati evidenziano la necessità di avviare iniziative mirate alla formazione e alla sensibilizzazione, coinvolgendo sia i giovani che le persone appartenenti alle fasce di età più avanzate. Particolare attenzione dovrebbe essere dedicata alle aree rurali, dove il divario digitale risulta maggiormente accentuato. Inoltre, l'offerta di programmi di istruzione superiore in ambito di cybersecurity presenta notevoli differenze tra gli Stati Membri, con alcuni Paesi caratterizzati da una varietà ampia di percorsi formativi, mentre altri registrano ancora un significativo ritardo in questo settore. Cybersecurity in Italia Il rapporto del 2024 dell'Agenzia dell'Unione Europea per la Sicurezza Informatica (ENISA) evidenzia alcune lacune significative nella preparazione alla cybersecurity in Italia, specialmente se confrontate con la media europea. La cybersecurity in Italia presenta alcune criticità a livello di capacità di risposta agli incidenti e di preparazione alle crisi. In particolare, un numero limitato di grandi aziende dispone di centri operativi di sicurezza (SOC), il che riflette una maturità inferiore rispetto ad altri Stati membri dell'UE. Anche la gestione del rischio legato alla catena di fornitura appare meno sviluppata in Italia, con una percentuale ridotta di aziende che implementano politiche efficaci per la gestione di questi rischi rispetto agli standard europei. Tra luglio 2023 e giugno 2024 sono stati registrati vari incidenti di cybersecurity significativi in Italia, principalmente attacchi di tipo ransomware e Denial of Service (DDoS). Questi attacchi hanno spesso preso di mira il settore pubblico e quello sanitario, due aree particolarmente vulnerabili. Tuttavia, le autorità pubbliche italiane non hanno ancora implementato in modo diffuso piani strutturati di risposta agli incidenti, dimostrando un livello di preparazione inferiore rispetto alla media dell'Unione Europea. Per quanto riguarda la gestione delle vulnerabilità, molte organizzazioni italiane non sono ancora pienamente in grado di coprire tutte le risorse critiche, né riescono ad applicare patch in modo tempestivo. La gestione dei rischi, soprattutto quella relativa a vulnerabilità note, rappresenta ancora un'area di miglioramento. Questi limiti sono particolarmente rilevanti per le organizzazioni con infrastrutture e sistemi operativi estesi, che incontrano difficoltà nel mantenere aggiornati e protetti tutti gli asset tecnologici. Anche la partecipazione delle organizzazioni italiane a esercitazioni di cybersecurity a livello nazionale o internazionale è inferiore rispetto alla media europea. Ciò implica una preparazione inadeguata per la gestione delle crisi, con poche organizzazioni che hanno testato regolarmente i propri piani di risposta attraverso simulazioni ed esercitazioni. Questo riduce la capacità di reazione di fronte a possibili attacchi e minacce su larga scala. Per quanto riguarda la formazione e le competenze, le grandi imprese italiane dimostrano una maggiore attenzione alla sicurezza informatica, investendo più frequentemente nella formazione dei dipendenti. Tuttavia, le piccole e medie imprese (PMI) sono meno propense a fornire formazione specifica sulla cybersecurity, segno di una maturità ancora limitata in questo settore. C'è una chiara difficoltà a reperire figure professionali con competenze in sicurezza informatica, e questo si riflette nella carenza di assunzioni recenti in tale ambito, contribuendo al persistente divario di competenze rispetto ai bisogni reali. Questa situazione evidenzia la necessità di migliorare le infrastrutture di sicurezza, di aumentare la formazione del personale e di promuovere un coinvolgimento attivo nelle esercitazioni a livello europeo per aumentare la capacità di risposta e di adattamento alle minacce sempre più sofisticate.   Raccomandazioni e prospettive future Per affrontare le sfide emerse, il rapporto propone diverse raccomandazioni strategiche. Una delle principali riguarda il rafforzamento delle capacità di gestione delle crisi informatiche attraverso la revisione del Blueprint dell'UE per la risposta coordinata agli incidenti su larga scala. Inoltre, viene raccomandato di potenziare la formazione e il reskilling della forza lavoro europea nel settore della cybersecurity, con un'attenzione particolare alla riduzione del divario di competenze e all'inclusione di gruppi demografici sottorappresentati, come le donne e gli abitanti delle aree rurali. L'Unione Europea è chiamata anche a sviluppare una politica orizzontale avanzata per la sicurezza della supply chain, puntando su una valutazione coordinata del rischio e sulla promozione di iniziative di gestione delle vulnerabilità che coinvolgano sia il settore pubblico che quello privato. Il potenziamento delle capacità di condivisione delle informazioni tra Stati Membri e la creazione di meccanismi di allerta coordinati rappresentano altri punti chiave per garantire una resilienza informatica a livello europeo. Secondo il rapporto ENISA, è fondamentale garantire un supporto tecnico e finanziario alle autorità competenti nazionali e agli EUIBA (Enti, Uffici e Agenzie dell'UE) per assicurare una implementazione armonizzata, tempestiva e coerente del quadro normativo in continua evoluzione. Inoltre, la revisione del Blueprint europeo per le risposte agli incidenti su larga scala dovrebbe promuovere ulteriormente l'armonizzazione della cybersecurity a livello dell'UE e ottimizzare le capacità di risposta sia a livello nazionale che europeo. La Cybersecurity Skills Academy è uno dei pilastri principali per affrontare il divario di competenze nel settore, con l'obiettivo di creare un approccio coordinato a livello europeo per la formazione, la certificazione e la gestione delle competenze in cybersecurity. È necessario sviluppare programmi di formazione specifici che rispondano alle esigenze del mercato del lavoro e garantire la partecipazione di gruppi demografici sottorappresentati per colmare il divario di competenze e promuovere una forza lavoro inclusiva. Per migliorare la sicurezza della supply chain, il rapporto propone di intensificare le valutazioni dei rischi coordinati a livello europeo e di sviluppare un quadro politico avanzato che affronti le sfide specifiche legate alla cybersecurity sia nel settore pubblico che privato. L'adozione di politiche efficaci per la gestione delle vulnerabilità, una maggiore cooperazione tra gli Stati Membri e una migliore consapevolezza delle specificità settoriali sono tutte azioni ritenute essenziali per rafforzare la resilienza del sistema nel suo complesso.   Conclusioni Il rapporto ENISA 2024 offre uno spaccato complesso e articolato delle sfide che l'Unione Europea affronta nel panorama della cybersecurity, evidenziando non solo le minacce emergenti ma anche i significativi ritardi strutturali che limitano la resilienza complessiva degli Stati Membri. Questo quadro mette in evidenza una dinamica strategica cruciale:  la cybersecurity non è più soltanto una questione tecnica o di gestione del rischio aziendale, ma rappresenta una vera e propria infrastruttura di fiducia su cui si fonda l’intera economia digitale europea. Le disparità nella maturità delle capacità di cybersecurity tra gli Stati Membri evidenziano un pericolo strategico: un approccio disomogeneo rende l’UE nel suo complesso vulnerabile a minacce transnazionali che sfruttano gli anelli deboli della catena.  In un contesto interconnesso, il fallimento di un singolo Stato può avere effetti domino devastanti su settori critici come trasporti, energia e sanità , creando un contesto di insicurezza che mina la competitività dell’intero blocco. La sicurezza della supply chain, ad esempio, emerge come uno dei nodi più critici: l'insufficienza di politiche coordinate su scala europea è un limite che richiede un cambio di paradigma nella gestione delle interdipendenze digitali. Un aspetto chiave che spesso sfugge alla narrativa tradizionale è il ruolo della  geopolitica come amplificatore delle minacce informatiche . Gli attacchi cyber sponsorizzati da stati o da gruppi di hacktivisti legati a conflitti internazionali non sono solo strumenti di disgregazione locale, ma vere e proprie leve di destabilizzazione economica e sociale. Ciò sottolinea l’urgenza di integrare la sicurezza informatica nelle strategie di politica estera e di difesa comune europea. La cybersecurity diventa, quindi, un nuovo campo di sovranità condivisa, in cui  l’armonizzazione normativa e il rafforzamento delle capacità operative transfrontaliere non sono un’opzione ma una necessità. In Italia, il livello di maturità della cybersecurity inferiore alla media europea rappresenta un ulteriore campanello d’allarme, ma anche un’opportunità per ripensare il ruolo della sicurezza informatica come elemento strategico per lo sviluppo economico. L'elevata incidenza di attacchi su settori critici come sanità ed energia mette in luce una criticità sistemica:  il fallimento di adeguarsi alle nuove minacce non è solo una questione di protezione, ma rischia di bloccare il processo di innovazione e trasformazione digitale del Paese.  È evidente che l’Italia deve affrontare con maggiore determinazione la frammentazione delle competenze e la mancanza di una visione centralizzata per la gestione della crisi. La lentezza nell’adozione di processi di gestione delle vulnerabilità è un esempio emblematico di come le organizzazioni, sia pubbliche che private, spesso sottovalutino l’importanza della proattività rispetto alla reattività.  Investire nella formazione di competenze specifiche non è solo un fattore di mitigazione del rischio, ma un acceleratore per la crescita economica , capace di posizionare l’UE e i suoi Stati Membri come leader nel mercato globale delle tecnologie sicure. Tuttavia, questo richiede una visione politica che superi la logica del breve termine e riconosca il valore strategico delle risorse umane. Infine, un punto fondamentale che emerge dal rapporto riguarda la  consapevolezza digitale e la fiducia dei cittadini . La percezione del rischio cyber come un problema distante o esclusivamente tecnico è una delle più grandi debolezze della società europea. Cambiare questa mentalità attraverso strategie di comunicazione efficaci e programmi educativi capillari potrebbe generare un vantaggio competitivo inestimabile.  Un cittadino consapevole è un cittadino resiliente , capace non solo di difendersi dai rischi informatici, ma anche di contribuire attivamente a una cultura di sicurezza condivisa. In sintesi, la cybersecurity si pone oggi come il cuore della sovranità digitale europea. Non affrontare con determinazione le lacune strutturali e culturali emerse dal rapporto significherebbe non solo compromettere la resilienza interna, ma anche perdere un’opportunità unica per ridefinire il ruolo dell’UE come leader globale in un’epoca in cui la sicurezza digitale è sinonimo di progresso e stabilità.  L'Unione Europea deve agire con visione e coraggio, trasformando le vulnerabilità attuali in un progetto coeso e ambizioso di leadership cyber. Podcast: https://spotifycreators-web.app.link/e/jCYq677Q5Ob Fonte: https://www.enisa.europa.eu/publications/2024-report-on-the-state-of-the-cybersecurity-in-the-union

  • The Landscape of Cybersecurity in the European Union 2024

    The year 2024 has proven to be a crucial one for cybersecurity in the European Union, with the European Union Agency for Cybersecurity (ENISA) publishing its first report on the state of cybersecurity within the EU. This report, produced in collaboration with the NIS Cooperation Group and the European Commission, serves as an essential tool for understanding the current landscape and defining future strategies in cybersecurity. Cybersecurity in the European Union by the Numbers Throughout 2024, the European Union has seen a significant rise in cyber threats, driven by the acceleration of digitalization and increased social and economic connectivity. The report highlights a sharp increase in ransomware and Denial-of-Service (DoS/DDoS) attacks, which together account for over half of the incidents observed. Between July 2023 and June 2024, there was a peak in DDoS attacks, with a maximum of 600 events per month during this period. According to data from the ENISA report, between July 2023 and June 2024, the total number of reported cybersecurity incidents increased by 24% compared to the previous year. Of these, 32% were ransomware attacks, while DoS/DDoS attacks accounted for 29%. This increase is partly attributed to the unstable geopolitical climate, which has led to more attacks by hacktivist groups linked to international conflicts, such as the one in Ukraine and the conflict between Israel and Palestine. Supply chain attacks have also emerged as a concerning trend, with 14% of incidents involving digital suppliers directly. In terms of affected sectors, the report indicates that the public sector suffered 19% of the total attacks, while the healthcare sector saw a significant rise, with 15% of attacks targeting hospitals and healthcare infrastructure. This increase has been attributed to the vulnerability of legacy systems and the growing reliance on connected medical devices. The banking and financial sector was also targeted, accounting for 9% of reported incidents, mainly through ransomware attacks aimed at extorting money or sensitive information. Another significant data point concerns the average duration of disruptions caused by cyberattacks. In 2024, the average duration of disruptions rose to 17 hours, compared to 12 hours the previous year. This increase reflects the growing sophistication of attacks, and the difficulty organizations face in quickly restoring their systems. Incident response was often hindered by a lack of qualified personnel and deficiencies in incident response plans. Additionally, the ENISA report notes that 25% of organizations affected by cyberattacks suffered data compromise, with a substantial amount of sensitive data being exfiltrated or destroyed. Most of these attacks were carried out using known but unresolved vulnerabilities, highlighting the importance of vulnerability management and timely system updates. The report also shows that the maturity of cybersecurity across the various EU countries presents significant variability, with some countries demonstrating high preparedness and others still lagging. Cybersecurity Maturity and Capabilities Level The analysis of the level of maturity of cybersecurity capabilities across the Union shows an overall assessment of 62.65 out of 100. This value indicates a decent convergence among Member States, but with notable differences in areas related to the implementation of vulnerability disclosure policies and surveillance measures. According to the ENISA report, there are some areas with very high maturity scores, such as threat management and incident detection capabilities. However, other sectors show significant gaps. For instance, only 47% of Member States have adopted a nationally coordinated vulnerability disclosure process, while 55% are still in the definition phase. This indicates a considerable disparity in the ability to manage and disclose vulnerabilities among different Member States. Moreover, the adoption of supply chain security measures is still limited. Only 37% of Member States have adopted security management policies for the supply chain of essential and important entities. This figure is particularly worrying given the rise in supply chain attacks affecting critical digital service providers. The report also highlights that 52% of critical entities have implemented strict vulnerability management policies, but 13.5% of these have no visibility into the patching status of their IT assets. In the context of the private sector, the telecommunications, energy, and finance sectors are considered highly mature in terms of cybersecurity, while the health and rail transport sectors, although critical, show lower maturity levels. The situation is particularly problematic for the oil sector, which is in the early stages of its digitalization and cybersecurity maturity. Furthermore, the report indicates that the lack of specific skills is one of the main challenges for most Member States, with a growing gap in the availability of qualified personnel and the ability to respond to incidents. Awareness and Social Capacity One of the most concerning aspects emerging from the report is the cybersecurity awareness among EU citizens. According to Eurostat data reported by ENISA, 46% of Europeans lack sufficient digital skills, with significant disparity across different age groups. Only 35% of citizens aged between 55 and 74 have basic digital skills, compared to 70% of young adults. Additionally, the digital divide between urban and rural areas remains significant: 61% of urban residents have basic digital skills, while this percentage drops to 46% in rural areas. Although the gender gap in digital skills is decreasing, there is still a 3.4% difference between men and women. Another issue highlighted is the confidence of citizens in their ability to protect themselves from cyber risks, which dropped to 59% in 2024, compared to 71% in 2017. This decline could reflect a greater awareness of cyber risks and the increasing complexity of threats. Furthermore, only 22% of citizens are aware of the existence of an official channel for reporting cybercrimes, emphasizing the urgency of improving public communication and information. These data point to the need to launch targeted awareness and training initiatives, involving both young people and older adults. Particular attention should be given to rural areas, where the digital divide is more pronounced. Moreover, the availability of higher education programs in cybersecurity varies significantly between Member States, with some countries offering a wide variety of courses, while others still show significant lag in this area. Cybersecurity in Italy The 2024 report from the European Union Agency for Cybersecurity (ENISA) highlights significant gaps in Italy's cybersecurity preparedness, especially compared to the European average. Cybersecurity in Italy faces several challenges in terms of incident response capabilities and crisis preparedness. Only a limited number of large companies have security operations centers (SOCs), reflecting a lower maturity compared to other EU Member States. Additionally, supply chain risk management appears less developed in Italy, with a reduced percentage of companies implementing effective policies to manage these risks compared to European standards. Between July 2023 and June 2024, several significant cybersecurity incidents were recorded in Italy, primarily ransomware and Denial of Service (DDoS) attacks. These attacks often targeted the public and healthcare sectors, two particularly vulnerable areas. However, Italian public authorities have yet to widely implement structured incident response plans, showing a level of preparedness below the EU average. Regarding vulnerability management, many Italian organizations are still not fully able to cover all critical resources, nor are they able to apply patches promptly. Risk management, especially concerning known vulnerabilities, remains an area for improvement. These limitations are particularly relevant for organizations with extensive infrastructures and operating systems, which struggle to keep all technological assets updated and secure. Italian organizations also lag the European average in participating in national or international cybersecurity exercises. This implies inadequate crisis management preparedness, with few organizations regularly testing their response plans through simulations and exercises. This reduces their ability to react to potential large-scale attacks and threats. In terms of training and skills, large Italian companies demonstrate a greater focus on cybersecurity, investing more frequently in employee training. However, small and medium-sized enterprises (SMEs) are less likely to provide specific cybersecurity training, indicating limited maturity in this area. There is a clear difficulty in finding professionals with cybersecurity skills, reflected in the lack of recent hires in this field, contributing to the persistent skills gap relative to real needs. This situation underscores the need to improve security infrastructure, increase staff training, and promote active participation in European-level exercises to enhance response capabilities and adaptability to increasingly sophisticated threats. Recommendations and Future Prospects To address the challenges highlighted, the report proposes several strategic recommendations. One of the main recommendations concerns strengthening the capabilities to manage cyber crises through a review of the EU Blueprint for coordinated response to large-scale incidents. Moreover, it is recommended to enhance training and reskilling of the European workforce in cybersecurity, with a particular focus on reducing the skills gap and including underrepresented demographic groups, such as women and rural residents. The European Union is also called upon to develop an advanced horizontal policy for supply chain security, focusing on coordinated risk assessment and promoting vulnerability management initiatives involving both the public and private sectors. Enhancing information-sharing capabilities among Member States and creating coordinated alert mechanisms are other key points for ensuring cybersecurity resilience across Europe. According to the ENISA report, it is crucial to ensure technical and financial support to competent national authorities and EUIBA (EU Institutions, Bodies, and Agencies) to ensure harmonized, timely, and consistent implementation of the ever-evolving regulatory framework. Additionally, the review of the European Blueprint for large-scale incident responses should further promote the harmonization of cybersecurity at the EU level and optimize response capabilities at both national and European levels. The Cybersecurity Skills Academy is one of the main pillars for addressing the skills gap in the sector, aiming to create a coordinated European approach to cybersecurity training, certification, and skills management. It is necessary to develop specific training programs that meet the needs of the labor market and ensure the participation of underrepresented demographic groups to bridge the skills gap and promote an inclusive workforce. To improve supply chain security, the report proposes intensifying coordinated risk assessments at the European level and developing an advanced policy framework that addresses the specific challenges related to cybersecurity in both the public and private sectors. The adoption of effective vulnerability management policies, greater cooperation among Member States, and better awareness of sector-specific challenges are all considered essential actions to strengthen the overall resilience of the system. Conclusions The 2024 ENISA report offers a complex and detailed picture of the challenges the European Union faces in the cybersecurity landscape, highlighting not only emerging threats but also significant structural delays that limit the overall resilience of Member States. This scenario highlights a crucial strategic dynamic: cybersecurity is no longer just a technical or corporate risk management issue but represents a true trust infrastructure on which the entire European digital economy is founded. Disparities in the maturity of cybersecurity capabilities among Member States point to a strategic danger: a disjointed approach makes the EU vulnerable to transnational threats that exploit weak links in the chain. In an interconnected context, the failure of a single State can have devastating domino effects on critical sectors such as transport, energy, and healthcare, creating an insecure environment that undermines the competitiveness of the entire bloc. Supply chain security, for example, emerges as one of the most critical issues: the lack of coordinated policies on a European scale is a limitation that requires a paradigm shift in managing digital interdependencies. A key aspect often overlooked in traditional narratives is the role of geopolitics as an amplifier of cyber threats. State-sponsored cyberattacks or those by hacktivist groups linked to international conflicts are not just local disruption tools but genuine levers of economic and social destabilization. This underscores the urgency of integrating cybersecurity into common European foreign and defense strategies. Cybersecurity thus becomes a new field of shared sovereignty, where regulatory harmonization and the strengthening of cross-border operational capabilities are not optional but a necessity. In Italy, the lower maturity level of cybersecurity compared to the European average is another wake-up call, but also an opportunity to rethink the role of cybersecurity as a strategic element for economic development. The high incidence of attacks on critical sectors such as healthcare and energy reveal a systemic vulnerability: failing to adapt to new threats is not just a matter of protection but risks halting the country’s process of digital transformation and innovation. It is evident that Italy must more determinedly address the fragmentation of skills and the lack of a centralized vision for crisis management. The slow adoption of vulnerability management processes is an emblematic example of how both public and private organizations often underestimate the importance of proactivity over reactivity. Investing in specific skills training is not only a risk mitigation factor but also an economic growth accelerator, capable of positioning the EU and its Member States as leaders in the global secure technology market. However, this requires a political vision that goes beyond short-term logic and recognizes the strategic value of human resources. Finally, a fundamental point emerging from the report concerns digital awareness and citizen trust. The perception of cyber risk as a distant or purely technical issue is one of the greatest weaknesses of European society. Changing this mindset through effective communication strategies and widespread educational programs could generate an invaluable competitive advantage. An aware citizen is a resilient citizen, capable not only of defending against cyber risks but also of actively contributing to a shared security culture. In summary, cybersecurity today stands at the heart of European digital sovereignty. Failing to address the structural and cultural gaps highlighted in the report with determination would not only compromise internal resilience but also forfeit a unique opportunity to redefine the EU’s role as a global leader in an era where digital security is synonymous with progress and stability. The European Union must act with vision and courage, transforming current vulnerabilities into a cohesive and ambitious project of cyber leadership. Podcast: https://spotifycreators-web.app.link/e/FiptEb3Q5Ob Source:   https://www.enisa.europa.eu/publications/2024-report-on-the-state-of-the-cybersecurity-in-the-union

  • Introduction to Machine Learning

    Machine Learning represents one of the most debated topics in the contemporary technological landscape. Its technical complexity, however, can make it difficult to understand for those without specific training. In this article, the goal will be to make Machine Learning more comprehensible, even though it will inevitably involve technical terms and concepts. What is Machine Learning? Machine Learning is a field of artificial intelligence (AI) that allows computers to learn from data and experiences without being explicitly programmed. In simpler terms, Machine Learning enables a machine to improve its performance on a given task by analyzing data, learning from past successes and errors. Imagine you need to teach a computer to recognize images of cats and dogs. Instead of explicitly programming every characteristic of a cat or a dog, we provide a large dataset of pre-labeled images (for example, labeled as "cat" or "dog"), and the system learns to identify animals autonomously based on this information. This approach is like how we humans learn: we learn by observing examples and making attempts. Machine Learning is not limited to image recognition but is used in many other areas of our daily lives. Every time you receive movie suggestions on Netflix, when your phone recognizes your voice, or when your email manager filters spam, you are interacting with Machine Learning models. These systems can recognize patterns, make predictions, and adapt based on the data they receive. We can divide Machine Learning into several main categories, each with different objectives and methodologies. Among these categories are: • Supervised Learning: where the machine learns from labeled data. For example, the system receives images of dogs and cats already classified and learns to distinguish between the two animals autonomously. • Unsupervised Learning: here, the machine works with unlabeled data and tries autonomously to find patterns or structures. For example, it might discover that there are groups of customers with similar purchasing behaviors without knowing in advance who these customers are. • Reinforcement Learning: a type of learning where an agent learns by performing actions in an environment to maximize a reward. This type of learning is used, for example, in video games and autonomous vehicles. • Ensemble Methods: which combine different algorithms to improve performance compared to using a single model. The idea is that different approaches can compensate for each other's weaknesses. One of the most interesting aspects of Machine Learning is its ability to continuously improve. Thanks to the vast amount of data generated every day, machines can refine their models more and more, making predictions and decisions increasingly accurate. In this way, Machine Learning presents itself as a fundamental tool for tackling complex challenges, such as diagnosing diseases, managing energy resources, or personalizing the user experience on digital services. Machine Learning is transforming the world, but it is important to remember that these algorithms work thanks to the data they receive and the objectives that humans provide. This means that behind every model are human choices that influence how systems learn and make decisions. Therefore, it is essential that the development and application of these systems be guided by ethical principles and a critical view of their impact on society. Supervised Learning Supervised Learning is one of the most common forms of Machine Learning. In this mode, the machine is supervised by a "teacher" who provides it with already labeled examples. For instance, if we are trying to train an algorithm to recognize images of dogs and cats, we will provide a series of images already classified as "dog" or "cat." The goal is to teach the machine to autonomously recognize these categories in new images. One of the most significant aspects of supervised learning is its similarity to how humans learn through direct teaching. When a child learns to distinguish between a dog and a cat, they are guided by an adult who points out the animals and explains the distinctive characteristics of each. Similarly, in supervised learning, the machine learns through examples provided by a "teacher" in the form of labeled data. There are two main categories of problems that supervised learning can solve: Classification: The goal of classification is to assign a specific category to an input. For example, recognizing whether an email is spam or not is a typical classification problem. Classification models are also used for facial recognition, diagnosing medical conditions based on radiographic images, and even for detecting fraud in online payments. Some of the most common classification algorithms are Naive Bayes, Decision Tree, Support Vector Machine (SVM), and K-Nearest Neighbors (k-NN). Regression: Unlike classification, which assigns a category, regression deals with predicting continuous values. An example of a regression problem is estimating the price of a house based on factors such as area, the number of rooms, and location. Common algorithms for regression problems include linear regression and polynomial regression. Another example is forecasting energy consumption over time, where the model tries to determine future trends based on historical data. Supervised learning is widely used in industry due to its effectiveness and ability to produce accurate models. For example, on e-commerce platforms, recommendation systems suggest products similar to those already purchased or viewed by users. This is possible thanks to supervised models that analyze past user behavior and identify preference patterns. Another common example concerns healthcare systems, where supervised learning models help predict the risk of diseases based on a patient's medical history. These systems can help identify critical conditions early, allowing for timely interventions. A key concept in supervised learning is the training dataset. This dataset contains labeled examples used to train the model. However, for the model to be effective in the real world, a test dataset is also needed, which contains new examples not seen during training. The test dataset is used to evaluate the model's performance, verifying whether it has truly learned the task for which it was trained and whether it can generalize correctly to new data. Finally, overfitting is a common problem in supervised learning. It occurs when the model "learns too well" the training dataset, adapting even to noise and irrelevant details, thus losing its ability to generalize to new data. To mitigate this problem, techniques such as regularization or cross-validation are used, which help create more robust models that are less susceptible to errors. Unsupervised Learning Unsupervised Learning is distinguished by the fact that it does not require labeled data. Instead of receiving examples with predefined answers, the machine is left free to explore the data and find patterns or hidden relationships autonomously. This approach is particularly useful when labeled data is not available or when one wants to discover intrinsic structures in the data itself. A classic example of unsupervised learning is clustering, which involves dividing a dataset into groups of similar elements. Clustering is used in a wide range of applications, such as marketing, where it allows for the identification of customer groups with similar purchasing behaviors, enabling the development of targeted strategies for each group. Another example is image analysis, where clustering algorithms are used to compress images by grouping pixels with similar colors, thereby reducing the amount of information needed to represent the image. Among the most well-known clustering algorithms is K-Means, which divides the data into a predefined number of groups by trying to minimize the distance between points within each group and their "centroid." Another important algorithm is DBSCAN, which allows for the identification of clusters of arbitrary shapes and the detection of anomalies or outliers, that is, points that do not belong to any cluster. For example, this is very useful for detecting anomalous behaviors in financial transactions, such as potential fraud. Another important technique in unsupervised learning is dimensionality reduction, which involves reducing the number of variables (or "dimensions") in the dataset while maintaining as much relevant information as possible. This approach is useful for visualizing complex data or simplifying overly intricate models. For example, Principal Component Analysis (PCA) is a technique used to reduce the dimensionality of data, transforming them into a set of principal components that explain most of the variability present. This technique is used in applications ranging from data compression to visualization of complex datasets. A practical use of unsupervised learning is also in anomaly detection. This method allows for the identification of unusual behaviors in a dataset. For instance, in a network of sensors monitoring the temperature of an industrial plant, unsupervised learning can be used to identify anomalies, such as sudden temperature changes that could indicate a technical problem. Unsupervised learning is particularly useful for exploratory data analysis and for discovering hidden patterns that might not be immediately evident. However, because it lacks explicit guidance, the results of unsupervised learning must be interpreted with caution, and often require in-depth analysis by domain experts to be useful. Reinforcement Learning Reinforcement Learning is often described as the most similar to how humans learn. Unlike other types of learning, where the model is trained with labeled data or is left to find patterns in the data, reinforcement learning is based on interaction with an environment. The agent, or algorithm, performs actions and receives rewards or penalties based on the results obtained. The goal is to maximize the total reward in the long term, learning which actions lead to the best outcomes. An intuitive example is that of a robot learning to walk. Initially, the robot makes random movements; if a movement brings it closer to the goal (for example, staying balanced or moving forward in a straight line), it receives a reward. If it falls or moves away from the goal, it receives a penalty. Through this trial-and-error process, the robot gradually learns which sequence of movements is optimal for achieving its goal. One of the best-known examples of reinforcement learning is Google's DeepMind AlphaGo, a system that managed to defeat the best human players in the game of Go. This remarkable achievement was made possible by combining several artificial intelligence techniques, including supervised learning and reinforcement learning. AlphaGo initially analyzed thousands of games played by human experts to learn patterns and strategies, then refined its abilities by playing millions of games against itself. This combination of approaches allowed the system to develop advanced strategies, gradually adapting to complex situations. Go, with its extraordinary complexity and a few combinations that exceeds that of atoms in the universe, is a perfect example to show the effectiveness of these methods, as it is impossible to win by merely memorizing moves. Reinforcement learning is also applied in autonomous vehicles, where the agent must make real-time decisions, such as stopping at a red light, avoiding obstacles, or yielding to pedestrians. Before being tested on real roads, these vehicles are trained in simulated environments, where they can make mistakes without real consequences and learn to minimize risks. There are two main approaches to reinforcement learning: Model-Based and Model-Free. In the Model-Based approach, the agent builds an internal representation of the environment, similar to a map, which it uses to plan its actions. This method can be useful in stable and predictable environments, but becomes ineffective in complex and dynamic environments, where it is not possible to know every variable in advance. The Model-Free approach, on the other hand, is based on directly learning the best actions without attempting to build a complete representation of the environment. An example of this approach is the Q-learning algorithm, which allows the agent to learn the quality of actions in different situations through a trial-and-error process. The Deep Q-Network (DQN) is an advanced version of Q-learning that uses deep neural networks to tackle complex problems with very large action spaces. This type of algorithm has been used, for example, to develop artificial intelligences capable of playing classic video games like those for Atari, learning strategies that were not explicitly programmed but evolved through interaction with the environment. An intriguing aspect of reinforcement learning is its application in contexts where the environment is highly dynamic and decisions must be made in real-time. For example, in financial markets, reinforcement learning algorithms can be used to develop trading strategies, learning to buy and sell stocks in response to market changes to maximize profits. Reinforcement learning is also the foundation of many emerging technologies related to robotics and industrial automation. Robots learning to manipulate objects in complex environments, drones learning to fly while avoiding obstacles, and even autonomous vacuum cleaners optimizing their cleaning paths are all examples of how this technology can be applied to improve machine efficiency and autonomy. However, reinforcement learning is not without challenges. One of the main problems is the exploration-exploitation trade-off: the agent must balance exploring new actions to find better solutions with exploiting known actions to maximize reward. Another issue is the credit assignment problem, that is, the difficulty of determining which of the many actions taken led to the final reward. These aspects make reinforcement learning an extremely dynamic and evolving field, with many open challenges yet to be solved. Ensemble Methods Ensemble Methods represent a powerful and advanced approach within Machine Learning. The idea behind ensemble methods is to combine several learning models to obtain a more robust and accurate model compared to using a single algorithm. Each model within the ensemble contributes to improving the quality of predictions, correcting each other's errors, and reducing the probability of making significant mistakes. A common example of an ensemble method is the Random Forest, which is a collection of decision trees. In this approach, each tree is trained on a different subset of the available data, and the final prediction is made by combining the results of all the trees. The advantage of the Random Forest is that it reduces model variance, improving the ability to generalize to unseen data. Another widespread ensemble method is Bagging (Bootstrap Aggregating). In bagging, multiple models of the same type are generated by training them on different samples of the dataset, obtained through resampling techniques. The final prediction is then calculated by averaging the predictions (in the case of regression) or by a majority vote (in the case of classification). Bagging is particularly effective in reducing the risk of overfitting, especially for algorithms like decision trees that tend to overfit the training data. Boosting is another powerful ensemble method, but unlike bagging, models are trained sequentially so that each new model focuses on the errors made by previous models. In this way, boosting seeks to progressively improve prediction quality, reducing errors at each iteration. Among the most well-known boosting algorithms are AdaBoost, Gradient Boosting, and XGBoost, which are widely used in data science competitions for their ability to achieve extremely accurate predictions. Stacking is another ensemble method in which several base models (also called "base learners") are combined using a higher-level model, called a "meta-model." In practice, the base learners make their predictions on the data, and these predictions are then used as input to train the meta-model, which provides the final prediction. The advantage of stacking is that it allows the strengths of different algorithms to be exploited, obtaining a model that can better adapt to the complexities of the data. The effectiveness of ensemble methods derives from their ability to reduce both variance and bias in Machine Learning models. Variance is reduced thanks to the use of multiple models trained on different data samples, while bias is reduced thanks to the combination of different algorithms that, by working together, can cover each other's weaknesses. However, a potential disadvantage of ensemble methods is that they can be computationally expensive, requiring high computing power and longer training times. Ensemble methods are used in a wide range of applications, from image analysis to natural language processing to financial risk prediction. For example, in computer vision systems, an ensemble of models can be used to improve accuracy in object recognition, while in recommendation systems, such as those used by Netflix or Amazon, ensemble methods help provide more accurate personalized suggestions. Neural Networks and Deep Learning Neural networks are the heart of Deep Learning, a branch of Machine Learning that has gained popularity in recent years thanks to technological advancements and the increased availability of computational power. A neural network consists of layers of artificial "neurons" that work together to analyze and learn from data. This approach is particularly useful for image recognition, natural language processing, and many other complex fields. Neural networks are inspired by the structure of the human brain, in which numerous neurons are interconnected and communicate with each other. Similarly, in artificial neural networks, neurons are connected by weights, which represent the strength of the connection between two neurons. During network training, these weights are adjusted to improve the network's ability to make accurate predictions. Backpropagation, or error backpropagation, is a key method used to train neural networks. It is an algorithm that adjusts the weights of neurons so that the prediction error is minimized, updating each connection proportionally to the error made. This process is repeated over millions of examples until the network can make predictions with high accuracy. Convolutional Networks (CNN) Convolutional Neural Networks, or CNNs, are primarily used for image analysis. CNNs consist of several layers that analyze images by dividing them into small blocks and searching for features such as lines, edges, and textures. Each layer of the network can recognize increasingly complex features, progressing from basic elements like edges to recognizing complete structures like a face. Thanks to this structure, CNNs can recognize objects and patterns in images, making them ideal for applications like facial recognition, medical diagnostics, and handwritten character recognition. A practical example of CNN is image recognition on platforms like Google Photos or Facebook, where neural networks are used to automatically identify people and objects in photos. This process is made possible by the CNNs' ability to learn from visual features and generalize this knowledge to new images never seen before. Recurrent Networks (RNN) Recurrent Neural Networks, or RNNs, are ideal for handling sequential data, such as language and voice. Unlike CNNs, RNNs have a kind of "internal memory" that allows them to keep track of previous information within a sequence of data. This makes them particularly suitable for applications like automatic translation, speech recognition, and text generation. A variant of RNNs is LSTM (Long Short-Term Memory), which improves the ability of recurrent networks to remember long-term information, thus solving some of the typical problems of standard RNNs, such as difficulty in handling long-term dependencies. LSTMs are used, for instance, in voice assistants like Apple's Siri or Amazon's Alexa to understand the context of user requests and respond more accurately. RNNs also find application in text generation, as in language models that can complete sentences or even autonomously write short articles. A concrete example of using RNNs is the automatic generation of video subtitles, where the network must not only understand the language but also adapt to the rhythm and pauses of speech. Generative Adversarial Networks (GAN) Another neural network architecture that has gained great attention in recent years is Generative Adversarial Networks, or GANs. GANs consist of two neural networks competing against each other: a generative network, which tries to create fake data similar to real data, and a discriminative network, which tries to distinguish between real and fake data. This competition process improves both networks, leading to the generation of extremely realistic synthetic data. GANs are used for a variety of creative applications, such as generating images of human faces that never existed, creating digital artworks, and even improving the quality of blurred images. For example, the DeepArt project uses GANs to transform ordinary photos into works of art that imitate the style of famous artists like Van Gogh or Picasso. The Importance of Deep Learning Deep Learning represents a significant evolution compared to traditional neural networks, thanks to its ability to work with deep networks, that is, composed of many layers of neurons. This approach has led to extraordinary results in fields like computer vision and natural language processing, overcoming the limitations of traditional Machine Learning approaches. One of the main reasons for Deep Learning's success is the availability of large amounts of data (the so-called Big Data) and increasingly powerful hardware, such as GPUs (Graphics Processing Units), which allow very complex neural networks to be trained in reasonable times. Moreover, software libraries like TensorFlow, PyTorch, and Keras have made developing Deep Learning models more accessible even for those without specific training in computer engineering. Deep Learning has paved the way for innovations that only a few years ago seemed like science fiction, such as autonomous vehicles, automated medical diagnostics, and human-machine interfaces that understand natural language. However, it is important to emphasize that the use of these technologies must be accompanied by ethical reflection, as neural networks learn from the data they receive, and biased or partial data can lead to erroneous or discriminatory decisions. Conclusions Machine Learning represents a profound transformation in contemporary technological paradigms, but it is equally crucial to understand the strategic and cultural implications that derive from it. The apparent simplicity with which models learn from data masks a complex reality: every phase of the process, from data collection to algorithm selection, is intrinsically shaped by human choices. This underscores the need for a more critical and conscious approach by companies wanting to integrate these technologies. One of the most relevant aspects is the concept of responsibility in the design and implementation of Machine Learning models. While the dominant narrative focuses on technical potential, the role of the objectives and constraints imposed by developers is often overlooked. These apparently neutral algorithms can amplify pre-existing biases in the data, with real effects on decisions affecting people and organizations. Therefore, companies cannot afford to consider Machine Learning as a simple "magic box" to improve performance: they must take on the ethical and operational responsibility of how these models are developed and used. Another crucial point is the dynamism of Machine Learning, which sets it apart from traditional programming approaches. The ability of models to learn from data in real time and adapt to changes makes them powerful but also unpredictable tools. For companies, this implies the need for continuous monitoring and constant evaluation of model performance. In critical contexts, such as finance or healthcare, the risk of model drift (i.e., the degradation of their performance over time) can have devastating consequences. Investing in model monitoring infrastructures is not only a preventive measure but a strategy to maintain a competitive edge. Moreover, Machine Learning is redefining how companies perceive and exploit data. It is no longer just about collecting large amounts of information but extracting strategic value by identifying patterns that would otherwise remain hidden. This requires cross-disciplinary skills that combine technical knowledge with a deep understanding of the business environment. Companies that invest in staff training to understand the functioning and implications of Machine Learning, even at non-technical levels, are better positioned to exploit its potential. Another key element is the role of creativity in applying Machine Learning. While standard solutions can improve efficiency and accuracy, true innovation arises from the ability to imagine unconventional applications. Consider, for example, the use of GANs to create realistic synthetic content: if used with strategic vision, they can open new markets and redefine entire industries, such as fashion, design, or entertainment. However, without adequate governance, these technologies risk being used irresponsibly, undermining public trust. Finally, the convergence between Machine Learning, ethics, and sustainability will be crucial for the future of businesses. Consumers and business partners are increasingly sensitive to the social and environmental implications of technologies. Companies that can demonstrate transparency and commitment to mitigating the risks associated with Machine Learning, such as biases or ecological impacts resulting from intensive computational resource use, will not only protect their reputation but attract investments and retain customers. In summary, Machine Learning is not just a technical tool but a strategic lever that requires a systemic vision. Companies must go beyond initial enthusiasm and pragmatically address the challenges associated with its implementation.   Podcast: https://spotifycreators-web.app.link/e/yXeyYFg94Ob

  • AI in Italy: From Benefits for Large Companies to Challenges for SMEs

    In recent years, Artificial Intelligence (AI) has gained a prominent role in the Italian economic and social landscape. According to data provided by the Artificial Intelligence Observatory of the Politecnico di Milano, the AI market in Italy reached 760 million euros in 2023, with a 52% growth compared to the previous year. This figure highlights the acceleration of initiatives in this sector, particularly among large companies, which account for 90% of investments. However, the adoption of AI is still uneven, with small and medium-sized enterprises (SMEs) struggling to keep up, contributing only 18% of currently implemented AI projects. AI Adoption and Use in Italy: A Fragmented Picture One of the most significant aspects that emerges from the study is the marked disparity in AI adoption between different types of companies. Large companies are the ones investing the most and implementing AI solutions, while SMEs, due to economic and organizational constraints, are slower in their digitalization journey. Six out of ten large companies have already launched at least one AI project, compared to just 18% of SMEs. Generative AI, although representing only 5% of the market (38 million euros), is beginning to find significant applications, especially in areas such as data processing and predictive modeling. This disparity in adoption is also reflected in the strategies and projects undertaken by companies. The study shows that 22% of large companies already have a clear AI strategy, while an additional 13% are beginning to implement one. On the contrary, many SMEs are still in the exploratory phase or do not consider AI a strategic priority. Companies in the industry/manufacturing macro-sector are those most frequently activating AI strategies or projects, with 46% already active in this area, compared to 39% in other sectors. Another critical element is the available economic resources. Large companies have greater financial capacity, allowing them to allocate significant funds towards acquiring new technologies and developing AI solutions. As a result, 90% of total AI investments in Italy are made by large companies, leaving a reduced share for SMEs and Public Administration. Moreover, SMEs are often limited by a lack of internal expertise, which makes it challenging to adopt advanced technologies such as AI without significant external support. Geographic distribution plays an important role in the uneven adoption. Thirty-eight percent of the companies interviewed are based in the northwest of the country, while only 14% are located in the center and 15% in the south. This geographic gap further contributes to a non-uniform distribution of technological innovation and AI-related opportunities, with the more industrialized areas benefiting from greater resources and skills. The lack of training and specific skills represents another obstacle to the widespread adoption of AI. Forty-seven percent of Italian companies are investing in internal personnel training to overcome this barrier, but only 16% are actively hiring new specialized professionals. Companies in the industrial sector appear slightly ahead compared to other sectors in terms of acquiring new skills and technologies, with 74% of manufacturing companies considering it necessary to upgrade their capabilities to make the most of AI's potential. In conclusion, the picture that emerges is one of a two-speed adoption, where large companies manage to benefit more from the opportunities offered by AI, while SMEs continue to struggle with economic, organizational, and training barriers. To bridge this gap, structured support is needed, including economic incentives, training programs, and collaboration initiatives between large companies and SMEs. Only in this way can a more equitable and widespread adoption of AI technologies be ensured within the Italian business fabric. Main Areas of AI Application The applications of AI in Italian companies are diverse, with a particular emphasis on process automation and data analysis. According to the KPMG-IPSOS survey, 46% of companies are using AI to automate processes to improve efficiency and productivity, while 39% leverage data processing models to foster product innovation. Another 37% of the companies surveyed use AI for sales data analysis and to develop predictive models that support strategic planning activities. In addition to these areas, other interesting applications of AI are emerging, such as customer data analysis to create personalized marketing campaigns, an aspect mentioned by 26% of companies. These solutions make it possible to develop more effective and targeted marketing strategies, increasing conversion rates and improving return on investment. Moreover, 23% of companies have implemented chatbots that can interact with customers, answering questions and providing information in real time. This application not only improves customer service but also reduces the operational costs associated with managing support centers. Analyzing transaction patterns to identify suspicious activity and potential fraud represents another important area of application, chosen by 21% of companies. AI's data processing capabilities allow for the detection of anomalies and suspicious behaviors more quickly and accurately than traditional analysis methods, thereby contributing to corporate security and the prevention of financial fraud. Another sector in which AI is applied is systems for voice, image, and video recognition, adopted by 11% of companies to enhance security. These tools are used in areas such as access control, video surveillance, and monitoring of production activities, contributing to improved overall security and operational efficiency. AI technologies are seen to enhance human cognitive activities, with an impact that goes beyond simple automation. Indeed, AI is employed to support strategic decision-making (30%) and improve customer service (28%). The ability to process large amounts of data quickly and accurately allows managers to make more informed decisions, thereby improving the quality of business strategy and adaptation to market changes. These applications demonstrate that AI is not just a tool for improving operational efficiency but has the potential to transform how companies interact with customers, develop products, and manage their internal operations. Integrating AI into various corporate areas is enabling Italian companies to create new business models centered on innovation and personalized offerings. Challenges for AI Adoption Despite the enthusiasm surrounding AI adoption, there are numerous challenges that companies must face. One of the main challenges is cultural transformation, indicated as the greatest obstacle by 37% of the companies surveyed. In addition, the need to upgrade employee skills is a significant problem for 34% of companies, followed by the implementation of new production and operational processes (33%). Only 22% of companies perceive implementation costs as a crucial problem, suggesting that the main difficulties lie more in managing change than in mere financial aspects. The challenges related to AI introduction are not limited to the technological aspect but also involve the ability to manage cultural transition and organizational change. Finding the right combination of human capital and technological capital is identified by 27% of companies as a significant challenge. This balance is crucial for fully exploiting AI's potential without alienating workers. Additionally, compliance with regulatory and legislative implications is perceived as an obstacle by 13% of companies, highlighting the need to adhere to an ever-evolving legal framework that often imposes stringent constraints on AI use. An important aspect is the need for clear and structured governance for AI adoption. Indeed, 37% of companies believe that defined governance models are necessary to ensure that AI is developed and used responsibly and reliably. Internal staff training, indicated by 59% of companies, emerges as the most relevant factor for overcoming employee resistance and fostering AI acceptance. Only 19% of companies foresee significant difficulties in gaining employee acceptance, while 57% believe there will be no significant obstacles, suggesting a certain optimism regarding the ability to integrate AI without generating strong resistance. The issue of skills also plays a crucial role in managing challenges. Employee training and retraining are seen as indispensable tools for tackling change: 47% of companies are investing in staff training to develop AI-related skills, while only 16% are hiring new specialized figures. However, the standardization of skills, due to the adoption of generative AI technologies, could lead to a reduction in differences between high- and low-performing workers, making the workforce more homogeneous but less differentiated in distinctive abilities. In conclusion, the challenges for AI adoption are manifold and require an integrated approach that combines technological, training, and organizational aspects. Companies must not only invest in technological infrastructures but also develop a change management plan that involves staff and creates a corporate culture ready to embrace innovation. This path, although complex, is a necessity to remain competitive in an increasingly technology-driven economic environment. Benefits and Future Prospects The benefits of adopting artificial intelligence in Italian companies go beyond mere productivity gains and cost reductions. According to the study, three out of four companies believe that AI can significantly improve the internal economic situation of the company. This figure rises to 81% among companies that have already activated AI projects, demonstrating a high degree of confidence in the long-term benefits that these technologies can bring. The positive economic impact of AI is particularly felt in large companies, where 77% of respondents expect improvements, compared to 69% of SMEs. AI adoption is also profoundly influencing corporate leadership models. According to 95% of respondents, AI will allow managers to assume a more strategic role, freeing them from operational and routine tasks and allowing them to focus on decisions with a greater impact on the company. This change, which leads to a redistribution of responsibilities within the organization, can contribute to improving overall efficiency and making the company more agile and responsive to market dynamics. Another benefit concerns AI's ability to foster a more collaborative and innovation-centered work environment. AI technologies are indeed seen not just as automation tools but as "augmentation" tools, technologies that enhance human capabilities. This vision is particularly important in a Human Innovation perspective, where people remain at the center of the transformation process, and AI becomes a partner to enhance human contributions within the organization. In terms of innovation, only 13% of companies have reported AI's ability to innovate products and services as a main benefit, suggesting that the full potential of AI in this area is not yet fully exploited. However, 23% of companies indicated an improvement in acquiring and managing new customers as an important result of adopting AI solutions. This shows that AI can also play a significant role in business growth, not only by optimizing internal processes but also by directly contributing to improving market performance. Furthermore, AI is changing the competitive landscape, promoting the adoption of new, more scalable, and data-oriented business models. AI-driven companies tend to break down traditional silos, becoming more integrated and capable of continuously collecting, analyzing, and using data to improve decision-making processes and service quality. This approach not only improves internal efficiency but also enables companies to be more agile in adapting to market changes and to gain a sustainable competitive advantage. From a skills perspective, AI adoption requires a significant investment in employee training. However, it is not just about developing technical skills but also about promoting soft skills such as problem-solving and critical thinking, which are essential for fully exploiting AI's potential. The ability to adapt and understand the interaction between technology and human processes is crucial for long-term success. Companies are therefore promoting specific training programs to ensure that staff are prepared to manage these new technologies and integrate them effectively into business processes. Impact on Business Models AI adoption is also having a significant impact on business models. Sixty-four percent of the companies interviewed believe that AI will change their business model, with particularly relevant effects in production (indicated by 59% of respondents), sales (32%), and personnel organization (29%). This transformation will require a rethinking of business strategies and operating models, including greater collaboration between functions and the adoption of more agile ways of working open to innovation. According to the KPMG-IPSOS report, AI is becoming the core of companies' operating models, representing a true paradigm shift that changes the way of doing business. AI is no longer considered just a tool to improve efficiency or reduce costs but has become the universal engine that drives business transformation. This change implies a break from traditional silos and a reorganization towards greater scalability and flexibility. For example, AI-driven companies like MyBank, Amazon, and Zara have shown that integrating AI into operational processes not only improves service quality but also allows for the creation of a new value creation model, based on continuous learning from data collected in real-time. This transformation goes beyond simple technological application, as it redesigns how companies interact with markets and consumers. According to 95% of respondents, the introduction of AI will lead to a more strategic role for managers, freeing them from more operational tasks and allowing them to focus on creating new growth opportunities. AI indeed enables a better understanding of customer needs and supports the adoption of new business models oriented towards open innovation, in which collaboration with external partners and the collection of real-time insights become central to business success. Moreover, AI pushes companies to rethink their alliance ecosystem. The creation of strategic partnerships, even with companies from different sectors, represents one of the main opportunities for growth and differentiation from competitors. An AI-driven company can indeed offer more personalized products and services, increasing overall efficiency and leveraging an extended ecosystem of skills and resources. Conclusions The adoption of artificial intelligence represents a turning point for Italian companies, but only conscious leadership can ensure its full potential is harnessed. Strategic AI management requires an integrated vision that goes beyond mere technological fascination, shifting the focus from technology to the concrete goal of solving business problems. AI is not an end but a means to enhance organizations' decision-making and operational capabilities. However, many initiatives fail due to a disconnect between business objectives and technical design, often exacerbated by inadequate infrastructure and poor-quality data. For Italian SMEs, which struggle to keep up with large companies, AI integration must not be seen as a luxury but as a competitive necessity. This requires targeted public incentives and a collaborative culture between large companies and SMEs to share skills and resources. AI technology adoption can be transformative, but only if continuous training and the building of robust digital infrastructures are invested in. A critical area is data management. The quality and relevance of corporate data are not just technical issues but strategic decisions. Organizations must treat data as an asset, investing in data engineering and infrastructure capable of supporting scalable AI projects. Companies that do not adopt this vision risk losing competitiveness, remaining trapped in cycles of failure due to structural deficiencies. Corporate leadership must also address the cultural change necessary to integrate AI into decision-making processes. AI democratization requires inclusive governance that balances technological innovation and human capital. This means creating collaborative environments where technicians and executives work together to translate strategic needs into practical technical solutions. Only leadership capable of listening and learning can build trust in AI and harness its potential without falling into unrealistic expectations. Finally, it is crucial to shift the focus from immediate AI applications to its strategic role as a catalyst for new business models. AI offers the opportunity to redesign business processes for greater scalability, agility, and personalized offerings. This does not only imply adopting technology but building a new business ecosystem capable of generating value through continuous learning from data. Podcast: https://spotifycreators-web.app.link/e/RJW1VHHI3Ob Source:   https://kpmg.com/it/it/home/insights/2024/11/ai-intelligenza-artificiale-aziende-italia-survey-kpmg-ipsos.html

bottom of page