top of page

Scenari globali e strategie cinesi verso l’intelligenza artificiale generale

Immagine del redattore: Andrea ViliottiAndrea Viliotti

Issue Brief Chinese Critiques of Large Language Models Finding the Path to General Artificial Intelligence”, firmata da Wm. C. Hannas, Huey-Meei Chang e Maximilian Riesenhuber, nasce all’interno del Center for Security and Emerging Technology con l’obiettivo di esplorare la posizione di molte istituzioni e ricercatori cinesi di primo piano in merito ai grandi modelli linguistici. Lo studio mette in luce l’interesse della Cina per uno sviluppo diversificato dell’intelligenza artificiale, rivolto in particolare alla ricerca di una vera intelligenza artificiale generale e alle possibili limitazioni dei soli modelli linguistici di dimensioni crescenti. Dalle strategie statali ai percorsi ispirati al funzionamento del cervello umano, si delinea un quadro dove la componente “umano-centrica” e il valore sociale giocano un ruolo cruciale.


Sintesi strategica per imprenditori, dirigenti e tecnici

Per gli imprenditori emerge la necessità di valutare con attenzione il ritorno sugli investimenti in soluzioni basate su large language model (LLM), soprattutto in un contesto dove l’intelligenza artificiale generale costituisce un obiettivo sempre più importante. La ricerca illustra chiaramente come questi strumenti, pur generando testi e risposte a livello avanzato, possano manifestare incertezze su compiti complessi e metterebbero a rischio la corretta allocazione di risorse qualora non si considerassero vie alternative. I dati presentati rilevano l’esistenza di ingenti finanziamenti destinati a sistemi LLM, con somme che in Occidente raggiungono decine di miliardi di dollari. Tuttavia, la riflessione cinese sottolinea una maggiore prudenza, poiché la mancanza di diversificazione potrebbe rallentare la spinta verso l’autentica general artificial intelligence (GAI). Gli imprenditori, pertanto, trovano nella ricerca un invito a mantenere uno sguardo aperto, a considerare progetti ispirati alla struttura del cervello umano e a investire anche in piattaforme che accolgano sensori fisici, robot e reti neurali modulari.


Per i dirigenti aziendali si evidenzia un’opportunità di revisione delle strategie con cui orientare le risorse interne all’organizzazione. La ricerca indica che i grandi modelli linguistici, usati in sistemi di analisi del testo o in chatbot, possono incontrare difficoltà nella gestione di output affidabili, generando “allucinazioni” e risposte imprecise. Questa dinamica rende fondamentale un monitoraggio continuo dei progetti e una definizione più strutturata degli obiettivi aziendali. Mantenere flessibili i piani di sviluppo consente di passare agevolmente a paradigmi alternativi qualora ci si imbatta in un plateau di prestazioni dei soli modelli linguistici di grandi dimensioni.


Per i tecnici si pone la sfida di arricchire e integrare le piattaforme basate su LLM con moduli di ragionamento dedicati, algoritmi ispirati alle sinapsi biologiche e meccanismi di memoria episodica più simili al cervello umano. L’interesse si concentra sulle possibilità offerte dalle architetture “brain-inspired” e sull’importanza di dotare i sistemi di un “motore di ragionamento” esplicito, capace di gestire la logica astratta e di orientarsi nei processi decisionali. Questa prospettiva progettuale apre nuove frontiere di innovazione tecnologica, utili a superare le attuali criticità nel trattamento di informazioni non testuali, nella comprensione delle sfumature semantiche e nella prevenzione di output incoerenti.

intelligenza artificiale generale
Intelligenza artificiale generale

La diversificazione cinese e il percorso verso l’intelligenza artificiale generale

Un primo elemento significativo che emerge dalla ricerca è la forte impronta che la Cina imprime alle proprie linee guida in campo di intelligenza artificiale, con un occhio di riguardo verso l’intelligenza artificiale generale. Esiste una precisa volontà di evitare una “monocoltura” dipendente esclusivamente dalle piattaforme LLM, ritenute potenti ma non sufficienti a garantire l’acquisizione di competenze di tipo umano. I vertici istituzionali cinesi, secondo le parole riportate nella ricerca, considerano gli ingenti investimenti in modelli come GPT, Claude o altri sistemi addestrati su giganteschi corpus di testo un terreno certamente interessante, ma non esaustivo.


La strategia cinese si caratterizza per un approccio diversificato, sostenuto da investimenti volti a creare un ventaglio di tecnologie differenti, che includono anche reti neurali ispirate al cervello, modelli ibridi tra regole simboliche e modelli statistici, e tecniche che incorporino sensori fisici per un apprendimento “embodied”. La guida a livello nazionale e municipale incoraggia l’uso di architetture che possano integrare dati e interazioni con l’ambiente, con l’obiettivo di raggiungere una vera autonomia cognitiva, intesa come capacità di apprendere oltre i confini dei dati testuali.


Si assiste così all’emergere di laboratori e istituti cinesi – come il Beijing Institute for General Artificial Intelligence o la Beijing Academy of Artificial Intelligence – che sin dalla loro nascita hanno posto al centro l’obiettivo di andare oltre il semplice potenziamento dimensionale dei modelli linguistici. I ricercatori interessati alla cosiddetta “brain-inspired AI” promuovono soluzioni che tentano di replicare la complessità neuronale umana, convinti che le sole reti trasformative, anche se arricchite da enormi dataset, non possano raggiungere livelli di comprensione, astrazione e creatività tipici dell’uomo. Alcune dichiarazioni menzionate indicano che, in queste sedi, i modelli linguistici vengono giudicati “potenti predittori di sequenze testuali” ma carenti nei processi di ragionamento logico e matematico di alto livello.


La rilevanza di questo approccio viene spiegata anche da motivazioni strategiche ed economiche. Da un lato si teme che basarsi unicamente sulla crescita dimensionale dei parametri di un LLM possa sfociare in un “cul-de-sac” tecnologico, soprattutto se i risultati sperati in termini di intelligenza artificiale generale non dovessero materializzarsi. Dall’altro lato vi è la considerazione che, in Occidente, la corsa al modello più grande abbia già inghiottito enormi capitali, a scapito di tecnologie alternative. Il documento rimarca come, in Europa e negli Stati Uniti, la narrativa mainstream sia dominata dalle novità di prodotti su larga scala, oscurando a volte le ricerche meno note ma potenzialmente più vicine alla meta della GAI.


Un ulteriore fattore che sostiene la via diversificata è la volontà della Cina di incorporare una propria visione di “valori” in questi sistemi. Il discorso pubblico ufficiale sostiene che non sia sufficiente un’intelligenza puramente statistica, ma che sia necessario allineare il comportamento della macchina a finalità precise. Nel quadro di ricerca illustrato, ciò implica modelli in grado di “capire” la sensibilità umana e allinearsi alle esigenze della popolazione e dello Stato, in modo da rimanere sotto controllo e non generare rischi sociali o politici.

Questo scenario è caratterizzato da un ampio sostegno da parte del governo cinese verso la ricerca in ambiti ritenuti complementari ai modelli linguistici di grandi dimensioni (Large Language Models). Gli investimenti si concentrano sullo sviluppo di robot umanoidi, progettati per imitare le capacità fisiche e cognitive umane, sulle reti neurali con sinapsi spiking, una tecnologia che riproduce il funzionamento delle sinapsi biologiche nel cervello umano per migliorare l'efficienza e la precisione nell'elaborazione dei segnali, e sulle metodologie di apprendimento continuo. Queste metodologie consentono ai sistemi di adattarsi e apprendere dagli stimoli provenienti dal mondo reale, andando oltre la semplice analisi di dati testuali.


Quando un sistema è in grado di apprendere da stimoli concreti del mondo fisico, si libera dal vincolo di lavorare esclusivamente su modelli basati sui testi. Questo approccio apre la strada al superamento di alcune difficoltà legate alla mancanza di "grounding", ovvero la connessione tra il significato delle parole e gli oggetti o eventi del mondo reale.

Un esempio pratico potrebbe essere quello di un robot progettato per assistere nelle attività domestiche. Se il robot è dotato di reti neurali con sinapsi spiking e metodologie di apprendimento continuo, può apprendere a riconoscere oggetti come una tazza o un cucchiaio non solo attraverso immagini o descrizioni testuali, ma anche interagendo direttamente con essi. Questo tipo di apprendimento gli permette di adattarsi a nuove situazioni, ad esempio distinguendo una tazza di plastica da una di vetro per maneggiarle in modo adeguato, evitando danni.


Criticità dei modelli linguistici e strategie per l’intelligenza artificiale generale

Nella ricerca si fa riferimento a un dibattito internazionale secondo cui i grandi modelli linguistici hanno mostrato limiti strutturali che ne mettono in dubbio la capacità di raggiungere un’intelligenza davvero generalista. Una parte di questa discussione è alimentata dalle cosiddette “hallucinations”, ovvero dall’inclinazione dei modelli a produrre affermazioni non corrette o inventate, poiché si basano su correlazioni statistiche apprese da grandi masse di testo. Si cita, ad esempio, il fenomeno per cui, aumentando il numero di parametri, invece di ridursi, alcune distorsioni possono anche peggiorare, a causa della maggiore complessità della rete.


La ricerca mostra come queste debolezze siano state evidenziate da scienziati americani ed europei, ma anche da studiosi cinesi. Esistono riferimenti a Xu Bo dell’Università Cinese delle Accademie di Scienze e a Tang Jie della Tsinghua University, entrambi concordi nel considerare l’ipotesi che i LLM possano non bastare a garantire processi di ragionamento elaborato. In Occidente si è puntato su tecniche di “chain-of-thought” o su plugin esterni per supplire, ad esempio, alle carenze in aritmetica. Eppure, la ricerca indica come i tentativi di “tamponare” i difetti non risolvano la radice del problema, dato che la base stessa del modello rimane statistica e priva di un vero “motore logico” capace di distinguere tra verità e invenzione.


Il documento evidenzia come, negli Stati Uniti e in Europa, l'industria privata abbia destinato diverse decine di miliardi di dollari nel 2023 allo sviluppo di tecnologie legate all'intelligenza artificiale generativa. Tuttavia, alcuni studiosi mettono in guardia sui rischi connessi a questa tendenza. Se i modelli linguistici di grandi dimensioni non riuscissero a evolversi verso una forma di intelligenza generale – ossia una capacità di apprendimento e ragionamento paragonabile a quella umana – ci si troverebbe a fronteggiare il problema di infrastrutture e competenze altamente specializzate, ma difficilmente adattabili ad altri settori o applicazioni.


Per ridurre questo rischio, si sottolinea l'importanza di adottare un approccio diversificato già in fase di progettazione. Tale diversificazione dovrebbe includere lo sviluppo di architetture alternative, come quelle ispirate al funzionamento del cervello umano – che sfruttano principi biologici per migliorare l'efficienza e l'adattabilità – o sistemi ibridi, che combinano l'approccio simbolico, basato su regole logiche esplicite, con quello statistico, tipico delle reti neurali.


Ad esempio, un sistema ibrido potrebbe unire la capacità di una rete neurale di riconoscere immagini con un modulo simbolico che comprende le regole del traffico. Questo sarebbe utile per sviluppare veicoli autonomi in grado non solo di identificare un segnale stradale visivamente, ma anche di applicare il suo significato nel contesto della guida. In questo modo, si garantirebbe una maggiore flessibilità e robustezza, prevenendo l'eccessiva dipendenza da un singolo paradigma tecnologico.


Un aspetto interessante riguarda l’energia e l’hardware. I LLM di ultima generazione richiedono risorse informatiche estese e un consumo energetico elevato. Nella ricerca emergono paragoni con settori in cui la Cina ha puntato, in modo strategico, a un’innovazione parallela. Si cita, ad esempio, come l’approccio governativo cinese nel fotovoltaico abbia portato il Paese a produrre il 75% dei pannelli solari a livello mondiale grazie a decisioni pianificate con anticipo. La stessa logica potrebbe ripetersi nell’intelligenza artificiale: mentre in Occidente domina la scalabilità dei modelli linguistici, la Cina sviluppa nuove tipologie di chip, architetture neurali e sistemi di addestramento a minore dispendio energetico. Da qui derivano implicazioni per i manager e i dirigenti, che devono soppesare non solo la potenza di calcolo necessaria, ma anche la sostenibilità economica e ambientale dei progetti.


Occorre sottolineare che la questione del controllo dell’output generato dagli LLM, menzionata più volte nella ricerca, non è di poco conto. Le regole basate su “guardrail” o filtri a posteriori appaiono fragili di fronte alla sterminata gamma di frasi e contesti linguistici che un LLM può produrre. Ecco perché, in Cina, si enfatizza lo sviluppo di un’architettura in grado di incorporare principi morali e “valori” sin dalla base della struttura cognitiva della macchina, rendendola allineata con obiettivi socio-istituzionali ben definiti.


Chi osserva la scena con uno sguardo globale può notare due derive quasi opposte: la prima, tipica del mondo occidentale, che punta su versioni sempre più grandi di modelli trasformativi; la seconda, delineata dalla Cina, in cui la crescita dimensionale va in parallelo a progetti volti a simulare la cognizione biologica. Questo duplice binario sembra destinato a caratterizzare il panorama dell’AI nei prossimi anni, influenzando la direzione degli investimenti, il tipo di figure professionali richieste e la forma stessa della competizione tecnologica internazionale.


Sperimentazioni alternative, prospettive globali e implicazioni strategiche dell’intelligenza artificiale generale

La ricerca evidenzia come, in Cina, stia emergendo un programma avanzato in cui i grandi modelli linguistici (LLM) convivono con soluzioni ispirate al cervello umano e con un approccio definito “embodied”. Quest’ultimo prevede l’interazione diretta fra l’agente artificiale e l’ambiente, reale o simulato, consentendo di integrare percezioni visive, tattili e sonore. Questa integrazione, secondo i contributi di studiosi come Bo Xu o Zeng Yi, rappresenta un modo per avvicinare le macchine alla modalità di apprendimento umana, fondata sull’esperienza concreta e sulle connessioni sinaptiche dei neuroni biologici. Le cosiddette “spiking neural networks”, per esempio, cercano di emulare la trasmissione temporale dei segnali tipica del cervello, puntando su una maggiore efficienza computazionale e sulla riduzione di errori tipici dei puri modelli statistici.


Parallelamente, si osservano progressi nel campo dell’hardware, con prototipi di chip fotonici progettati per abbattere le latenze legate alla trasmissione elettrica e rendere l’elaborazione più rapida e meno energivora. L’interesse non si limita però alla dimensione tecnica: un ulteriore obiettivo è costruire sistemi che acquisiscano principi valoriali e finalità sociali. Nella letteratura scientifica cinese emerge frequentemente l’idea di andare oltre la semplice logica basata sui dati, promuovendo un modello che includa fin dall’inizio obiettivi etici e culturali nella progettazione dell’intelligenza artificiale. Questo approccio incoraggia un controllo più diretto sulle tecnologie, esprimendo l’intento di orientarne lo sviluppo verso obiettivi politico-culturali di ampio respiro.


Se da un lato l’Occidente, con grandi realtà private come OpenAI o Google, punta soprattutto a potenziare i propri LLM tramite un aumento dei parametri e l’adozione di risorse computazionali imponenti, la Cina sta diversificando. In questo scenario, i ricercatori cinesi ritengono che un’AI davvero generale non possa basarsi unicamente sulla “previsione della parola successiva”, ma debba arricchirsi di moduli dedicati al ragionamento, all’interazione ambientale e all’elaborazione di valori prestabiliti. Riguardo all’Occidente, la ricerca cita alcuni esperti che condividono le riserve cinesi, evidenziando il rischio di affidarsi a una crescita dimensionale che non sempre garantisce un autentico “motore di ragionamento” capace di distinguere tra vero e falso o di gestire correttamente sfumature linguistiche.


Sotto il profilo strategico, i risultati potrebbero rispecchiare quanto accaduto in settori come il fotovoltaico e l’automotive elettrica. In quei casi, la Cina ha pianificato con largo anticipo una filiera industriale solida, arrivando a dominare la produzione dei pannelli solari e sviluppando un vero ecosistema nell’ambito delle batterie e dei veicoli elettrici. Nella visione delineata dalla ricerca, un approccio similare applicato all’intelligenza artificiale si basa su investimenti coordinati, sinergie tra istituzioni accademiche e governative, e un orientamento costante verso applicazioni di interesse nazionale, dall’industria fino ai servizi sociali.


Questa impostazione, mirata a garantire un controllo più raffinato di algoritmi e infrastrutture, sfocia in progetti che non rimangono confinati a piccoli laboratori sperimentali. Centri come il Beijing Institute for General Artificial Intelligence riuniscono numerosi gruppi di ricerca specializzati, abbracciando linee che vanno dalle reti neurali a impulsi fino alle architetture ibride, in cui blocchi simbolici e reti deep learning convergono in un’unica piattaforma. Alcune sperimentazioni testano già la capacità dei sistemi di cogliere segnali paralinguistici o intenzioni comunicative, come l’ironia e il sarcasmo, attraverso dataset dialogici più ricchi di sfumature.


È significativo osservare che un assistente virtuale addestrato con tecnologie ibride e sensoriali possa interpretare correttamente la frase “Bel lavoro!” in base al contesto, distinguendo il complimento genuino da un commento sarcastico legato a un inconveniente appena occorso. Questo tipo di comprensione contestuale, unito all’efficienza energetica e alla possibilità di incorporare valori specifici nella progettazione di base, mostra il tentativo di rendere l’intelligenza artificiale non solo performante dal punto di vista computazionale, ma anche consapevole delle dinamiche sociali.


Nel panorama occidentale si assiste, invece, a un interesse maggiormente rivolto all’estensione delle capacità generative dei grandi modelli linguistici, trainato dai capitali dei colossi tecnologici. Alcune voci critiche mettono in guardia dal rischio di focalizzarsi troppo su un’unica via e invitano a una maggiore diversificazione. Nel frattempo, in Cina, la combinazione di architetture “brain-inspired”, sensori ambientali e apparati etici integrati costituisce una traiettoria ben distinta, sostenuta dalle risorse finanziarie statali e dalla spinta istituzionale. La competizione globale, in questa prospettiva, non verte soltanto sulle performance tecniche ma anche sull’abilità di ogni Paese di plasmare l’AI secondo i propri princìpi e obiettivi di sviluppo, disegnando un futuro in cui la sfera tecnologica e quella socioculturale si intrecciano in modo sempre più inscindibile.


Applicazioni e innovazione verso l’intelligenza artificiale generale

La parte finale della ricerca mette l’accento sulle possibili strade da seguire per chi intende sviluppare soluzioni AI scalabili e al contempo vicine alle vere capacità cognitive umane. Le aziende e i centri di ricerca occidentali più lungimiranti iniziano a chiedersi se non valga la pena affiancare moduli di ragionamento simbolico, algoritmi di rinforzo su robot o elementi di “neuroispirazione” ai classici modelli linguistici trasformativi.


Diversi studi cinesi citati evidenziano, ad esempio, test di riconoscimento visivo combinati con modelli linguistici, in cui un sistema dotato di telecamere e sensori tattili acquisisce la capacità di descrivere l’ambiente circostante e di interagire con oggetti fisici. In ambiente di laboratorio, un braccio robotico controllato da una rete neurale ispirata a processi biologici dimostra progressi nella capacità di assemblare piccoli dispositivi, apprendendo dai propri errori con maggiore adattabilità rispetto ai tradizionali modelli LLM. Sebbene questi risultati siano ancora in fase sperimentale, evidenziano la possibilità di un significativo avanzamento nella comprensione da parte dei modelli di intelligenza artificiale, grazie all’integrazione di modelli cognitivi e all’interazione con l’ambiente circostante.


Un altro esempio citato riguarda l’intenzione di costruire piattaforme di dialogo che incorporino un “modello di valori” interno, in modo da generare risposte conformi a standard prestabiliti in ambito medico o legale. Invece di “addestrare” post hoc il sistema correggendo ogni deviazione, l’obiettivo consiste nel dotarlo fin dall’inizio di principi che ne guidino la ricerca di soluzioni. Se ben implementata, questa idea potrebbe rendere le applicazioni AI più prevedibili e sicure, riducendo il rischio di diffondere informazioni errate o contenuti potenzialmente pericolosi per la collettività.


La ricerca ribadisce, tuttavia, che tutto ciò richiede una sinergia tra competenze diverse: neuroscienziati, psicologi cognitivi, esperti di etica e ingegneri specializzati in hardware avanzato. Se la Cina riesce a unire in modo coordinato queste competenze, grazie anche a un sostegno finanziario e politico coeso, l’Occidente deve riflettere se convenga insistere su un modello di sviluppo trainato da colossi privati focalizzati principalmente sui ritorni immediati. Per i dirigenti aziendali occidentali e per i decisori politici, la posta in gioco non riguarda solo la leadership tecnologica, ma anche l’impatto sociale e industriale di sistemi AI che, potenzialmente, potrebbero trasformare interi settori economici.


Questa visione complessiva, che comprende l’uso di grandi modelli linguistici in settori come la gestione aziendale e il settore medico, accanto allo sviluppo di reti neurali ispirate alla biologia, spinge a un ripensamento delle competenze interne alle imprese. Da un lato occorrono figure specializzate nell’ottimizzazione dei parametri LLM; dall’altro occorrono ricercatori capaci di integrare input da robot, sensori e basi di conoscenza simboliche. Il “modello di business” della futura AI potrebbe così diventare ibrido, con piattaforme che incorporano sia la potenza della correlazione statistica su dati massivi sia la profondità dell’approccio cognitivo avanzato.


Conclusioni

La ricerca, con un approccio sobrio e privo di enfasi, invita a una riflessione concreta: le scelte attuali nella progettazione di grandi modelli linguistici possono favorire progressi significativi in alcune aree, ma non assicurano necessariamente l’emergere di un’intelligenza comparabile a quella umana. Gli ingenti investimenti dedicati finora all’intelligenza artificiale generativa in Occidente potrebbero non tradursi in un reale avanzamento verso la GAI, rischiando di trascurare percorsi alternativi potenzialmente più promettenti.


Sotto il profilo strategico, questa evidenza suggerisce implicazioni di rilievo per le imprese di ogni dimensione. La diversificazione non appare un lusso accademico, bensì una necessità tangibile per chi desidera assicurarsi che gli investimenti in AI abbiano effettivi ritorni. L’integrazione di componenti ispirate alla biologia, la combinazione con sistemi simbolici e un più stretto legame con l’hardware specializzato costituiscono possibili vantaggi competitivi. In un confronto con le tecnologie simili già esistenti, si intravede la differenza tra un potenziale avanzamento incrementale e la creazione di piattaforme che “capiscano” il mondo, gestendo in modo più robusto l’incertezza informativa.


Sul piano della governance, chi prende decisioni di alto livello ha davanti a sé l’opzione di potenziare la ricerca pubblica e incentivare la collaborazione tra università, centri di eccellenza e imprese. L’esempio cinese mostra che, con una direzione statale forte, è possibile promuovere una varietà di approcci, dall’uso di reti neurali biologicamente ispirate alla robotica cognitiva, in parallelo alla crescita dei modelli linguistici di grande scala. Per imprenditori e manager, tradurre questa visione in pratica significa esplorare segmenti di mercato che potrebbero nascere da applicazioni AI con livelli di ragionamento più vicini al modo di pensare umano, garantendo un’interazione fluida fra sistemi digitali e attori reali.


In definitiva, la ricerca invita a riconoscere che non esiste ancora un consenso unanime su quale percorso condurrà all’intelligenza artificiale generale. Questo apre spiragli per chi intenda proporre progetti originali, evitando di adagiarsi sulla spinta dei soli LLM. Investire in modelli ibridi, in processi di apprendimento basati sull’esplorazione di un ambiente fisico e in architetture “valoriali” potrebbe portare risultati che, in futuro, surclassino gli standard attuali. Per aziende e dirigenti, il consiglio implicito è di non lasciare che le mode del momento “succhino l’ossigeno” a ogni altra linea di sviluppo: la partita dell’AI è molto più ampia e il tempo per una strategia lungimirante è adesso.


Comentarios

Obtuvo 0 de 5 estrellas.
Aún no hay calificaciones

Agrega una calificación
bottom of page