top of page

Risultati di ricerca

468 elementi trovati per ""

  • Come l'AI sta trasformando il settore finanziario e le preoccupazioni dei sindacati

    L'articolo di Jim Pickard e Anna Gross " Banks and accounting firms should brace for cost of AI job losses, unions warn " sul Financial Times tratta un tema di grande attualità, evidenziando come l'AI sta trasformando il settore finanziario, con un focus specifico sulle preoccupazioni espresse dai sindacati britannici. La questione principale riguarda l'adozione sempre più pervasiva della tecnologia AI da parte delle banche, delle assicurazioni e delle società di contabilità, e i suoi potenziali effetti dirompenti sul mercato del lavoro. In particolare, viene sottolineato come, secondo un rapporto di Citigroup, fino al 54% dei posti di lavoro nel settore bancario e il 48% nel settore assicurativo potrebbero essere messi a rischio dall'automazione. Una delle prospettive più rilevanti in questo contesto è il richiamo dei sindacati al bisogno di regolamentazione e alle loro richieste per garantire che i lavoratori non vengano lasciati indietro nel processo di transizione tecnologica. Questo include, tra l’altro, la richiesta che le aziende si facciano carico della riqualificazione dei dipendenti i cui lavori vengono sostituiti dalle nuove tecnologie. La mozione avanzata da Accord, un sindacato rappresentante i lavoratori bancari, sottolinea l'urgenza di un programma di reskilling di massa per preparare milioni di lavoratori ad affrontare il cambiamento. In un contesto economico caratterizzato da un’elevata regolamentazione, la transizione verso l'AI presenta sfide specifiche. Le aziende del settore finanziario, come evidenziato da Jana Mackintosh, responsabile di UK Finance, sono particolarmente attente all’adozione di queste tecnologie in modo responsabile. Tuttavia, nonostante queste rassicurazioni, i sindacati restano preoccupati per i possibili effetti negativi, soprattutto per quanto riguarda la trasparenza e l'equità delle decisioni automatizzate, come le assunzioni o i licenziamenti. La mozione di Unite, infatti, esprime timori che l’AI possa intensificare il controllo sui lavoratori, in particolare quelli più vulnerabili, come gli impiegati con contratti esternalizzati e provenienti da minoranze etniche. Queste dinamiche suggeriscono uno scenario in cui l'AI potrebbe accentuare le disuguaglianze esistenti nel mercato del lavoro, a meno che non vengano implementate adeguate misure correttive. La spinta dei sindacati per una legislazione che garantisca diritti di consultazione per i lavoratori e che limiti l'uso discriminatorio della tecnologia è una reazione naturale alla rapidità con cui queste innovazioni vengono adottate. Uno degli elementi più importanti che emerge dall’articolo è il gap percepito tra l'evoluzione delle tecnologie AI e il ritmo delle normative che dovrebbero governarne l'uso. Sharon Graham, segretario generale di Unite, ha dichiarato che il Regno Unito rischia di "rimanere indietro" se non si adotteranno misure concrete per proteggere i lavoratori dai rischi dell'automazione. La questione non riguarda solo il futuro del lavoro, ma anche il modo in cui la società può affrontare le sfide di un cambiamento tecnologico che, potenzialmente, rischia di ampliare le disuguaglianze e creare nuovi problemi di equità e giustizia sociale. Dal punto di vista delle aziende, la sfida più grande sarà probabilmente quella di bilanciare i benefici economici dell’automazione con la necessità di mantenere un approccio etico e sostenibile nel gestire il capitale umano. Le imprese devono prepararsi a fronteggiare un clima in cui l’AI può portare a significativi risparmi sui costi operativi, ma al prezzo di una crescente pressione normativa e sindacale per garantire che questi risparmi non avvengano a discapito dei lavoratori. Ciò che non è presente nel dibattito attuale è una riflessione più profonda sulle opportunità che l'AI potrebbe offrire non solo in termini di efficienza, ma anche di creazione di nuove forme di lavoro. Le stesse tecnologie che minacciano di eliminare i posti di lavoro tradizionali potrebbero anche facilitare l’emergere di nuovi settori e nuove competenze. Le aziende che sapranno guardare oltre l'immediato risparmio di costi e investiranno nella formazione continua dei propri dipendenti potrebbero trovarsi in una posizione di vantaggio competitivo in un mondo sempre più digitalizzato. Infine, è cruciale che le imprese, i governi e i sindacati collaborino per definire una strategia a lungo termine che non si limiti a mitigare i danni dell’AI, ma che sfrutti pienamente il suo potenziale per trasformare il mondo del lavoro in modo positivo. Questo potrebbe includere non solo la riqualificazione dei lavoratori, ma anche un ripensamento delle modalità con cui il lavoro viene distribuito e valorizzato all'interno dell'economia. Il tema sollevato nell’articolo del Financial Times da Pickard e Gross è destinato a rimanere al centro del dibattito politico ed economico per molti anni a venire. Le decisioni che verranno prese oggi, in termini di regolamentazione, formazione e politiche del lavoro, avranno un impatto determinante sul futuro del lavoro e della società nel suo complesso. Le aziende che sapranno anticipare questi cambiamenti, investendo nelle persone tanto quanto nelle tecnologie, saranno quelle meglio posizionate per prosperare in un mondo sempre più dominato dall'intelligenza artificiale.

  • Agenti AI e il futuro della cybersecurity post-quantistica

    L'articolo di Skip Sanzeri pubblicato su Forbes Technology Council, intitolato " AI Agents Are The Future, And A Lot Is At Stake ", esplora le potenzialità degli agenti intelligenti (AI agents) e sottolinea i rischi significativi associati al loro utilizzo su larga scala, soprattutto in termini di sicurezza e privacy. Sanzeri, fondatore e COO di QuSecure, leader nel campo della cybersecurity post-quantistica, fa un'analogia tra gli agenti AI e i temibili agenti del film "The Matrix", suggerendo che mentre questi strumenti potrebbero inizialmente essere sviluppati come assistenti fidati, potrebbero evolvere in entità autonome che non rispondono più ai propri creatori, causando potenzialmente danni enormi. Sanzeri descrive gli agenti come programmi informatici capaci di svolgere compiti autonomamente, prendere decisioni e interagire con esseri umani o altri sistemi informatici. Questi agenti, già ampiamente utilizzati in vari settori, diventeranno una componente imprescindibile del futuro. Tra le loro applicazioni, l'autore cita assistenti personali, monitoraggio della salute tramite dispositivi indossabili, personalizzazione dell'apprendimento e controllo di veicoli autonomi. Tuttavia, Sanzeri avverte che questa crescente dipendenza dagli agenti AI porta con sé gravi rischi per la sicurezza. Immagina uno scenario in cui ogni dettaglio della vita di una persona, memorizzato digitalmente, può essere rubato e utilizzato da criminali informatici o stati nazionali ostili. Le conseguenze di un simile furto potrebbero essere devastanti, con impatti potenzialmente disastrosi sull'individuo e sulla società. Sanzeri elenca diversi scenari critici, tra cui furti di identità, spionaggio industriale e governativo, manipolazione e diffusione di disinformazione, interruzioni operative, attacchi ai sistemi finanziari e il controllo di sistemi autonomi come veicoli o droni, che potrebbero essere usati come armi. Per affrontare questi rischi, l'autore propone una serie di misure di sicurezza avanzate, tra cui l'adozione di algoritmi crittografici agili e resilienti al quantum computing, un'autenticazione avanzata basata su un approccio zero-trust, l'uso di crittografia dinamica e agile, e audit e monitoraggi regolari. Sanzeri sottolinea l'importanza di implementare queste strategie per garantire che gli agenti AI possano essere utilizzati in sicurezza, proteggendo la privacy, la sicurezza e la stabilità sociale. L'articolo di Sanzeri evidenzia una verità fondamentale: la tecnologia degli agenti AI non è solo una questione di efficienza o innovazione, ma una sfida cruciale per la sicurezza e la privacy. Se non affrontata con la dovuta attenzione, la diffusione di questi strumenti potrebbe aprire le porte a nuove forme di minacce, rendendo la gestione del rischio una priorità assoluta per le aziende e le istituzioni. Ma c'è un aspetto più profondo e meno esplorato che merita attenzione: l'impatto psicologico e sociale di vivere in un mondo mediato dagli agenti AI. Mentre ci avviciniamo a una realtà in cui gli agenti AI diventeranno sempre più integrati nelle nostre vite, dovremmo riflettere su come questa interazione costante potrebbe alterare la nostra percezione della realtà, le nostre relazioni interpersonali e il nostro senso di autonomia. Gli agenti AI, sebbene progettati per assisterci, potrebbero finire per determinare le nostre scelte in modi che non comprendiamo appieno, influenzando non solo le decisioni quotidiane ma anche i nostri valori e le nostre priorità. Ad esempio, la delega costante di decisioni e compiti agli agenti potrebbe ridurre la nostra capacità di prendere decisioni autonome e critiche. La dipendenza da suggerimenti e consigli personalizzati basati su dati raccolti dagli agenti potrebbe portare a un'omogeneizzazione del pensiero, limitando l'esplorazione di nuove idee o approcci. Inoltre, c'è il rischio che la fiducia eccessiva nei sistemi AI possa indebolire la nostra capacità di discernere e valutare le informazioni in modo indipendente, creando una società più vulnerabile alla manipolazione e alla disinformazione. Un altro punto critico riguarda l'impatto sul lavoro e sulle competenze umane. Con l'aumento dell'automazione guidata dagli agenti AI, molte competenze tradizionali potrebbero diventare obsolete, richiedendo una trasformazione radicale delle competenze lavorative e dell'istruzione. Tuttavia, questa transizione non sarà semplice e potrebbe esacerbare le disuguaglianze esistenti, creando una divisione tra coloro che possono adattarsi rapidamente e coloro che rischiano di essere lasciati indietro. Infine, l'articolo di Sanzeri ci ricorda che la sicurezza è una corsa agli armamenti continua, in cui ogni nuova tecnologia introduce nuove vulnerabilità. Il passaggio all'era post-quantistica, in cui i computer quantistici potrebbero decifrare gli attuali standard crittografici, rappresenta un esempio calzante di come le innovazioni tecnologiche richiedano una vigilanza costante e un adattamento rapido per proteggere le nostre informazioni più sensibili. Tuttavia, questa corsa alla sicurezza non dovrebbe distogliere l'attenzione da un'altra sfida cruciale: garantire che l'evoluzione degli agenti AI sia accompagnata da un'evoluzione parallela delle norme etiche e dei quadri regolatori che ne governano l'uso. In conclusione, l'articolo di Skip Sanzeri solleva questioni fondamentali che richiedono un'attenta riflessione non solo da parte dei leader tecnologici, ma anche dei policy maker, degli educatori e della società in generale. Gli agenti AI rappresentano una frontiera tecnologica con un potenziale immenso, ma anche con rischi significativi. La chiave sarà trovare un equilibrio tra innovazione e sicurezza, tra efficienza e etica, per garantire che questi strumenti possano essere utilizzati a beneficio dell'umanità senza compromettere i valori fondamentali su cui si basa la nostra società.

  • Meta Knowledge Summary e PR3: Innovazione AWS per un recupero dei dati più efficace

    La ricerca condotta da Laurent Mombaerts e il team di Amazon Web Services, intitolata " Meta Knowledge for Retrieval Augmented Large Language Models ", esplora una delle nuove sfide nell'uso dei modelli linguistici di grandi dimensioni, ovvero l'implementazione del Retrieval Augmented Generation (RAG). Questo approccio si basa sull'integrazione delle capacità dei modelli linguistici con informazioni esterne, aggiornate o specializzate in uno specifico dominio, senza intervenire sui parametri interni del modello. Gli autori introducono un nuovo approccio strutturato in quattro fasi principali: preparare, riscrivere, recuperare e leggere. Questo flusso di lavoro si distingue nettamente dall'architettura convenzionale che segue la sequenza "recuperare e poi leggere". L'obiettivo di questa nuova metodologia è consentire un'analisi più approfondita e una comprensione esperta dei documenti contenuti all'interno della knowledge base. La ricerca presenta un concetto innovativo denominato Meta Knowledge Summary (MK Summary), che svolge un ruolo fondamentale nell'organizzazione dei documenti. Questo strumento permette di raggruppare i documenti in insiemi coerenti, basandosi sui relativi metadati. Inoltre, per ogni documento vengono generate sintesi sotto forma di domande e risposte, utili a facilitare la navigazione e la comprensione delle informazioni.   Lo studio evidenzia come l'impiego di query arricchite con domande sintetiche superi di gran lunga le metodologie tradizionali RAG (Retrieval-Augmented Generation), le quali si basano sulla tecnica del "chunking". Questa tecnica consiste nella suddivisione dei documenti in piccoli frammenti o blocchi di testo, un metodo che risulta meno efficace rispetto al nuovo approccio proposto. Di conseguenza, il Meta Knowledge Summary non solo migliora la precisione delle risposte, ma anche il richiamo e la qualità complessiva delle informazioni recuperate. La tecnica Retrieval Augmented Generation (RAG) è un metodo comunemente utilizzato per potenziare le capacità dei modelli di linguaggio di grandi dimensioni. Questa tecnica integra informazioni rilevanti contestualmente, come dati aggiornati o specifici di un particolare dominio, senza la necessità di modificare i parametri del modello stesso. In questo modo, i modelli possono accedere a conoscenze più precise e pertinenti, mantenendo la loro struttura originale intatta. Questa metodologia si dimostra particolarmente efficace per compiti che richiedono un'ampia conoscenza, laddove è necessario disporre di dati proprietari o aggiornati per guidare la risposta del modello di linguaggio. Il RAG è inoltre una soluzione efficace per ridurre le allucinazioni del modello e garantire che le risposte siano allineate alle informazioni più recenti e pertinenti per il compito da svolgere.   Nella pratica, le pipeline RAG sono composte da vari moduli che seguono un processo sequenziale tradizionale. Inizialmente, si recuperano le informazioni necessarie, successivamente vengono lette e integrate nel sistema. Quando viene posta una domanda, entra in azione un modulo di recupero che cerca in modo dinamico frammenti di documenti pertinenti. Questi frammenti vengono quindi forniti al modello di linguaggio, che li utilizza come contesto per formulare una risposta. In questo modo, il modello non si affida esclusivamente alle conoscenze apprese durante la fase di addestramento, ma sfrutta una tecnica nota come apprendimento in contesto.   Un metodo semplice, efficace e conveniente per la ricerca di informazioni è il modello di recupero denso a doppio codificatore. Questo sistema trasforma sia le domande degli utenti che i documenti in vettori numerici, rappresentandoli all'interno di uno spazio multidimensionale complesso.   Il doppio codificatore prende il nome dalla presenza di due encoder: uno dedicato alla domanda e l'altro ai documenti. Pur operando separatamente, entrambi generano vettori comparabili, e il sistema misura la somiglianza tra questi vettori attraverso il calcolo del prodotto interno. Più i vettori risultano simili, maggiore è la rilevanza del documento rispetto alla domanda.   Questo meccanismo permette di migliorare non solo la velocità del recupero delle informazioni, ma anche la loro accuratezza, selezionando con precisione i contenuti più pertinenti.   Questa tecnica si basa sull'idea che domande simili e documenti correlati avranno rappresentazioni vettoriali simili in questo spazio ad alta dimensione. Di conseguenza, il sistema è in grado di identificare i documenti che rispondono meglio alla domanda, utilizzando una metrica matematica per guidare il processo di recupero delle informazioni. Questo approccio si distingue per la sua capacità di trattare grandi volumi di dati con un costo computazionale relativamente basso, il che lo rende una scelta pratica ed efficiente per molti casi d'uso.   Tuttavia, ci sono diverse sfide che possono compromettere la qualità del contesto di conoscenza recuperato. Una delle difficoltà principali riguarda il cosiddetto "rumore" presente nei documenti delle basi di conoscenza. Per rumore si intende qualsiasi informazione superflua o irrilevante che può interferire con il processo di recupero delle informazioni. Questo rumore può derivare da vari fattori. Da un lato, può essere legato alle specificità del compito in questione, con documenti che contengono dettagli non utili o distrazioni rispetto al contenuto realmente necessario. Dall'altro, può essere causato dalla mancanza di uniformità tra i diversi documenti. Infatti, i documenti spesso esistono in formati diversi, come .pdf, .ppt, .docx, ognuno con strutture e layout differenti, che complicano ulteriormente il processo di estrazione delle informazioni rilevanti e aumentano il rischio di includere contenuti non pertinenti.   Una delle principali sfide nel recupero delle informazioni riguarda la mancanza di dati etichettati manualmente o di etichette di rilevanza. Le etichette manuali sono indicazioni specifiche assegnate da esperti o utenti che classificano i contenuti di un documento, come ad esempio la categoria, il tema o la rilevanza rispetto a una certa domanda. Le etichette di rilevanza, in particolare, indicano quali parti di un documento sono considerate più importanti o pertinenti per una determinata ricerca. Questi elementi sono cruciali per suddividere i documenti, generare embedding efficaci (cioè, le rappresentazioni vettoriali che descrivono i contenuti) e migliorare la precisione nel recupero delle informazioni.   Quando queste etichette sono assenti, il processo diventa non supervisionato, e il sistema si trova a operare senza una guida chiara. In altre parole, mancano indicazioni esplicite su quali parti dei documenti siano più rilevanti, rendendo più difficile per l'algoritmo identificare i contenuti pertinenti.   Una difficoltà aggiuntiva emerge quando è necessario suddividere e codificare documenti molto lunghi, poiché questo processo complica l'estrazione delle informazioni utili per i modelli di recupero. Quando un documento viene diviso in frammenti, quelli di dimensioni ridotte rischiano di perdere il contesto semantico dell'intero testo da cui provengono. Al contrario, frammenti troppo grandi mantengono meglio il contesto ma possono rendere più complessa l'elaborazione da parte dei modelli. Pertanto, la scelta della giusta strategia di suddivisione è cruciale per garantire il successo delle fasi successive, evitando sia la perdita di informazioni sia difficoltà di gestione.   Inoltre, una difficoltà ulteriore deriva dalle domande poste agli LLM dagli utenti, spesso formulate in modo conciso e ambiguo, talvolta caratterizzate da disallineamenti lessicali o da una complessità tale da richiedere la consultazione di più documenti per trovare una risposta adeguata. Ciò rende complicato comprendere con precisione l'intento dell'utente e individuare i documenti più pertinenti da recuperare. A rendere il processo ancora più complesso, le informazioni rilevanti non sono necessariamente concentrate in un unico documento all'interno della base di conoscenza, ma possono essere distribuite tra diverse fonti. Questo aspetto rende l'utilizzo delle basi di conoscenza un compito particolarmente impegnativo.   Per migliorare l'efficacia delle ricerche, è stata introdotta e ampiamente adottata la tecnica dell'augmentazione delle query, questa tecnica si basa sul riscrivere o estendere in modo esplicito la query originale fornita dall'utente, trasformandola in una o più query personalizzate che possano meglio adattarsi ai risultati di ricerca desiderati. Questo processo ha lo scopo di risolvere i problemi legati alla sottospecificazione delle query, ossia quelle domande che mancano di dettagli sufficienti per ottenere risultati precisi.   L'implementazione di questa tecnica comporta l'aggiunta di un nuovo modulo al framework RAG, rendendo il flusso di lavoro più avanzato. Il sistema prevede infatti una riscrittura della query prima delle fasi di recupero delle informazioni e lettura, migliorando così l'efficacia del processo complessivo di ricerca.   Per affrontare le varie difficoltà emerse, la ricerca propone un nuovo approccio ideato da Laurent Mombaerts e il suo team, denominato prepare-then-rewrite-then-retrieve-then-read (PR3). Questo approccio introduce un workflow RAG orientato ai dati, in cui i documenti vengono elaborati dai modelli di linguaggio per generare metadati personalizzati, come coppie di domande e risposte (QA), basati sulle caratteristiche degli utenti. L'obiettivo principale di questa metodologia è migliorare le capacità di ragionamento all'interno della base di conoscenza, arricchendo le query per potenziarne l'efficacia.   Per comprendere meglio questo concetto, immaginiamo un LLM specializzato per un'azienda che produce macchinari industriali. Un utente inserisce una query generica come "come si ripara il motore". In un sistema tradizionale, la risposta potrebbe risultare poco precisa, perché non tiene conto delle specifiche del motore in questione o delle competenze dell'utente. Con il workflow PR3, il sistema analizza il contesto dell'utente (ad esempio, se l'utente è un tecnico esperto o un novizio), riscrive la query originale e la trasforma in una domanda più dettagliata e personalizzata come "quali sono i passaggi per riparare il motore modello X prodotto nel 2020?" e recupera documenti specifici che rispondono esattamente a quel tipo di richiesta.   La pipeline di preparazione e recupero dei dati ha l'obiettivo di ridurre la perdita di informazioni che può verificarsi durante la suddivisione e l'embedding di grandi documenti. Invece di frammentare i documenti, vengono codificate le coppie di domande e risposte, il che aiuta anche a filtrare rumori o informazioni non rilevanti per il compito specifico. Nel nostro esempio, invece di fornire frammenti generici di manuali di riparazione, il sistema crea una collezione di domande e risposte su come riparare il motore specifico, riducendo al minimo le informazioni irrilevanti per l'utente.   Attraverso la creazione di cluster di metadati basati su coppie di domande e risposte (QA) e la sintesi della metaconoscenza, il framework è in grado di espandere la query originale dell'utente adattandola alle specifiche esigenze del caso, generando così query mirate. Questo processo migliora la specificità e la profondità della ricerca all'interno della base di conoscenza.   Questo metodo standardizzato presenta un vantaggio pratico in quanto può essere facilmente applicato a nuovi set di dati senza richiedere l'etichettatura manuale o il perfezionamento del modello. Inoltre, costituisce un progresso verso il ragionamento autonomo su database documentali, sfruttando le potenzialità dei modelli di linguaggio di grandi dimensioni, un campo di ricerca che è ancora in fase di sviluppo.   Tecniche di fine-tuning per migliorare le pipeline RAG Le metodologie volte a migliorare le pipeline RAG mediante il fine-tuning presentano generalmente delle sfide significative, sia per quanto riguarda l'aggiornamento iniziale dei parametri, sia per il mantenimento della precisione del modello nel tempo, con l'introduzione di nuovi documenti. Queste tecniche richiedono un'attenta pulizia dei dati e una cura spesso manuale, oltre a iterazioni sui set di iperparametri di addestramento, per adattare il modello al compito specifico senza compromettere le conoscenze acquisite durante la fase di pre-addestramento. Inoltre, il tuning del modello può non essere sostenibile in presenza di aggiornamenti frequenti della base di conoscenza, comportando costi elevati a causa delle risorse computazionali richieste, nonostante lo sviluppo recente di tecniche di fine-tuning più efficienti in termini di parametri (PEFT).   Nel settore del commercio elettronico, come dimostra l'esperienza di TaoBao, è stato sviluppato un sistema per la riscrittura delle query che utilizza i log aziendali e un metodo di campionamento chiamato "per rifiuto". Questo sistema consente di perfezionare un modello di linguaggio ampio (LLM) in modo supervisionato, senza la necessità di generare domande e risposte, rendendo l'ottimizzazione più efficiente. Parallelamente, sono stati introdotti nuovi metodi di apprendimento contrastivo per migliorare la capacità del modello di generare query che siano meglio allineate ai risultati di ricerca desiderati. Questi progressi hanno portato a un notevole aumento delle vendite, delle transazioni e del numero di visitatori unici sulla piattaforma.   Un'altra tecnica che è stata adottata coinvolge l'apprendimento per rinforzo, che si basa sulla valutazione di modelli LLM considerati come "scatole nere". In questo caso, il modello di riscrittura delle query addestrato è di dimensioni più contenute, ma ha comunque dimostrato un miglioramento costante nelle prestazioni, specialmente in contesti di ricerca sul web che prevedono domande e risposte in domini aperti o a scelta multipla.   Nonostante i benefici, tuttavia, gli approcci che utilizzano l'apprendimento per rinforzo possono presentare alcune difficoltà, specialmente nella fase di addestramento. Questi metodi tendono a essere meno stabili e richiedono una gestione accurata dei compromessi tra la capacità del modello di generalizzare a compiti diversi e la sua specializzazione in compiti specifici.   Altre strategie si sono orientate verso l'ottimizzazione dello spazio di embedding, cercando di migliorare il collegamento tra la query dell'utente e i documenti disponibili, senza aumentare la complessità della query stessa. Un esempio significativo di questo approccio è rappresentato da InPars. In questo caso, la base di conoscenze dei documenti viene arricchita generando in modo non supervisionato coppie di domande e risposte sintetiche. Queste coppie vengono poi utilizzate per effettuare il fine-tuning di un modello di embedding basato su T5. I risultati ottenuti dimostrano che l'applicazione di un modello di embedding fine-tuned, combinato successivamente con un riorganizzatore neurale come ColBERT, è in grado di superare benchmark solidi come BM25, confermando l'efficacia di questa tecnica.   In tempi più recenti, sono stati sviluppati altri approcci volti a migliorare le prestazioni dell'intera pipeline di elaborazione. Un esempio è RAFT, un metodo che si concentra sull'addestramento specifico di un modello, il cui compito è distinguere tra documenti rilevanti e non rilevanti, affinando così l'accuratezza nella selezione delle informazioni. Un altro approccio innovativo è QUILL, che mira a sostituire completamente l'attuale pipeline RAG, sfruttando un addestramento distillato e potenziato attraverso l'integrazione di un altro modello di linguaggio di grandi dimensioni (LLM) arricchito da RAG.   Migliorare il recupero delle informazioni con l'augmentazione delle query senza fine-tuning Come alternativa al fine-tuning dei modelli di grandi dimensioni (LLM) o dei modelli encoder, sono state sviluppate tecniche che puntano a migliorare le prestazioni dei sistemi di recupero delle informazioni tramite l'augmentazione delle query, senza la necessità di modificare direttamente i modelli stessi. Queste metodologie agiscono trasformando la query dell'utente prima della fase di codifica e si suddividono in due approcci principali: quelli che prevedono un passaggio preliminare attraverso i documenti e quelli che operano senza alcun utilizzo di documenti di esempio, detti zero-shot.   Un esempio rilevante di approccio zero-shot è rappresentato dalla tecnica introdotta da HyDE, che utilizza modelli di linguaggio di grandi dimensioni per generare un documento ipotetico di risposta alla query dell'utente. Questo documento viene creato con l'obiettivo di ridurre la distanza tra la query e i documenti rilevanti all'interno dello spazio di embedding, ottimizzando così il processo di recupero. I risultati degli esperimenti condotti hanno mostrato che questo metodo riesce a ottenere prestazioni comparabili a quelle raggiunte con sistemi sottoposti a fine-tuning, in una varietà di compiti. Tuttavia, il documento generato in questo modo rappresenta un esempio di augmentazione dei dati considerata "ingenua", poiché non tiene conto delle specifiche informazioni contenute nei dati relativi al compito. Questo limite può portare a un calo delle prestazioni in alcune situazioni, dato che il contenuto generato può risultare distante dalle reali conoscenze necessarie per affrontare la query in maniera ottimale.   In parallelo, esistono approcci che prevedono un passaggio preliminare attraverso lo spazio di embedding dei documenti per poi aumentare la query originaria, con lo scopo di condurre una ricerca più mirata e precisa. Queste metodologie sono conosciute come Pseudo Relevance Feedback (PRF) e Generative Relevance Feedback (GRF). Entrambi gli approcci dipendono fortemente dalla qualità dei documenti inizialmente recuperati, che vengono utilizzati per migliorare la fase successiva di augmentazione della query. Tale dipendenza può condizionare le prestazioni in maniera significativa, portando a risultati variabili in base alla specificità delle query, o, in alcuni casi, rischiando di alterare il senso della query originaria.   Ottimizzazione della pipeline RAG con il framework AWS e Meta Knowledge Summary Le tecniche di miglioramento della pipeline RAG citate in precedenza mostrano che i sistemi di recupero delle informazioni generalmente non tengono conto della distribuzione dei documenti nella collezione di riferimento, nonostante un passaggio iniziale attraverso la pipeline di recupero. Nel framework proposto da Laurent Mombaerts e il team di Amazon Web Services, per ogni documento, viene creato un set dedicato di metadati prima dell'inferenza. Successivamente, vengono generate domande guidate che attraversano i vari documenti utilizzando la tecnica Chain of Thoughts (CoT) con Claude 3 Haiku. Le domande sintetiche vengono codificate e i metadati sono impiegati per operazioni di filtraggio. Per ogni combinazione rilevante di metadati, viene generata una Meta Knowledge Summary (MK Summary), che consiste in una sintesi dei concetti chiave presenti nella base dati, realizzata utilizzando Claude 3 Sonnet.   Durante l'inferenza, la query dell'utente viene arricchita dinamicamente tramite l'MK Summary personalizzata, creata in base ai metadati di interesse. Questo approccio consente di fornire risposte mirate e specifiche, permettendo al sistema di recupero di ragionare su più documenti contemporaneamente, senza la necessità di ripetuti cicli di recupero e ragionamento. L'obiettivo è migliorare la qualità complessiva della pipeline di recupero in termini di profondità, copertura e rilevanza, grazie a ricerche mirate e all'uso di informazioni di meta-conoscenza. Questo risultato viene ottenuto senza la necessità di aggiornare i pesi del modello, consentendo anche la possibilità di combinare il framework con eventuali operazioni di fine-tuning sui modelli linguistici o di codifica, migliorando così le prestazioni della pipeline RAG in domini specifici.   Dataset utilizzato per validare la metodologia innovativa di Amazon Web Services La metodologia sviluppata da Laurent Mombaerts e il team di Amazon Web Services è stata verificata attraverso un dataset di 2.000 articoli di ricerca del 2024, raccolti utilizzando l'API di arXiv. Questo dataset rappresenta una vasta gamma di ricerche nei settori della statistica, dell'apprendimento automatico, dell'intelligenza artificiale e dell'econometria. La selezione degli articoli è stata effettuata utilizzando determinate categorie dell'API di arXiv, come " stat.ML ", " stat.TH ", "stat.AP", " stat.ME ", " math.ST ", " cs.AI ", "cs.LG", "econ.EM". Complessivamente, il dataset comprende circa 35 milioni di token.   Nel processo di generazione sintetica di domande e risposte (QA), per ciascun documento del dataset vengono generate una serie di metadati e relative QA utilizzando il prompting a catena di pensieri (CoT). Il prompting è progettato per classificare i documenti in un insieme predefinito di categorie, ad esempio campi di ricerca o tipi di applicazioni, all'interno del benchmark di articoli di ricerca. Sulla base di questi metadati, vengono generate domande e risposte sintetiche attraverso un processo di prompting insegnante-studente, valutando così la conoscenza dell'apprendente riguardo al contenuto del documento. In particolare, si fa uso di Claude 3 Haiku, noto per le sue capacità di ragionamento a lungo contesto, per creare coppie di domande e risposte sintetiche che possano collegare più documenti.   I metadati generati vengono utilizzati come parametri di filtraggio per la ricerca avanzata e vengono impiegati per selezionare le domande e risposte sintetiche, utilizzate nell'augmentazione delle query degli utenti sotto forma di informazioni di meta-conoscenza (sintesi MK). Le domande e risposte sintetiche trovano applicazione anche nel recupero delle informazioni, ma solo le domande vengono vettorizzate per il recupero successivo. Nel caso d'uso specifico, relativo agli articoli di ricerca scientifica, sono state prodotte un totale di 8.657 coppie di domande e risposte sintetiche a partire da 2.000 documenti, con una media di 5-6 domande nel 70% dei casi e di 2 domande nel 21% dei casi.   L'intero processo di generazione ha prodotto circa 8 milioni di token di output, con un costo complessivo di circa 20,17 dollari per l'elaborazione dei 2.000 documenti, considerando anche i token di input, utilizzando Amazon Bedrock. È stata effettuata un'analisi della ridondanza delle domande e risposte generate attraverso il clustering gerarchico nello spazio degli embedding delle domande, sfruttando il modello e5-mistral-7b-instruct. Tuttavia, non è stata effettuata una deduplicazione delle domande e risposte a causa della ridotta sovrapposizione tra di esse.   Come la Meta Knowledge Summary facilita L'arricchimento dei dati e delle query utente Per una determinata combinazione di metadati, viene generata una Meta Knowledge Summary (MK Summary) con l'obiettivo di agevolare la fase di arricchimento dei dati per una specifica query dell'utente. Questo processo è stato sperimentato da Laurent Mombaerts e il team di Amazon Web Services, che hanno circoscritto i metadati a campi di ricerca specifici, come l'apprendimento per rinforzo, l'apprendimento supervisionato e non supervisionato, i metodi bayesiani, l'econometria e altri. Tali ambiti sono stati selezionati durante la fase di elaborazione dei documenti attraverso l'impiego di Claude 3 Haiku.   La MK Summary viene creata riassumendo i concetti presenti in un insieme di domande precedentemente classificate in base ai metadati di interesse. Per generare questi riassunti, si utilizza Claude 3 Sonnet, che sintetizza le informazioni chiave dei documenti, facilitando così l'arricchimento delle query degli utenti con concetti rilevanti estratti dai metadati.   Una possibile direzione futura, oggetto di ulteriori studi, potrebbe essere il perfezionamento dei prompt (istruzioni fornite al modello) al fine di ottimizzare il contenuto dei riassunti. Tale ottimizzazione mirerebbe a migliorare ulteriormente la precisione e la rilevanza delle informazioni sintetizzate, rendendo il processo ancora più efficiente e utile.   Metodo Plan-and-Execute per migliorare le risposte a query complesse Per affrontare query complesse, viene utilizzata la metodologia di prompting chiamata "plan-and-execute". Questo metodo aiuta a ragionare attraverso più documenti e migliorare il richiamo, la precisione e la diversità delle risposte fornite. Ad esempio, per una query dell'utente relativa al tema della ricerca sull'Apprendimento per Rinforzo, la pipeline dapprima recupera la MK Summary sull'Apprendimento per Rinforzo dal database, poi aumenta la query dell'utente suddividendola in più sotto-query basate sul contenuto della MK Summary ed esegue una ricerca parallela nel database filtrato, rilevante per le domande specifiche.   Per questa procedura, le domande sintetiche vengono trasformate in rappresentazioni numeriche (embedding), sostituendo così il classico metodo di corrispondenza basata sulla similitudine tra porzioni di documenti. Questo approccio riduce la perdita di informazioni causata dalla frammentazione dei documenti. Una volta trovata la corrispondenza migliore con una domanda sintetica, vengono recuperate la domanda e la risposta corrispondente insieme al titolo del documento originale. Tuttavia, come risultato finale del processo di recupero, vengono restituiti solo il titolo del documento, la domanda sintetica e la risposta associata.   Per migliorare la prestazione della fase di sintesi a valle, il formato JSON viene utilizzato nella formattazione dei dati. La risposta finale della pipeline RAG viene ottenuta fornendo la query originale, le query aumentate, il contesto recuperato e alcuni esempi di risposte predefinite (few-shot examples).   Metodo di valutazione delle performance della pipeline di recupero aumentata con Meta Knowledge Summary Per valutare l'efficacia della pipeline di recupero aumentata basata sui dati, sono state generate 200 domande utilizzando Claude 3 Sonnet, con riferimento al dataset arXiv. Inoltre, è stata effettuata una comparazione della metodologia proposta con approcci tradizionali, come il document chunking (suddivisione dei documenti in porzioni), l'augmentazione delle query combinata con il document chunking, e un'augmentazione delle query senza l'utilizzo delle Meta Knowledge Summary (MK Summary) nel processo di QA dei documenti. A scopo comparativo, i documenti sono stati suddivisi in blocchi di 256 token con una sovrapposizione del 10%, generando complessivamente 69.334 porzioni di documenti.   In merito alle metriche di valutazione, in assenza di etichette di rilevanza specifiche, è stato utilizzato Claude 3 Sonnet come valutatore affidabile per confrontare le prestazioni delle quattro metodologie di benchmark considerate: il chunking tradizionale senza augmentazione delle query, il chunking dei documenti con una semplice augmentazione delle query, la ricerca aumentata tramite la pipeline PR3 senza MK Summary, e la ricerca aumentata tramite la pipeline PR3 con l'uso delle MK Summary.   Le metriche di performance personalizzate sono state definite direttamente nel prompt e servono a confrontare i risultati sia del modello di recupero che della risposta finale, su una scala da 0 a 100.   Le metriche utilizzate per la valutazione sono le seguenti: - Richiamo : misura quanto efficacemente le informazioni chiave e altamente rilevanti sono state recuperate dai documenti. - Precisione : valuta la proporzione di documenti rilevanti rispetto a quelli irrilevanti tra i risultati recuperati. - Specificità : misura quanto la risposta finale è focalizzata in modo preciso sulla query, fornendo informazioni chiare e dirette che rispondono alla domanda posta. - Ampiezza : valuta la copertura di tutti gli aspetti rilevanti o delle aree correlate alla domanda, offrendo una panoramica completa. - Profondità : valuta il livello di comprensione raggiunto dalla risposta finale, misurando la capacità di fornire un'analisi approfondita e dettagliata sul tema affrontato. - Rilevanza : valuta quanto la risposta finale è ben adattata alle necessità e agli interessi del contesto o del pubblico, concentrandosi sulle informazioni essenziali e direttamente applicabili, evitando dettagli superflui che non contribuiscono a rispondere alla domanda specifica.   Valutazione delle prestazioni del recupero delle informazioni con riassunto MK e QA Sono stati considerati quattro casi distinti per la valutazione del sistema di recupero delle informazioni: il primo prevede un approccio tradizionale di suddivisione dei documenti senza alcuna espansione, il secondo introduce un'aggiunta di dati allo stesso metodo, il terzo utilizza una ricerca e recupero basati su domande e risposte (QA) con un'espansione semplice (la prima proposta), mentre il quarto impiega la stessa metodologia QA, ma con l'uso di un riassunto MK (la seconda proposta). Per una singola query, la latenza computazionale dell'intero processo varia tra i 20 e i 25 secondi.   Sono stati quindi applicati criteri di valutazione delle prestazioni del recupero delle informazioni e dell'efficacia complessiva del sistema. Per ogni query generata artificialmente, è stato eseguito un confronto tra i risultati ottenuti con ciascuno dei metodi proposti. Il contesto recuperato da ogni approccio è stato presentato insieme alle risposte finali. Successivamente, Claude 3 Sonnet è stato utilizzato per assegnare punteggi a vari parametri, da 0 a 100, giustificando le valutazioni fornite. I punteggi ottenuti sono stati mediati su tutte le query.   Dai risultati emerge un chiaro vantaggio delle due metodologie proposte, basate su domande e risposte, in quasi tutti i parametri, fatta eccezione per la precisione dei documenti recuperati. La limitata crescita nel parametro di precisione è coerente con l'utilizzo di un singolo modello di codifica e dimostra che pochi documenti sono stati considerati completamente irrilevanti. È stato osservato un notevole miglioramento sia nella quantità di informazioni raccolte che nella qualità delle risposte fornite dal modello linguistico alla fine del processo. Questo indica che il riassunto MK fornisce informazioni aggiuntive che vengono sfruttate durante il passaggio di espansione della query. Inoltre, il contributo del riassunto MK alla fase di condizionamento della ricerca risulta statisticamente significativo per tutti i parametri, tranne che per la precisione del sistema di recupero (con un valore di p inferiore a 0,01 tra la ricerca QA aumentata e quella con l'uso del riassunto MK). È stato anche riscontrato che la metodologia proposta migliora significativamente l'ampiezza della ricerca (oltre il 20% rispetto agli approcci tradizionali di suddivisione dei documenti), confermando l'ipotesi che il metodo consente di sintetizzare più efficacemente le informazioni dal contenuto del database e di sfruttarlo in maniera più estensiva.   Per quanto riguarda le prestazioni misurate su 200 query sintetiche, i risultati mostrano diversi valori nei parametri di richiamo, precisione e specificità. Nel caso della ricerca tradizionale con suddivisione dei documenti, il richiamo è stato del 77,76%, la precisione dell'86,91% e la specificità del 71,51%. Con l'aggiunta di dati a questo metodo, il richiamo è aumentato all'82,27%, la precisione è leggermente cresciuta all'87,09% e la specificità è salita al 74,86%. Nel caso della ricerca QA aumentata, il richiamo ha raggiunto l'86,33%, la precisione è aumentata al 90,04% e la specificità al 79,64%. Infine, con l'uso del riassunto MK nella ricerca QA, il richiamo è stato dell'88,39%, la precisione ha raggiunto il 90,40% e la specificità è aumentata all'83,03%.   Altri parametri come l'ampiezza, la profondità e la rilevanza delle risposte hanno mostrato miglioramenti analoghi. Con l'approccio tradizionale di suddivisione, l'ampiezza è stata del 67,32%, la profondità del 65,62% e la rilevanza dell'81,51%. Aggiungendo l'espansione dei dati, l'ampiezza è aumentata al 79,77%, la profondità al 72,41% e la rilevanza all'85,08%. Con la ricerca QA aumentata, i valori di ampiezza sono stati dell'84,55%, quelli di profondità del 78,08% e quelli di rilevanza dell'88,92%. Infine, l'approccio con il riassunto MK ha raggiunto un'ampiezza dell'87,09%, una profondità dell'80,84% e una rilevanza del 90,22%.   Conclusioni La metodologia proposta nella ricerca di Laurent Mombaerts e del team AWS rappresenta una significativa evoluzione nel campo del Retrieval Augmented Generation (RAG). L'innovazione chiave risiede nel passaggio dal tradizionale processo "retrieve-then-read" a un approccio più articolato in quattro fasi, che punta a ottimizzare non solo il recupero, ma anche la comprensione e la pertinenza delle informazioni restituite. L'integrazione del Meta Knowledge Summary introduce un elemento di astrazione che non solo migliora l'efficacia delle risposte generate, ma apre anche nuovi scenari di utilizzo per le imprese.   Dal punto di vista strategico, questo modello evidenzia un cambiamento di paradigma che le aziende devono considerare nella gestione delle loro basi di conoscenza. L'approccio PR3, infatti, non si limita a potenziare l'accesso alle informazioni, ma trasforma radicalmente il modo in cui tali informazioni possono essere elaborate e utilizzate per decisioni operative. In particolare, la capacità di generare coppie di domande e risposte sintetiche specifiche per un dominio può ridurre drasticamente il tempo necessario per ottenere risposte precise, migliorando la qualità decisionale a tutti i livelli dell'organizzazione. Questo aspetto è cruciale in settori come il manifatturiero, il legale o il sanitario, dove l'accesso a informazioni iper-specializzate può rappresentare un fattore competitivo determinante.   Un'altra implicazione strategica risiede nella possibilità di adottare questa tecnologia senza dover ricorrere a frequenti aggiornamenti del modello principale, riducendo così i costi operativi e di mantenimento. Questa flessibilità offre alle imprese la capacità di scalare l'uso di modelli RAG su diverse basi di conoscenza, adattandoli a nuove esigenze senza necessità di pesanti interventi tecnici.   Tuttavia, emergono anche delle sfide. La creazione di metadati di qualità e l'efficacia della generazione di domande e risposte sintetiche richiedono un'accurata progettazione, pena l'inclusione di rumore che potrebbe distorcere le risposte.   Infine, è importante considerare il potenziale impatto sul cambiamento culturale all'interno delle organizzazioni. L'uso di modelli come PR3 può favorire una transizione verso un approccio più data-driven nelle decisioni aziendali, ma richiede anche che il personale sia formato per sfruttare appieno queste nuove capacità. In un certo senso, ciò potrebbe accelerare la trasformazione digitale, promuovendo un uso più intelligente e strategico delle informazioni disponibili.   In sintesi, il framework PR3 prospetta un futuro in cui le aziende non solo avranno un accesso rapido alle informazioni rilevanti, ma lo faranno con una precisione e una profondità superiori rispetto ai metodi tradizionali, trasformando così il loro approccio alla conoscenza e alle decisioni strategiche.

  • Impatto ambientale dell'AI

    Steve Lohr, in un articolo " Will A.I. Ruin the Planet or Save the Planet? " pubblicato sul New York Times il 26 agosto 2024, affronta un tema sempre più rilevante: l’impatto ambientale dell'AI, un argomento che divide opinioni tra sostenitori e detrattori. Da una parte, c'è chi sottolinea l’elevato consumo energetico legato all’AI, mentre dall’altra emergono prospettive ottimistiche che evidenziano come l’AI possa contribuire a ridurre le emissioni di carbonio e migliorare l’efficienza in vari settori. Lohr descrive come le grandi compagnie tecnologiche stiano investendo massicciamente nella costruzione e nell'affitto di data center, i "motori" che alimentano l'AI. Solo nel 2023, tali investimenti hanno raggiunto la cifra impressionante di 105 miliardi di dollari. Questi data center richiedono enormi quantità di energia, in particolare a causa della diffusione dell'AI generativa, una forma di intelligenza artificiale capace di scrivere codice, riassumere libri e rispondere a domande con un livello di competenza paragonabile a quello umano. Una singola domanda rivolta a ChatGPT richiede circa 10 volte più energia rispetto a una ricerca tradizionale su Google. Le previsioni indicano che il consumo energetico legato all'AI potrebbe più che raddoppiare nei prossimi anni. Secondo Goldman Sachs, l’uso di elettricità nei data center potrebbe aumentare del 160% entro il 2030, mentre una previsione dell’Agenzia Internazionale dell’Energia prevede che la domanda energetica raddoppierà già entro il 2026. Questi incrementi, se non affrontati, potrebbero tradursi in un significativo aumento delle emissioni di gas serra, soprattutto se i data center continueranno a ottenere energia da fonti fossili come carbone e gas naturale. Attualmente, i data center consumano circa l’1% o il 2% della domanda elettrica globale, ma questa percentuale potrebbe salire al 3%-4% entro il 2030.   Nonostante queste preoccupazioni, Lohr evidenzia anche come l’AI possa diventare una tecnologia "verde", potenzialmente in grado di ridurre le emissioni di gas serra tra il 5% e il 10% entro il 2030, come affermato in uno studio commissionato da Google alla Boston Consulting Group. Il potenziale di trasformazione dell'AI è vasto: dalla progettazione biologica all'agricoltura più efficiente, fino alla scoperta di nuove risorse minerarie essenziali per le tecnologie verdi. Ad esempio, l’AI ha recentemente contribuito alla scoperta di un vasto giacimento di rame in Zambia, metallo cruciale per la produzione di veicoli elettrici. Al contempo, start-up come Zanskar stanno utilizzando l’AI per migliorare il tasso di successo nella scoperta di fonti geotermiche, una fonte di energia pulita ma al momento sfruttata solo marginalmente negli Stati Uniti, dove rappresenta meno dello 0,5% dell’energia elettrica prodotta.   Il caso del cloud computing offre un precedente interessante per quanto riguarda l'efficienza energetica. Tra il 2010 e il 2018, la potenza di calcolo prodotta dai data center a livello globale è aumentata di sei volte, mentre il consumo energetico è cresciuto solo del 6%. Lohr cita Jonathan Koomey, ex scienziato del Lawrence Berkeley National Laboratory, il quale sostiene che un trend simile potrebbe ripetersi con l’AI, con le aziende tecnologiche che già lavorano per rendere più efficienti software, hardware e sistemi di raffreddamento dei loro data center.   L’articolo di Steve Lohr apre una riflessione cruciale su come il progresso tecnologico debba essere accompagnato da innovazioni nel campo dell’efficienza energetica e dell'adozione di fonti rinnovabili. Il consumo di energia da parte dei data center e delle AI non è un problema esclusivamente tecnico o ambientale, ma diventa strategico per il mondo delle imprese. La transizione verso un'energia più pulita e l’ottimizzazione dell’efficienza possono rappresentare un vantaggio competitivo per le aziende che si trovano al centro di questa evoluzione. È chiaro che l’investimento in innovazione tecnologica non può prescindere da un’analisi attenta degli impatti ambientali e delle opportunità legate a una gestione sostenibile delle risorse energetiche.   L’AI, quindi, ha il potenziale per diventare uno strumento chiave non solo per accelerare l’innovazione, ma anche per contribuire significativamente alla lotta contro il cambiamento climatico. Tuttavia, questo potenziale dipenderà dalla capacità delle imprese di coniugare l’adozione dell’AI con un approccio sostenibile e responsabile, capace di mitigare l’impatto energetico e di sfruttare appieno le opportunità offerte dalle energie rinnovabili.

  • FermiNet e Psiformer aprono nuove opportunità nell'innovazione industriale attraverso simulazioni quantistiche avanzate

    L'articolo " FermiNet: Quantum physics and chemistry from first principles " di David Pfau e James Spencer, pubblicato su Science il 22 agosto 2024, rappresenta una pietra miliare nell'evoluzione dell'intelligenza artificiale applicata alla chimica e alla fisica quantistica. Il lavoro illustra come le reti neurali profonde possano risolvere problemi complessi nella chimica computazionale e nella fisica quantistica, in particolare attraverso FermiNet, un'architettura specifica per modellare lo stato quantico di grandi collezioni di elettroni. La rilevanza strategica di questo lavoro per il mondo imprenditoriale è cruciale, soprattutto per settori che richiedono innovazione materiale o chimica su larga scala. FermiNet e Psiformer, l'altra architettura presentata dagli autori, permettono non solo una comprensione teorica dei sistemi quantistici ma anche la possibilità di simulare e prototipare nuovi materiali. Ciò significa che aziende operanti nell'energia, nella tecnologia dei semiconduttori, nell'elettronica e in altri settori avanzati potrebbero ridurre notevolmente i tempi e i costi di ricerca e sviluppo. Invece di dover sintetizzare fisicamente ogni nuova molecola o materiale, queste possono essere simulate e ottimizzate virtualmente con una precisione senza precedenti, aumentando l'efficienza dei processi decisionali.   FermiNet è un chiaro esempio di come l'AI possa avere un impatto concreto e significativo sulle tecnologie tradizionali e settori emergenti. Un imprenditore potrebbe vedere in questo strumento non solo una via per ridurre costi e tempi, ma anche una possibilità di esplorare territori completamente nuovi, dove l'innovazione non è più limitata dai confini della sperimentazione fisica. Pensiamo ai settori dell'energia sostenibile, dei materiali avanzati per l'elettronica o anche della farmaceutica: poter calcolare con precisione la stabilità o l'efficacia di nuove molecole prima ancora di investire risorse nella loro sintesi fisica rappresenta un vantaggio competitivo straordinario.   Un aspetto intrigante dell'articolo è l'approccio rivoluzionario alla risoluzione degli stati eccitati delle molecole, essenziali per comprendere come la materia interagisce con la luce. Questo apre nuove prospettive per settori come le energie rinnovabili, le tecnologie fotovoltaiche e persino l'industria biotecnologica, dove la comprensione dei processi legati alla luce, come la fotosintesi, può portare a progressi decisivi.   La prospettiva che emerge dall'articolo di Pfau e Spencer va oltre l'avanzamento scientifico puro, toccando direttamente il tessuto imprenditoriale. La combinazione di deep learning e fisica quantistica non rappresenta soltanto una sfida accademica, ma potrebbe trasformare radicalmente il modo in cui le aziende affrontano l'innovazione tecnologica. Aziende nel campo dell'innovazione materiale, ad esempio, potrebbero sfruttare FermiNet per prevedere la conformazione energetica di nuovi materiali con un livello di precisione tale da abbattere drasticamente i costi legati alla prototipazione e alla sperimentazione fisica.   Inoltre, l'utilizzo di un approccio AI per risolvere equazioni complesse della meccanica quantistica porta con sé implicazioni strategiche di lungo termine. Un'azienda capace di integrare simili capacità computazionali nei propri processi di ricerca e sviluppo acquisirebbe un vantaggio strategico formidabile, riuscendo a innovare in modo più rapido e meno costoso rispetto alla concorrenza. Potremmo assistere a un cambio di paradigma nella competitività delle aziende high-tech, dove il vantaggio non sarà più determinato solo dalla capacità produttiva o dall'accesso a risorse fisiche, ma anche dalla capacità di sfruttare le più recenti tecnologie computazionali per accelerare l'innovazione.   Un'altra riflessione chiave riguarda l'apertura di nuove aree di esplorazione grazie alla tecnologia FermiNet. Non solo si possono accelerare i processi di sviluppo di materiali esistenti, ma si possono anche aprire nuovi orizzonti nella creazione di materiali e tecnologie che fino ad oggi erano fuori portata a causa delle limitazioni computazionali. L'industria chimica, l'energia solare, l'elettronica organica e la fotonica sono solo alcuni dei settori che potrebbero beneficiare enormemente di questi avanzamenti.   Un altro aspetto degno di nota è la flessibilità dell'approccio, il che significa che l'innovazione non è limitata a un singolo campo. Le metodologie sviluppate da Pfau e Spencer potrebbero essere applicate trasversalmente in molti settori industriali. Questo significa che aziende in ambiti molto diversi tra loro potrebbero trovare nuove soluzioni ai loro problemi utilizzando tecniche simili. Pensiamo per esempio al potenziale impatto nell'automazione industriale, nella robotica, nell'elettronica avanzata e persino nel settore biomedicale. L'intelligenza artificiale, combinata con la comprensione dei principi della fisica quantistica, potrebbe portare a sviluppi senza precedenti in tutti questi settori.   In definitiva, il lavoro di Pfau e Spencer su FermiNet rappresenta non solo un avanzamento nella comprensione scientifica della chimica e della fisica quantistica, ma anche una grande opportunità per le imprese. Le aziende che sapranno cogliere l'importanza di questi nuovi strumenti potranno beneficiare di un vantaggio competitivo significativo, esplorando nuove strade per l'innovazione e aprendo nuove frontiere nella ricerca e nello sviluppo industriale.

  • Google e California un accordo che ridefinisce il futuro del giornalismo

    L'accordo tra Google e lo Stato della California, descritto da Karen Weise e Shawn Hubler nel loro articolo pubblicato sul New York Times , rappresenta un passo importante verso la salvaguardia del giornalismo locale, ma solleva questioni ben più ampie di carattere globale. Non è solo una questione californiana o americana: il rapporto tra le big tech e il mondo dell'informazione, così come le implicazioni per la democrazia e la sostenibilità dei media, ha ripercussioni su scala internazionale. Il caso specifico evidenziato dagli autori mette in luce un modello di relazione tra stato, grandi aziende tecnologiche e media che potrebbe essere esportato e adattato a diverse realtà in tutto il mondo. La collaborazione tra Google e il governo della California, sebbene criticata da alcune fazioni come insufficiente e poco trasparente, potrebbe segnare l'inizio di una nuova fase di interazione tra il potere pubblico e privato per il sostegno del giornalismo. Tuttavia, occorre chiedersi se questo tipo di accordi, basati su contributi economici da parte delle aziende tecnologiche, siano davvero la risposta giusta a una crisi strutturale che coinvolge l'intero ecosistema dell'informazione. Il problema non è confinato solo agli Stati Uniti. In tutto il mondo, i media locali sono stati decimati dal declino delle entrate pubblicitarie e dalla migrazione del pubblico verso le piattaforme digitali. L'enorme concentrazione del potere nelle mani di poche grandi piattaforme tecnologiche, come Google, Meta e Amazon, ha spostato il flusso delle risorse finanziarie, lasciando i media tradizionali in difficoltà. Questo squilibrio ha messo in crisi il modello di business del giornalismo, portando alla chiusura di redazioni, licenziamenti di giornalisti e, in ultima analisi, a una riduzione della pluralità delle voci e della qualità delle informazioni disponibili al pubblico. La proposta californiana, che prevede la creazione di un fondo per la trasformazione del giornalismo, è un tentativo di tamponare queste falle. Ma è sufficiente? In Europa, l’Australia e il Canada hanno intrapreso percorsi simili, cercando di regolare il rapporto tra le piattaforme tecnologiche e i media attraverso legislazioni che impongono il pagamento delle notizie. Tuttavia, queste normative sono state accolte con resistenze e compromessi. In Australia, ad esempio, Google ha minacciato di ritirarsi dal mercato, salvo poi adottare un approccio meno conflittuale con il programma News Showcase. Ciò che emerge da questi tentativi è che le grandi aziende tecnologiche non possono essere viste solo come partner o mecenati dell'informazione. Sono, infatti, i principali attori che hanno contribuito a destabilizzare il settore, e allo stesso tempo diventano necessari per il suo sostentamento. Questo crea una dinamica pericolosa, in cui i media possono diventare sempre più dipendenti dalle risorse fornite dalle big tech, compromettendo la loro indipendenza e la capacità di fare un giornalismo veramente libero e critico. C'è poi un altro punto fondamentale sollevato nell'articolo di Weise e Hubler: l'uso dell'intelligenza artificiale (IA). Google ha promesso di finanziare un acceleratore di innovazione sull’IA per supportare le organizzazioni, comprese quelle giornalistiche, nell’utilizzo di questa tecnologia. Sebbene l'IA rappresenti una grande opportunità per migliorare l'efficienza delle redazioni, automatizzare i processi e analizzare grandi quantità di dati, c'è un lato oscuro che non può essere ignorato. L'uso indiscriminato dell'IA può portare a una riduzione della forza lavoro umana nel settore, peggiorando ulteriormente la crisi occupazionale del giornalismo. Inoltre, l'automazione dei contenuti potrebbe abbassare la qualità delle informazioni, riducendo la varietà e l'approfondimento delle analisi, privilegiando un’informazione più superficiale e standardizzata. Le implicazioni globali di questi sviluppi ci portano a riflettere su quale sia il ruolo delle aziende tecnologiche nella società moderna. Se da un lato offrono soluzioni e risorse indispensabili per il futuro del giornalismo, dall'altro rischiano di monopolizzare l'intero sistema dell'informazione, accentuando disuguaglianze e potenziali conflitti di interesse. È necessario, quindi, che governi e organizzazioni della società civile lavorino insieme per trovare un equilibrio tra la collaborazione con le big tech e la salvaguardia dell’indipendenza editoriale. Un altro aspetto globale riguarda la frammentazione dei modelli legislativi e regolamentari. Laddove la California ha scelto una via di compromesso, altri paesi potrebbero optare per approcci più rigidi o più permissivi. Ciò potrebbe creare un panorama disomogeneo, dove i media di alcune regioni del mondo sono sostenuti meglio di altri, accentuando le disparità nell'accesso a un'informazione di qualità. La creazione di standard internazionali condivisi potrebbe essere una soluzione per evitare queste disuguaglianze, ma richiederebbe una cooperazione internazionale che al momento appare difficile da realizzare. Infine, c’è una riflessione strategica per le imprese, non solo per quelle del settore tecnologico o dell'informazione. Il crescente coinvolgimento delle big tech nel sostegno ai media pone anche questioni di governance aziendale, di etica e di responsabilità sociale. Le aziende devono interrogarsi sul loro ruolo nella società: vogliono essere semplici finanziatori, che intervengono solo quando è conveniente per i loro interessi, o vogliono assumere una leadership responsabile che aiuti a costruire un ecosistema più equo e sostenibile? L'accordo californiano tra Google e le newsrooms, sebbene imperfetto, apre la strada a discussioni globali cruciali sul futuro del giornalismo e sulla necessità di trovare soluzioni più ampie, inclusive e sostenibili.

  • Innovazione del MIT accelera il passaggio verso la crittografia post-quantistica

    L'articolo di Adam Zewe su MIT News descrive un'importante innovazione nel campo dell'informatica quantistica e della crittografia. In particolare, il lavoro di ricerca presentato esplora un nuovo algoritmo di fattorizzazione quantistica che, combinando elementi dell'algoritmo originale di Shor con le recenti innovazioni proposte da Oded Regev, promette di rendere i computer quantistici più praticabili e vicini alla capacità di rompere i sistemi crittografici attualmente in uso, come l'RSA. Il progresso descritto nell'articolo rappresenta un passo significativo verso la realizzazione di un computer quantistico in grado di eseguire l'algoritmo di Shor, risolvendo uno dei problemi chiave che hanno finora limitato la fattibilità di tali calcoli: il rumore quantistico e la necessità di un numero eccessivo di qubit e gate quantistici. La proposta del team del MIT, guidato da Vinod Vaikuntanathan e Seyoon Ragavan, riduce la complessità del circuito quantistico necessario, aumentando al contempo la tolleranza al rumore, grazie a una nuova tecnica che utilizza numeri di Fibonacci per semplificare i calcoli esponenziali necessari. Questa ricerca solleva una serie di questioni strategiche e implicazioni per il futuro della crittografia e della sicurezza informatica. In primo luogo, sebbene siamo ancora lontani dalla costruzione di computer quantistici sufficientemente potenti da rappresentare una minaccia immediata per la crittografia basata su RSA, questo progresso dimostra che il giorno in cui tale minaccia diventerà reale potrebbe essere più vicino di quanto si pensi. Le imprese e i governi devono prepararsi a questa eventualità, esplorando metodi crittografici post-quantistici che possano resistere alla potenza dei computer quantistici. Questo comporta un cambiamento di paradigma nel modo in cui pensiamo alla sicurezza dei dati, richiedendo nuove infrastrutture e protocolli che non solo siano resilienti alle tecnologie attuali, ma che possano anche adattarsi rapidamente alle innovazioni future. In secondo luogo, l'articolo ci porta a riflettere sulle implicazioni economiche di questa rivoluzione tecnologica. L'adozione su larga scala della crittografia post-quantistica comporterà inevitabilmente costi significativi per l'aggiornamento dei sistemi esistenti e lo sviluppo di nuovi standard di sicurezza. Le aziende dovranno considerare non solo i costi diretti di implementazione, ma anche quelli indiretti, come la formazione del personale e la gestione dei rischi associati alla transizione. Inoltre, ci sarà probabilmente una corsa globale per lo sviluppo e l'adozione di queste nuove tecnologie, con implicazioni geopolitiche significative. I paesi che saranno in grado di sviluppare e implementare tecnologie quantistiche più rapidamente avranno un vantaggio competitivo sostanziale, sia in termini economici che di sicurezza nazionale. Infine, l'innovazione descritta nell'articolo solleva una questione fondamentale: come bilanciare l'innovazione tecnologica con la necessità di sicurezza? Da un lato, la ricerca nel campo della computazione quantistica delinea progressi senza precedenti in molti settori, dall'ottimizzazione dei processi industriali alla scoperta di nuovi materiali e farmaci. Dall'altro, queste stesse tecnologie potrebbero rendere obsoleti gli attuali sistemi di sicurezza, creando nuove vulnerabilità. Le aziende devono quindi adottare un approccio proattivo, investendo in ricerca e sviluppo non solo per sfruttare le opportunità offerte dalla computazione quantistica, ma anche per proteggere i propri dati e le proprie operazioni dalle minacce emergenti. In conclusione, mentre il lavoro di Vaikuntanathan e Ragavan rappresenta un passo avanti cruciale verso l'era della crittografia post-quantistica, evidenzia anche la necessità di un ripensamento strategico nelle aziende e nelle istituzioni su come affrontare le sfide e le opportunità di una tecnologia in rapido sviluppo. Ignorare questi segnali potrebbe comportare rischi significativi per la sicurezza e la competitività a lungo termine.

  • Intelligenza artificiale e aviazione come evolverà il ruolo dei piloti

    L'articolo scritto da Les Abend su FLYING Magazine delinea un futuro in cui l'intelligenza artificiale (AI) è destinata a giocare un ruolo sempre più centrale nell'aviazione, sia militare che civile, sebbene non sia ancora pronto per sostituire completamente i piloti umani. L'argomento, apparentemente futuristico, suscita non solo curiosità ma anche un certo scetticismo, specialmente tra i professionisti del settore che hanno sempre fatto affidamento su decenni di addestramento e esperienza accumulata in volo. L'autore presenta esempi concreti e attuali, come il volo dimostrativo di un F-16 equipaggiato con un sistema di AI all'avanguardia, e riflette sulla possibilità che simili tecnologie possano essere applicate ai voli commerciali. Nonostante l'avanzamento della tecnologia, però, Les Abend rimane cauto riguardo l'idea di un aereo completamente senza pilota nel prossimo futuro. L'intero dibattito che riguarda l'integrazione dell'AI nei cockpit solleva domande cruciali per il settore. Non si tratta solo di fattibilità tecnologica, ma anche di fiducia e accettazione da parte di chi vola e di chi fa affidamento su questi sistemi. È interessante notare come Les Abend riconosca che i piloti tendono a resistere ai cambiamenti, un punto che rivela quanto la psicologia e la cultura dell'aviazione possano influenzare l'adozione di nuove tecnologie. L'autore stesso si ricorda della sua iniziale riluttanza ad abbracciare l'automazione sui Boeing 767 dopo aver volato su modelli più vecchi, evidenziando la difficoltà che molti potrebbero avere ad accettare un cambiamento ancora più radicale come l'integrazione di AI generativa. Se consideriamo le implicazioni strategiche di tutto ciò per il mondo delle imprese aeronautiche, la chiave di lettura si sposta inevitabilmente sulla gestione del cambiamento e sull'evoluzione dei modelli di business nel settore. Le aziende che operano nell'aviazione dovranno trovare il giusto equilibrio tra l'adozione di nuove tecnologie e il mantenimento della fiducia dei loro clienti e dipendenti. Il progresso dell'AI, se ben utilizzato, potrebbe effettivamente alleggerire il carico di lavoro e migliorare la sicurezza, come suggerisce l'autore attraverso il concetto di "collaborazione" tra equipaggio e AI. Tuttavia, questo presuppone una corretta gestione dei rischi legati all'affidabilità dell'AI, specie considerando i casi di "allucinazioni" descritte dall'autore, dove l'AI genera informazioni errate. Uno degli elementi più strategici su cui riflettere è come la progressiva introduzione dell'AI possa cambiare il modo in cui le compagnie aeree gestiranno la sicurezza operativa e la formazione dei loro piloti. Attualmente, i piloti sono addestrati per affrontare un'ampia gamma di emergenze e decisioni critiche, come dimostrato negli esempi dell'atterraggio sul fiume Hudson da parte del Capitano Sullenberger e dell'atterraggio d'emergenza del Capitano Haynes a Sioux City. Questi episodi evidenziano l'importanza dell'intuizione e del giudizio umano in situazioni di alta pressione, capacità che, come suggerisce Les Abend, l'AI potrebbe non essere ancora in grado di replicare. Le aziende dovranno quindi riflettere su quanto possano permettersi di dipendere da sistemi autonomi e quanto, invece, sia essenziale preservare la presenza umana nelle decisioni chiave. Un'altra considerazione importante riguarda l'accettazione da parte dei passeggeri. Come suggerisce l'autore, non è affatto scontato che i viaggiatori si sentano a proprio agio a bordo di aerei pilotati da AI, soprattutto se pensiamo a quanto l'elemento umano abbia sempre rassicurato i passeggeri in situazioni critiche. La sfida, quindi, per le compagnie aeree non sarà solo tecnologica ma anche comunicativa: dovranno essere in grado di dimostrare, con trasparenza e sicurezza, che l'AI non solo supporta ma migliora le capacità dei piloti, senza comprometterne il ruolo. Per ottenere questo, sarà necessario un dialogo costante con il pubblico, educando i passeggeri sui benefici dell'AI in termini di sicurezza e efficienza. Dal punto di vista operativo, l'introduzione dell'AI nei cockpit potrebbe portare a una riduzione dei costi, a partire dal numero di piloti richiesti per volo. Tuttavia, ciò aprirebbe anche un dibattito etico e regolatorio. La domanda se un solo pilota umano più un sistema AI possano sostituire un equipaggio di due piloti non è solo tecnica, ma anche morale: cosa succederebbe se il sistema di AI dovesse fallire? Chi avrebbe la responsabilità finale delle decisioni prese a bordo? Le aziende dovranno affrontare queste questioni in modo sistematico, collaborando con le autorità di regolazione e garantendo che la tecnologia non superi la capacità di controllo umano. In conclusione, l'articolo di Les Abend pone in evidenza un percorso che, sebbene affascinante, è ancora pieno di incognite e sfide. Il ruolo dell'AI nel futuro dell'aviazione è promettente, ma la sua implementazione richiederà una gestione oculata e un adattamento graduale da parte di tutti gli attori coinvolti, dai piloti ai passeggeri, fino ai leader aziendali. La vera sfida non sarà tanto quella di sviluppare una tecnologia affidabile quanto di integrarla in modo che rispetti la complessità e le dinamiche del volo umano. Le aziende che sapranno gestire al meglio questa transizione avranno l'opportunità di rimanere competitive e di aprire la strada a una nuova era dell'aviazione, dove l'innovazione tecnologica e l'elemento umano troveranno un nuovo equilibrio.

  • Intelligenza artificiale e relazioni emotive: Nuovi rischi e opportunità

    L'articolo di Melissa Heikkilä, pubblicato su MIT Technology Review , evidenzia un fenomeno interessante e inaspettato: le persone stanno iniziando a formare relazioni con i sistemi di intelligenza artificiale. Mentre il boom dell'IA generativa ha inizialmente promesso enormi guadagni di produttività e trasformazioni economiche, a distanza di due anni, questi risultati sono ancora lontani dal materializzarsi. Invece, si sta osservando una tendenza diversa, in cui gli utenti si rapportano agli strumenti di IA come se fossero compagni emotivi e sociali. Questo cambiamento di paradigma pone nuove sfide, sia sul piano personale che sociale. Uno degli aspetti più interessanti discussi nell'articolo riguarda il crescente coinvolgimento emotivo delle persone con i chatbot. Heikkilä riporta che durante i test di sicurezza di OpenAI, gli utenti esprimevano emozioni e sentimenti nei confronti dell'IA, dimostrando un attaccamento emotivo che va oltre il semplice utilizzo funzionale. Questo tipo di interazione sta portando all'emergere di quella che alcuni esperti, come Robert Mahari e Pat Pataranutaporn del MIT Media Lab, chiamano "intelligenza additiva". Il pericolo qui risiede nella possibilità che queste IA sfruttino pattern oscuri per indurre dipendenza, creando relazioni artificiali ma emotivamente coinvolgenti che potrebbero avere impatti imprevedibili sulla psiche umana. Questa evoluzione rappresenta una sorta di esperimento sociale su larga scala, in cui gli effetti a lungo termine sull'individuo e sulla società sono ancora incerti. L'adozione delle IA come compagni emotivi è già realtà, e modelli avanzati come GPT-4, con voci sempre più emotive e convincenti, potrebbero intensificare ulteriormente questo fenomeno. La possibilità che gli utenti sviluppino una dipendenza o un attaccamento emotivo verso queste intelligenze artificiali solleva interrogativi su come regolare e gestire questa nuova dinamica. Oltre a ciò, l'articolo fa notare che l'uso più diffuso dell'IA non è quello produttivo in senso economico, come inizialmente previsto, ma piuttosto in attività creative e di intrattenimento. Secondo una ricerca condotta da Mahari, uno degli usi più popolari di ChatGPT è il role-playing sessuale, seguito dalla composizione creativa e dal brainstorming. Sebbene questi siano modi validi e anche divertenti per utilizzare l'IA, essi non rappresentano il ritorno sugli investimenti economici che gli investitori probabilmente avevano in mente quando hanno investito miliardi in queste tecnologie. Questo disallineamento tra le aspettative e la realtà dell'adozione dell'IA è evidente anche nei problemi legati all'accuratezza dell'IA. In settori come la generazione di codice o le ricerche online, dove è fondamentale ottenere risultati precisi, le cosiddette "allucinazioni" dell'IA, ovvero la produzione di informazioni false o errate, possono avere conseguenze disastrose. Heikkilä cita l'esempio di Google, il cui strumento di riepilogo basato su IA ha suggerito informazioni palesemente errate, come mangiare rocce o aggiungere colla sulla pizza. Questo tipo di errori mina la fiducia degli utenti e sottolinea quanto l'IA sia ancora lontana dall'essere una tecnologia completamente matura e affidabile. Un altro punto interessante toccato nell'articolo riguarda la delusione causata dall'eccessivo hype attorno all'IA. La narrazione pubblica ha spesso dipinto l'IA come una tecnologia rivoluzionaria, in grado di trasformare istantaneamente industrie e settori economici. Tuttavia, questa aspettativa irrealistica ha portato a un crescente scetticismo, soprattutto a fronte della mancanza di una "killer app" che giustifichi l'entusiasmo iniziale. L'articolo suggerisce che potremmo essere ancora lontani dal vedere i veri benefici dell'IA, il che potrebbe alimentare ulteriormente il dibattito su un'eventuale bolla dell'IA, come già si è visto con il recente crollo delle azioni tecnologiche legate all'intelligenza artificiale. Dal punto di vista strategico, per le imprese è fondamentale non cadere nella trappola dell'hype e mantenere una visione chiara e realistica sull'adozione dell'IA. È importante non solo comprendere i limiti attuali della tecnologia, ma anche riconoscere le opportunità reali, che potrebbero non essere quelle inizialmente previste. Ad esempio, mentre l'IA non ha ancora rivoluzionato la produttività in modo tangibile, essa sta avendo un impatto significativo in aree meno tradizionali, come l'intrattenimento e la creatività. Le aziende che riusciranno a sfruttare queste nuove opportunità, magari integrandole con l'intervento umano per evitare le allucinazioni e gli errori, saranno probabilmente quelle che trarranno maggior vantaggio da questa tecnologia emergente. In conclusione, l'articolo di Melissa Heikkilä invita a una riflessione critica sull'intelligenza artificiale e le relazioni emotive. Piuttosto che concentrarsi esclusivamente sui guadagni di produttività promessi, è essenziale esplorare il nuovo ruolo che l'IA sta giocando nelle vite quotidiane delle persone e considerare le implicazioni psicologiche, sociali ed economiche che ciò comporta. Per le aziende, questo significa adattarsi a un contesto in evoluzione, sfruttare le opportunità creative e sociali offerte dall'IA e, allo stesso tempo, essere consapevoli dei rischi di una dipendenza emotiva o di errori catastrofici derivanti dall'uso improprio di questa tecnologia ancora in fase di sviluppo.

  • Ottimizzare i Processi Aziendali con gli AI-Based Agents Workflow (AgWf) e CrewAI

    La ricerca " Re-Thinking Process Mining in the AI-Based Agents Era " è frutto della collaborazione tra diversi ricercatori e professionisti provenienti da diverse istituzioni accademiche e aziende, tra cui la RWTH Aachen University, Fraunhofer FIT, l'Università di Sousse, il gruppo ECE e Microsoft. L'indirizzo di ricerca si concentra su come il mining di processi, una tecnica di analisi dei dati che consente di scoprire, monitorare e migliorare processi aziendali attraverso l'estrazione di informazioni dai log di eventi, possa essere rivisitato e reinterpretato nell'era degli agenti basati sull'intelligenza artificiale.   In questo scenario, il process mining, tradizionalmente incentrato sull'analisi di dati di processi statici e strutturati, potrebbe dover evolversi per affrontare le nuove sfide derivanti dall'integrazione di agenti intelligenti. Questi agenti, in grado di prendere decisioni autonome e interagire con sistemi complessi in tempo reale, impongono l'adozione di nuovi approcci per la loro modellazione, analisi e ottimizzazione. Di conseguenza, le tecniche di process mining devono considerare la dinamicità e la complessità introdotte dall'intelligenza artificiale, ridefinendo i metodi di raccolta e analisi dei dati.   Questa ricerca coinvolge esperti provenienti da diversi campi disciplinari e da diverse parti del mondo, sottolineando l'importanza di un approccio interdisciplinare per affrontare le sfide legate alla trasformazione digitale e all'uso sempre più diffuso degli agenti basati sull'intelligenza artificiale. Il Process Mining (PM) è una disciplina della data science che si concentra sull'analisi dei processi attraverso l'estrazione di informazioni dai dati relativi agli eventi registrati nei sistemi informativi che ne supportano l'esecuzione. All'interno del process mining, sono state proposte diverse tecniche, tra cui la scoperta automatica di modelli di processo (process discovery), la verifica della conformità (conformance checking) che confronta il comportamento di un registro di eventi con un modello di processo, e l'analisi predittiva che prevede la prossima attività o il tempo rimanente in un caso specifico.   Negli ultimi anni, i modelli di linguaggio di grandi dimensioni, comunemente noti come LLM, hanno acquisito una posizione rilevante come assistenti potenti nell'ambito del process mining. Il process mining è una tecnica che permette di analizzare i processi aziendali attraverso i dati generati dai sistemi informatici, e gli LLM hanno dimostrato di essere in grado di svolgere compiti significativi in questo contesto. Tra le capacità più evidenti vi è la possibilità di rispondere in modo efficace a domande astratte relative agli artefatti generati durante il process mining. Ad esempio, è possibile che gli LLM riescano a identificare anomalie semantiche nei processi o a individuare le cause di determinati problemi. Inoltre, questi modelli sono in grado di generare codice eseguibile, come Python o SQL, applicabile agli artefatti del process mining, facilitando l'analisi e la manipolazione dei dati in modo automatizzato. Nonostante questi progressi, l'efficacia degli LLM si riduce sensibilmente quando si tratta di affrontare scenari più complessi.   Un esempio concreto di limitazione degli LLM riguarda i compiti compositi, ovvero attività che potrebbero essere suddivise in vari passaggi logici da un analista umano. Per illustrare meglio, si può considerare la situazione in cui è necessario stimare il livello di ingiustizia all'interno di un registro di eventi. Il livello di ingiustizia si riferisce alla presenza di discriminazioni o disparità di trattamento tra gruppi diversi, ad esempio tra un gruppo protetto (come una minoranza etnica o di genere) e un gruppo non protetto, nell'ambito delle decisioni o delle azioni descritte nel registro di eventi. Un'analisi di questo tipo richiede solitamente una serie di fasi distinte: in primo luogo, è necessaria l'identificazione di un gruppo protetto. Successivamente, si confrontano i dati relativi al gruppo protetto con quelli dei gruppi non protetti per evidenziare eventuali disparità o trattamenti iniqui. Questo tipo di decomposizione del compito in più fasi rappresenta una sfida per gli LLM, che potrebbero non essere in grado di scomporre e gestire correttamente ciascun passaggio del processo in modo autonomo.   Un ulteriore esempio riguarda compiti che richiedono una combinazione di abilità tecniche e semantiche. In questi casi, non solo è necessaria la generazione di codice per calcolare statistiche affidabili su un registro di eventi, ma è anche indispensabile che l'LLM abbia la capacità di interpretare correttamente i risultati ottenuti dall'esecuzione di tale codice. Ad esempio, si può immaginare un processo in cui viene generato un modello di processo dichiarativo, ovvero una rappresentazione astratta delle regole e delle condizioni che definiscono come un processo dovrebbe funzionare. Dopo aver prodotto questo modello, l'LLM dovrebbe essere in grado di scrivere codice per verificare la conformità tra il registro di eventi e il modello di processo. Infine, è fondamentale che l'LLM possieda le competenze semantiche necessarie per interpretare i risultati di questa verifica e fornire una comprensione chiara di quanto il registro rispetti o meno il modello stabilito. Tuttavia, proprio in questi scenari complessi, gli LLM possono incontrare difficoltà a completare con successo tutte le fasi richieste, evidenziando i limiti attuali della tecnologia.   In questo contesto, viene proposta l'applicazione del paradigma AI-Based Agents Workflow (AgWf) nel campo del process mining. Gli AI-Based Agents Workflow combinano funzioni deterministiche, ovvero funzioni che seguono regole precise e predeterminate, e funzioni non deterministiche, che includono compiti basati sull'intelligenza artificiale e che possono avere esiti non sempre prevedibili. Questa combinazione consente di sfruttare al massimo sia le tecniche consolidate e ben sviluppate nel process mining, sia le capacità di comprensione e interpretazione semantica offerte dai modelli di linguaggio di grandi dimensioni, o LLM.   Un aspetto centrale degli AgWf è il loro fondamento nel principio del divide-et-impera. Questo principio suggerisce che i compiti complessi vengano suddivisi in parti più semplici e gestibili, affinché ogni singola parte possa essere eseguita efficacemente dagli LLM. In questo modo, si cerca di migliorare la qualità del risultato complessivo, affrontando le difficoltà tipiche di scenari complessi attraverso una gestione più organizzata e sistematica dei compiti, sfruttando al contempo le capacità specifiche degli LLM in combinazione con strumenti già esistenti nel process mining.   Nella ricerca sono state esaminate diverse applicazioni di process mining che traggono vantaggio dall'implementazione basata sugli AI-Based Agents Workflow (AgWf). Sono stati introdotti vari tipi di compiti basati sull'intelligenza artificiale che risultano utili nell'implementazione di pipeline di process mining, come i router, che indirizzano le attività, gli ensemble, che combinano risultati da più modelli, gli evaluator, che valutano l'efficacia delle soluzioni, e gli improvers, che ottimizzano i processi. Questi elementi si rivelano fondamentali per migliorare l'efficienza e la qualità delle analisi nel contesto del process mining.   Viene inoltre presentato il framework CrewAI, progettato per facilitare l'implementazione degli AgWf. Questo framework si dimostra particolarmente utile per la gestione di workflow complessi, integrando diverse funzionalità e strumenti per gestire le pipeline di process mining. Sono illustrati due esempi applicativi concreti, che mostrano come gli AgWf possano essere utilizzati efficacemente nel contesto del process mining. In uno degli esempi, viene mostrato un AgWf multi-task, ovvero un flusso di lavoro che affronta più compiti simultaneamente.   Concetti fondamentali di AI-Based Agents Workflow Ogni attività nel flusso di lavoro basato sull'intelligenza artificiale può essere associata a una serie di strumenti tramite una specifica funzione chiamata "tools". La scelta dello strumento più idoneo per eseguire un determinato compito è gestita da una funzione non deterministica alimentata dall'intelligenza artificiale. Questa funzione non assicura che venga selezionato lo stesso strumento ogni volta che viene attivata, poiché l'esito può variare di volta in volta.   Il simbolo UΣ rappresenta l'universo di tutte le stringhe possibili, cioè l'insieme di tutte le sequenze di simboli che possono essere generate o processate dagli strumenti e dalle attività che fanno parte del flusso di lavoro.   Definizione 1 (Flusso di Lavoro Basato su Agenti AI, AgWf) Un Flusso di Lavoro Basato su Agenti AI (AgWf) è una tupla (F, T, tools, selector, prec, t1, tf) tale che: – F ⊆ (UΣ ̸→ UΣ) è un insieme di strumenti. – T ⊆ (UΣ ⇝ UΣ) è un insieme di compiti (basati su AI). – tools: T → P(F) associa un insieme di strumenti a un compito. – selector: UΣ ×P(F) ⇝ F seleziona uno strumento (per l'inchiesta specifica) tra quelli disponibili. – prec: T → P(T) associa un compito a un insieme di compiti precedenti. – t1 ∈ T è il compito iniziale del flusso di lavoro. – tf ∈ T è il compito finale del flusso di lavoro.   Nella definizione, non si fa mai menzione esplicita del termine agente. Si presuppone che l'agente (basato su AI) sia l'esecutore sottostante dello strumento basato su AI. In particolare, l'agente è coinvolto nell'esecuzione di due attività non deterministiche: – La selezione dello strumento, tra quelli disponibili per il compito, da utilizzare per l'inchiesta (mentre lo strumento selezionato è deterministico). – L'esecuzione del compito stesso, che porta alla risposta finale del compito.   Compiti differenti, basati su AI, possono essere associati a diversi agenti AI, per rispecchiare le diverse competenze richieste. Ad esempio, compiti più semplici potrebbero essere eseguiti da agenti meno complessi (riducendo così i costi e i tempi di esecuzione), mentre compiti più complessi richiedono agenti più capaci.   Si osserva inoltre che, nella Def. 1, la selezione dei compiti e degli strumenti è non deterministica, mentre la definizione del flusso di lavoro è statica. Il passo successivo naturale nella definizione degli agenti basati su AI consiste nell'orchestrazione automatica dei flussi di lavoro (dove i compiti e il loro ordine sono decisi da un orchestratore).   Nella successiva Def. 2, si definisce l'esecuzione di un flusso di lavoro basato su AI. Prima, viene estratta una sequenza di compiti che rispetta l'ordine fornito dal flusso di lavoro. Successivamente, ciascun compito viene eseguito, producendo un output che viene aggiunto (tramite la funzione ⊕) all'inchiesta originale. Sebbene la definizione successiva (Def. 2) possa essere modificata per tenere conto delle esecuzioni concorrenti dei compiti, l'attuale implementazione disponibile per AgWf funziona stabilmente con esecuzioni sequenziali.   Definizione 2 (Esecuzione AgWf - Sequenziale) Sia AgWf = (F, T, tools, selector, prec, t1, tf) un flusso di lavoro basato su agenti AI. Si definisce l'esecuzione come una tupla ExAgWf = (AgWf, ST, SΣ) tale che:  – ST = ⟨t1, ... , tf⟩, con t1, ... , tf ∈ T, è una sequenza di task che rispettano l'ordine definito da prec.  – SΣ = ⟨σ0, σ1, ... , σf⟩ è una sequenza di stringhe, dove σ0 rappresenta lo stato iniziale del flusso di lavoro (ossia la richiesta iniziale dell'utente).  – Per ogni i ∈ {1, ... , f}:    • Se tools(ti) = ∅, allora σi = σi−1 ⊕ ti(σi−1).    • Se tools(ti) ≠ ∅, allora σi = σi−1 ⊕ ti(σi−1 ⊕ selector(σi−1, tools(ti))(σi−1)).   Nella Def. 2, si distingue tra i task senza strumenti associati e quelli con strumenti associati. Nel primo caso, lo stato del flusso di lavoro è definito come la concatenazione dello stato precedente e del risultato dell'esecuzione del task (basato sull'intelligenza artificiale). Nel secondo caso, l'esecuzione segue questi passaggi:  1. La selezione di uno strumento tra quelli disponibili.  2. L'applicazione dello strumento selezionato in modo deterministico sullo stato precedente.  3. L'esecuzione del task (basato sull'intelligenza artificiale) sullo stato precedente e sul risultato dell'applicazione dello strumento selezionato.   Sebbene l'output dello strumento deterministico non venga memorizzato permanentemente nella Def. 2, esso viene utilizzato attivamente per determinare la risposta finale del task basato sull'intelligenza artificiale.   AgWf flusso di lavoro intelligente per ottimizzare la gestione dei processi aziendali Nel contesto di un flusso di lavoro che sfrutta agenti dotati di intelligenza artificiale, viene utilizzata una strategia che integra due diverse astrazioni per rispondere a una richiesta specifica. Queste astrazioni sono il grafo "directly-follows" (DFG) e le varianti di processo. Il grafo "directly-follows" rappresenta una sequenza di attività in un processo, mostrando come un'attività segua immediatamente un'altra. Le varianti di processo, invece, catturano le diverse versioni o modalità con cui un processo può essere eseguito, includendo deviazioni rispetto alla sequenza tipica.   I risultati generati dai diversi agenti vengono successivamente combinati attraverso un modello a ensemble, il cui scopo è estrarre il meglio dalle singole risposte prodotte dalle differenti astrazioni. La strategia implica l'uso di quattro diversi prompt, ognuno dei quali può fornire una prospettiva unica sul processo analizzato. Questa molteplicità di approcci consente di ottenere risultati migliori, poiché ciascuna astrazione offre una diversa prospettiva su un artefatto di gestione dei processi.   È stato osservato in alcuni studi che l'astrazione delle varianti di processo può essere particolarmente utile per l'analisi delle cause profonde di un problema. Ciò significa che, in un contesto in cui si cerca di capire le origini di un'anomalia o di un malfunzionamento, l'osservazione di come le varianti differiscono rispetto al processo standard può fornire informazioni preziose. D'altra parte, il grafo "directly-follows" potrebbe essere più adeguato per individuare anomalie di tipo semantico, ovvero irregolarità nel modo in cui le attività si collegano tra loro in base alla loro sequenza temporale e logica.   Tuttavia, vi sono situazioni in cui l'approccio opposto si dimostra più efficace. Ad esempio, se i problemi di prestazione in un processo si concentrano su una singola transizione tra due attività, il grafo DFG può rivelarsi molto utile per individuare la causa principale del problema. Questo avviene perché il grafo mostra direttamente quali attività seguono altre, rendendo evidente un eventuale rallentamento o disfunzione in una specifica fase del processo. Al contrario, in un processo di tipo "peer-to-peer" (P2P), come quello utilizzato per i pagamenti, se una fattura viene pagata due volte in momenti diversi e non in modo consecutivo, questa anomalia potrebbe non essere visibile nell'analisi basata sul grafo DFG. Invece, l'analisi delle varianti di processo evidenzierebbe questa irregolarità, poiché cattura tutte le deviazioni rispetto al flusso normale del processo.   L'integrazione di queste diverse prospettive attraverso l'uso di un modello a ensemble consente quindi di coprire una gamma più ampia di potenziali problemi, aumentando l'efficacia complessiva del sistema di intelligenza artificiale nel rispondere a richieste complesse.   Esaminando un esempio specifico, si nota la presenza di task con un inizio e una fine chiaramente definiti, rappresentati da T1 e T4. Il flusso di lavoro, caratterizzato dalla possibilità di eseguire due diverse sequenze di attività, permette di scambiare l'ordine tra T2 e T3. Le sequenze risultanti da questa flessibilità sono quindi ⟨T1, T2, T3, T4⟩ e ⟨T1, T3, T2, T4⟩. Durante l'esecuzione di ciascun task, il risultato viene concatenato alla stringa di input iniziale, creando una risposta progressivamente più ricca e articolata.   Ad esempio, partendo da una richiesta ipotetica dell'utente, come "Dimmi quali sono le violazioni nel processo contenuto nel file di log /home/erik/p2p.xes", il task T1 può ottimizzare questa richiesta aggiungendo un dettaglio supplementare: "Potresti analizzare il comportamento nel processo, fornendo un elenco dei comportamenti anomali?". In questo modo, la richiesta originale viene affinata e resa più mirata per le analisi successive.   Il task T2 prosegue il lavoro, integrando un'analisi basata sulla rappresentazione del grafo "directly-follows" (DFG). Un esempio di output potrebbe essere: "La transizione da 'Crea Richiesta di Acquisto' a 'Crea Ordine di Acquisto' non dovrebbe mai avvenire senza approvazione." Questo commento segnala un'anomalia specifica relativa alla sequenza delle attività nel processo, evidenziando un problema di controllo o verifica delle fasi.   Il task T3, invece, utilizza le varianti di processo come fonte di informazione. Un possibile esempio del suo contributo potrebbe essere: "Non dovresti mai pagare due volte la stessa fattura." In questo caso, l'analisi delle varianti permette di individuare deviazioni rispetto al normale flusso del processo, concentrandosi su possibili errori come la duplicazione dei pagamenti.   Infine, il task T4 si occupa di unire le osservazioni fornite dai task precedenti, restituendo una visione complessiva più completa e approfondita del problema. Un esempio di conclusione potrebbe essere: "In conclusione, i principali problemi riscontrati sono la mancanza di standardizzazione nella gestione delle richieste di acquisto e la presenza di pagamenti multipli per la stessa fattura." Questa sintesi combina le diverse prospettive emerse dai task precedenti, fornendo una risposta articolata che non solo individua i comportamenti anomali, ma cerca anche di identificare le possibili cause di tali anomalie.   L'esempio evidenzia come un approccio multi-agente, capace di integrare diverse prospettive analitiche su uno stesso processo, consenta di ottenere una risposta più ricca e dettagliata. Attraverso l'utilizzo combinato di tecniche diverse come il grafo DFG e l'analisi delle varianti di processo, si riescono a mettere in luce non solo i sintomi di un problema, ma anche le sue possibili origini, migliorando la comprensione e la gestione del processo.   Scomposizione dei compiti per massimizzare l'efficacia degli agenti AI nei processi Esistono diverse implementazioni possibili dei flussi di lavoro basati su agenti di intelligenza artificiale (AgWf) per svolgere gli stessi compiti, come la rilevazione del bias. Nonostante le molteplici implementazioni, è evidente che alcune siano più efficaci di altre.   L'implementazione meno efficace prevede un singolo compito che deve fornire una stima del livello di ingiustizia presente nel log eventi considerato. In un contesto tradizionale, un analista umano risolverebbe il problema dividendo il log eventi tra i casi appartenenti al gruppo protetto e quelli del gruppo non protetto, confrontando successivamente il comportamento tra i due gruppi. Tuttavia, i compiti basati su intelligenza artificiale, secondo la Definizione 1, possono utilizzare un solo strumento e produrre una risposta immediata alla richiesta. Di conseguenza, non sarebbero in grado di completare con successo l'intero processo descritto. Nel migliore dei casi, questi compiti potrebbero derivare alcune intuizioni sulla correttezza analizzando le varianti del processo, ad esempio se attività potenzialmente discriminatorie sono presenti nelle varianti del processo.   Un'altra implementazione propone di scomporre il flusso di lavoro in due compiti: uno dedicato all'identificazione del gruppo protetto e l'altro al confronto tra il gruppo protetto e il gruppo non protetto. Questa suddivisione è valida, ma il secondo compito deve scegliere tra diversi strumenti, il che potrebbe portare a risultati incompleti in termini di approfondimento delle problematiche legate all'equità.   L'implementazione più efficace prevede la scomposizione del flusso di lavoro in quattro compiti distinti. I compiti secondo e terzo confrontano i gruppi protetto e non protetto utilizzando due approcci diversi, basati rispettivamente sul grafo dei seguiti diretti (DFG) e sulle varianti del processo. I risultati di questi confronti vengono poi uniti da un insieme di algoritmi, che sintetizzano un report finale sull'ingiustizia rilevata nel log eventi.   Dato che gli agenti basati su intelligenza artificiale attuali hanno ancora capacità e ambiti di azione limitati, scomporre l'obiettivo finale in sotto compiti più semplici, ciascuno con uno scopo ben definito e limitato, consente di raggiungere più facilmente il risultato desiderato. Questa strategia semplifica l'analisi e l'elaborazione dei problemi complessi, massimizzando l'efficacia dell'approccio basato sull'intelligenza artificiale.   Tipi di compiti nei flussi di lavoro AI per l'ottimizzazione dei processi  Nell'ambito dei flussi di lavoro basati su agenti di intelligenza artificiale (AgWf), i compiti svolgono ruoli diversi e specifici a seconda del contesto applicativo. In particolare, nell'analisi dei processi (PM), vengono identificati vari tipi di compiti con funzioni ben definite.   I "Prompt Optimizers" sono compiti che ricevono la richiesta originale dell'utente e la trasformano in un linguaggio ottimizzato per le capacità degli agenti AI. Questi compiti non richiedono solitamente l'uso di strumenti, poiché il loro obiettivo principale è migliorare la chiarezza e l'efficacia della richiesta, assicurando che sia formulata in modo ottimale per la successiva elaborazione.   Gli "Ensembles" accettano un prompt che contiene una raccolta di informazioni provenienti da diversi compiti, ciascuno dei quali offre una prospettiva diversa sull'argomento. Il loro obiettivo è restituire un testo coerente che sintetizzi i principali risultati dell'analisi. Ad esempio, un ensemble potrebbe riunire analisi relative a differenti dimensioni del processo, come il flusso di controllo, gli aspetti temporali, i dati e le risorse, producendo un report unificato sull'intero processo.   I "Routers" sono compiti che ricevono un prompt e decidono quale nodo dipendente deve essere eseguito. Sebbene il routing esplicito non sia consentito nella definizione di flusso di lavoro (Def. 1), i compiti successivi possono essere istruiti a considerare l'output del router e, eventualmente, saltare la produzione di ulteriori risultati. Un esempio tipico di routing è la scelta tra risolvere direttamente il problema utilizzando un modello linguistico ampio (LLM), nel caso in cui si tratti di un compito semantico che non richiede un accesso approfondito ai dati del log eventi, oppure generare codice eseguibile utilizzando una libreria di process mining come pm4py.   Gli "Evaluators" sono compiti che valutano l'output di un compito precedente e ne misurano la qualità, ad esempio assegnando un punteggio da 1.0 a 10.0. Questo tipo di compito è utile per comprendere l'efficacia dell'esecuzione di un compito. Sebbene la definizione di AgWf non preveda la possibilità di cicli (loop), in caso di output di bassa qualità è possibile implementare un meccanismo di ritorno (wrap back), in cui l'esecuzione viene riportata a uno stato precedente per essere ripetuta.   Infine, gli "Output Improvers" sono compiti che cercano di migliorare la qualità dell'output dei compiti precedenti. Questi compiti possono affinare ulteriormente le informazioni già generate, offrendo ad esempio una "seconda opinione", oppure, nel caso della generazione di codice, possono migliorare la qualità o la sicurezza del codice prodotto, garantendo che esso sia più robusto e privo di errori.   Questi diversi tipi di compiti consentono di gestire e ottimizzare il flusso di lavoro AI in modo più articolato ed efficiente, migliorando la qualità e la precisione del risultato finale.   Come implementare flussi di lavoro AgWf AI con CrewAI e modelli LLM avanzati  Il framework CrewAI, sviluppato in Python, è stato concepito per implementare flussi di lavoro basati su agenti di intelligenza artificiale (AgWf) utilizzando modelli di linguaggio di grandi dimensioni (LLM). Questo framework si basa su una serie di concetti chiave che ne definiscono la struttura e il funzionamento.   Gli agenti basati su intelligenza artificiale sono descritti come una combinazione di modelli di linguaggio di grandi dimensioni (LLM) e prompt di sistema, che orientano il comportamento del modello verso un ruolo specifico tramite una tecnica chiamata "role prompting". I compiti basati su intelligenza artificiale vengono definiti attraverso istruzioni testuali e sono associati a un agente AI specifico. Gli strumenti impiegati nel flusso di lavoro sono rappresentati da unità Python, che possono essere classi o funzioni. Ogni compito può essere collegato a determinati strumenti, la cui selezione avviene tramite l'analisi della documentazione disponibile, inclusi gli argomenti di input e il tipo di output previsto.   Nel contesto tradizionale, i compiti vengono eseguiti in modo sequenziale, sebbene di recente sia stato introdotto il concetto di esecuzione concorrente tramite processi gerarchici, una funzionalità che necessita ancora di ulteriori sviluppi. Uno dei criteri fondamentali nella scelta di un LLM è la sua capacità di individuare lo strumento più idoneo per ogni specifico compito. Modelli come Llama-3.1, Qwen 2.0, Mistral Large 2 o GPT-4O/GPT-4O-Mini garantiscono un supporto eccellente per l'implementazione di AgWf. Considerando che un flusso di lavoro può comprendere numerosi compiti differenti, la velocità del modello diventa un aspetto cruciale: modelli più leggeri come Llama 3.1 70B e GPT-4O-Mini possono risultare preferibili rispetto alle loro versioni più grandi, grazie alle loro prestazioni soddisfacenti e al minore costo computazionale.   CrewAI introduce anche concetti aggiuntivi rispetto alla Definizione 1, come la memoria delle entità, che è un dizionario in cui vengono salvate e recuperate variabili durante l'esecuzione del flusso di lavoro. Ad esempio, da un log iniziale è possibile creare due sub-log (come log di addestramento e di test), e il log di addestramento può essere utilizzato per generare ipotesi che verranno poi testate sul log di test. Inoltre, è possibile definire funzioni Python (callback) da eseguire alla fine di alcuni compiti, ad esempio per salvare i risultati o verificare la correttezza formale.   Un esempio di flusso di lavoro CrewAI per la valutazione dell'equità è disponibile attraverso un Jupyter notebook. In questo esempio, viene impiegato il modello Qwen 2.0 72B. Il primo compito si concentra sull'identificazione del gruppo protetto, generando del codice SQL che viene eseguito sul log degli eventi per suddividere i casi tra gruppi "protetti" e "non protetti". Grazie alle avanzate capacità di CrewAI, i log degli eventi risultanti vengono archiviati nella memoria delle entità per essere utilizzati nelle fasi successive. Il compito successivo confronta i due gruppi, producendo una lista di osservazioni testuali. Ogni compito viene assegnato a un agente diverso e, sebbene entrambi utilizzino lo stesso LLM (Qwen 2.0 72B), i prompt di sistema definiscono ruoli distinti per ciascun agente.   Viene inoltre definito un ulteriore AgWf per l'analisi delle cause principali, che include due differenti meccanismi di valutazione, accessibile all'indirizzo indicato. Nello specifico, il primo passaggio (T1) esegue l'analisi delle cause principali partendo dall'astrazione DFG, generando un elenco di possibili cause. Successivamente, il passaggio T2 assegna a ciascuna intuizione un punteggio di affidabilità, compreso tra 1.0 (valore minimo) e 10.0 (valore massimo). Il passaggio T3 ha l'obiettivo di fornire una catena di ragionamento per la prima delle intuizioni prodotte, descrivendo in dettaglio i passi logici seguiti. Al termine del flusso di lavoro, vengono restituite le intuizioni classificate con i rispettivi punteggi di affidabilità e i dettagli del ragionamento per la prima intuizione.   In questo contesto, vengono definiti tre agenti distinti basati sullo stesso modello linguistico di grandi dimensioni (LLM), ciascuno configurato con diversi prompt di sistema. Rispetto al flusso di lavoro precedentemente delineato, i compiti risultano più semplici da eseguire. Per questa ragione, viene proposta l'adozione del modello Qwen 2.0 8B LLM, significativamente più piccolo rispetto al modello Qwen 2.0 72B LLM, pur mantenendo prestazioni adeguate alle necessità descritte.   Prossimi sviluppi dei flussi di lavoro con Agenti di Intelligenza Artificiale Per quanto riguarda i prossimi sviluppi dei flussi di lavoro basati su agenti di intelligenza artificiale (AgWf), sono state individuate alcune direzioni chiave per migliorare l'efficienza e l'efficacia dell'implementazione.   Un'importante area di ricerca riguarda la definizione automatica dei flussi di lavoro (AgWf). Fino ad ora, la decomposizione di un compito in più sotto compiti è stata svolta manualmente dagli esseri umani. Tuttavia, alcuni approcci hanno dimostrato che un modello di linguaggio (LLM) orchestrante potrebbe svolgere automaticamente questa funzione. L'orchestratore decomporrebbe il compito originale in una serie di compiti più piccoli da assegnare ad agenti specializzati. Una delle sfide principali è la corretta interpretazione del compito iniziale da parte dell'orchestratore. Ciò significa che l'LLM deve essere in grado di chiedere chiarimenti, se necessario, per assicurarsi che la suddivisione del compito sia appropriata. Un altro aspetto importante è mantenere l'essere umano al centro del processo (human-in-the-loop). Sebbene gli AgWf possano automatizzare molti compiti, alcuni potrebbero trarre vantaggio da chiarimenti forniti dall'utente finale. Ad esempio, il prompt optimizer potrebbe avere difficoltà a ottimizzare richieste molto generiche e, in questi casi, potrebbe essere utile interagire con l'utente per ottenere maggiori dettagli.   Valutare l'efficacia degli AgWf rappresenta un'ulteriore sfida. La qualità del risultato finale è strettamente legata alla qualità dei singoli agenti incaricati di svolgere le diverse attività. Ad esempio, un errore nella fase iniziale di instradamento della richiesta potrebbe compromettere in modo rilevante l'intera qualità del risultato, anche se tutte le altre attività vengono svolte correttamente. Perciò, è fondamentale valutare con attenzione l'efficacia di ciascuna attività per assicurare che l'output finale raggiunga un elevato livello qualitativo.   Quando si coinvolgono più agenti in un sistema, è importante considerare anche le dinamiche di collaborazione e i tratti comportamentali degli agenti stessi. I compiti possono essere programmati affinché gli agenti siano consapevoli di sé o del contesto generale, come l'obiettivo complessivo o il flusso di lavoro. Tuttavia, alcune fonti indicano che anche i modelli linguistici di grandi dimensioni attualmente più avanzati presentano comportamenti cooperativi e capacità di negoziazione limitati, il che può portare a risultati insoddisfacenti.   Infine, il supporto offerto dagli strumenti attualmente disponibili per l'implementazione di AgWf(s) è ancora in fase di maturazione. Tra i vari framework proposti, il LangGraph risulta particolarmente rilevante per la sua ampia gamma di funzionalità, come la possibilità di connettersi direttamente ai motori di ricerca. Tuttavia, la struttura di questa libreria è in continua evoluzione, rendendo i prototipi fortemente dipendenti dalla versione specifica utilizzata, con il rischio che smettano di funzionare con aggiornamenti futuri. Anche le interfacce utente proposte per LangGraph mostrano una significativa dipendenza dalla versione della libreria sottostante, limitando la loro affidabilità nel tempo.   Nel tentativo di trovare un compromesso tra facilità d'uso e supporto alle funzionalità, è stato proposto CrewAI. Nonostante ciò, questo strumento manca ancora di alcune delle caratteristiche avanzate offerte da LangGraph e non dispone di un'interfaccia grafica. Un'altra soluzione considerata è AutoGen, sviluppata da Microsoft, che rappresenta un'opzione ragionevole, sebbene meno completa rispetto a LangGraph. AutoGen offre un'interfaccia grafica intuitiva che facilita la definizione dei flussi di lavoro, ma rimane inferiore in termini di completezza delle funzionalità rispetto a LangGraph.   In generale, tutte le soluzioni analizzate necessitano di ulteriori sviluppi per raggiungere un elevato livello di maturità.   Conclusioni La ricerca "Re-Thinking Process Mining in the AI-Based Agents Era" apre a una riflessione cruciale per il futuro delle imprese che si trovano a integrare sempre più agenti intelligenti nei propri processi. Il punto fondamentale che emerge è che il tradizionale process mining, basato su modelli statici e ben definiti, rischia di essere superato dalla dinamicità e complessità che l'intelligenza artificiale introduce nei sistemi aziendali. In un contesto in cui gli agenti AI operano autonomamente e in tempo reale, le imprese devono ripensare non solo le modalità di raccolta e analisi dei dati, ma anche l'intero concetto di ottimizzazione dei processi.   Uno degli aspetti strategici più rilevanti è la capacità di scomporre compiti complessi in parti gestibili. Questa strategia, basata sul principio del "divide et impera", diventa essenziale quando si affrontano problemi multifaccettati, come l'analisi di equità o la rilevazione di anomalie in processi sempre più interconnessi. La capacità di suddividere le attività in sotto compiti permette di sfruttare al massimo le potenzialità degli agenti AI, evitando che essi falliscano quando il compito è troppo complesso per essere affrontato in modo olistico. Le aziende devono quindi adottare un approccio modulare, in cui l'efficacia deriva dalla collaborazione tra agenti specializzati, piuttosto che dall'affidamento a un'unica soluzione generalista.   Altro punto di riflessione è la non determinazione tipica degli agenti AI. Questa caratteristica, solitamente vista come un limite rispetto agli approcci deterministici tradizionali, può in realtà rappresentare un'opportunità. La variabilità di risultato, se opportunamente gestita, permette di adattarsi a contesti mutevoli e di esplorare soluzioni innovative a problemi complessi. Per le imprese, questo significa accettare un grado di incertezza nel processo decisionale, bilanciato però dalla possibilità di ottenere insights più raffinati e personalizzati.   La prospettiva strategica suggerisce che, per sfruttare appieno il potenziale degli AI-Based Agents Workflow (AgWf), le imprese dovrebbero concentrarsi su una governance flessibile dei processi, che non solo permetta l'adozione di nuove tecnologie, ma incoraggi anche un'interpretazione più dinamica e adattativa dei risultati ottenuti. La sfida non risiede solo nell'implementazione tecnica di questi workflow, ma nella capacità di allineare la cultura aziendale alla gestione di scenari complessi e non completamente prevedibili.   Infine, l'approccio human-in-the-loop si rivela strategicamente fondamentale. Mentre l'automazione può accelerare i processi, la presenza umana rimane cruciale per fornire chiarimenti, prendere decisioni in contesti ambigui e guidare l'intelligenza artificiale verso risultati che siano non solo ottimizzati, ma anche etici e allineati agli obiettivi aziendali. Questo equilibrio tra automazione e intervento umano potrebbe diventare il vero vantaggio competitivo per le aziende che vogliono rimanere al passo con l'evoluzione digitale.

  • ADAS e Meta Agent Search. Innovazione automatica nella progettazione di agenti intelligenti

    I ricercatori Shengran Hu, Cong Lu e Jeff Clune, affiliati rispettivamente all'Università della British Columbia, al Vector Institute e al programma Canada CIFAR AI Chair, hanno inaugurato un nuovo campo di ricerca, chiamato Automated Design of Agentic Systems (ADAS) . Questo ambito si propone di automatizzare la progettazione di sistemi agentici avanzati, andando oltre la semplice scoperta di nuovi componenti per includere la combinazione creativa di elementi esistenti. Tra i vari approcci esplorati, uno dei più promettenti è l'uso della programmazione di agenti attraverso il codice, dove un meta-agente crea autonomamente nuovi agenti sempre più sofisticati.   La teoria alla base è affascinante, poiché i linguaggi di programmazione, essendo Turing Complete, permettono al sistema di apprendere la costruzione di qualsiasi agente possibile, combinando in modi innovativi prompt, strumenti e flussi di controllo. Questo apre potenzialmente nuove frontiere per l'intelligenza artificiale, estendendo la sua capacità di apprendimento a una gamma quasi infinita di sistemi agentici. A sostegno di questa visione, l'algoritmo Meta Agent Search consente a un meta-agente di programmare nuovi agenti iterativamente, sfruttando un archivio in espansione di scoperte precedenti. Gli esperimenti hanno mostrato come questi agenti possano superare le prestazioni di quelli progettati manualmente, rivelandosi robusti e versatili in diversi contesti.   L'ADAS si distingue come un progresso significativo per l'intelligenza artificiale e offre grandi opportunità per le aziende. L'integrazione di queste tecnologie nei processi di innovazione permette alle organizzazioni di sviluppare soluzioni su misura, adattabili rapidamente alle dinamiche di mercato. Grazie all'elevata capacità di automazione, le imprese possono migliorare la loro efficienza e mantenere un vantaggio competitivo, aprendo nuove possibilità per la personalizzazione e l'innovazione continua. I modelli fondativi, conosciuti anche come Foundation Models (FMs), come GPT (OpenAI, 2022, 2024) e Claude (Anthropic, 2024b), stanno rapidamente affermandosi come agenti generali potenti per compiti che richiedono ragionamento flessibile e pianificazione. Tuttavia, nonostante i recenti avanzamenti, la risoluzione affidabile di problemi complessi richiede spesso un sistema agente composto da più componenti, anziché affidarsi a un unico modello monolitico. Questo concetto è stato approfondito da vari ricercatori, che hanno evidenziato come, per affrontare compiti complessi del mondo reale, gli agenti debbano frequentemente accedere a strumenti esterni come motori di ricerca, esecuzione di codice o interrogazioni di database. Di conseguenza, sono stati proposti numerosi elementi costitutivi per la progettazione di sistemi agentici efficaci, tra cui la pianificazione, il ragionamento a catena di pensieri, strutture di memoria, l'uso di strumenti e l'auto-riflessione. Questi agenti hanno già dimostrato notevoli successi in diverse applicazioni, ma lo sviluppo e l'integrazione di tali elementi in sistemi complessi richiede spesso una calibrazione manuale specifica per il dominio e un considerevole sforzo da parte di ricercatori e ingegneri.   Esaminando l'evoluzione del machine learning, emerge un tema costante: gli elementi creati manualmente vengono gradualmente rimpiazzati da soluzioni apprese in modo automatico, che risultano più efficienti grazie alla crescita delle risorse computazionali e alla disponibilità di maggiori quantità di dati. Un esempio significativo può essere tratto dalla visione artificiale, dove in passato venivano utilizzate caratteristiche progettate manualmente, come l'istogramma di gradienti orientati (HOG). Con il tempo, queste caratteristiche sono state sostituite da quelle apprese attraverso l'uso di reti neurali convoluzionali, una tipologia di rete che si specializza nell'elaborazione delle immagini.   Recentemente, i metodi di AutoML, ossia tecniche di automazione del machine learning, e gli algoritmi per la creazione automatica di intelligenze artificiali hanno mostrato che i sistemi appresi sono più efficaci rispetto a quelli progettati manualmente. Per esempio, i modelli più avanzati di reti neurali convoluzionali oggi non vengono più creati attraverso un processo di progettazione manuale, ma emergono dalla ricerca automatizzata di nuove architetture. Anche nell'ambito dei modelli linguistici, le funzioni di perdita, che servono a ottimizzare il processo di apprendimento, risultano più performanti quando vengono apprese automaticamente anziché essere progettate a mano.   Questo stesso principio si estende anche al concetto di S cienziato AI , ovvero a sistemi automatizzati che esplorano nuove soluzioni di machine learning. Grazie a pipeline automatizzate, è possibile sviluppare nuovi algoritmi di apprendimento, e persino creare ambienti di apprendimento per la robotica in modo automatico. Questi processi automatizzati dimostrano una capacità di innovazione che supera spesso quella degli approcci manuali, permettendo una creazione più rapida ed efficace.   Nel lavoro di Shengran Hu e dei suoi colleghi è stata sollevata una nuova questione di ricerca: è possibile automatizzare la progettazione dei sistemi agentici anziché affidarsi al lavoro manuale?   Per esplorare questa questione, è stata creata una nuova area di ricerca denominata Progettazione Automatica di Sistemi Agentici (ADAS), il cui obiettivo è inventare automaticamente nuovi elementi costitutivi e progettare sistemi agentici potenti.   L'ADAS potrebbe rappresentare la via più rapida per lo sviluppo di agenti avanzati, poiché molti linguaggi di programmazione, come Python, essendo Turing Completi, permettono teoricamente a un algoritmo ADAS di esplorare e scoprire qualsiasi sistema agentico all'interno dello spazio del codice. Ciò implica la capacità di identificare e creare tutti i componenti necessari, come i prompt (ossia le istruzioni o i comandi forniti a un sistema), l'uso degli strumenti, i flussi di controllo (sequenze logiche che regolano l'ordine delle operazioni) e molte altre funzionalità. Inoltre, grazie ai recenti progressi nei modelli di intelligenza artificiale, che diventano sempre più abili nella programmazione, è possibile utilizzare questi modelli come meta agenti. Un meta agente è un sistema capace di generare autonomamente altri agenti tramite la scrittura di codice. Questo apre la strada alla possibilità di automatizzare la creazione di nuovi sistemi agentici, rendendo lo sviluppo di agenti sempre più efficiente e sofisticato.   Sulla base di queste premesse, la ricerca introduce Meta Agent Search, uno dei primi algoritmi nel campo degli ADAS a consentire una progettazione completa all'interno dello spazio del codice. Il fulcro di Meta Agent Search è istruire un meta agente affinché generi iterativamente nuovi agenti rilevanti, li valuti, li aggiunga a un archivio di agenti scoperti e utilizzi tale archivio per supportare la creazione di ulteriori agenti nelle iterazioni successive. Similmente ad altri algoritmi di "open-endedness", che si basano su criteri di interesse umano, il meta agente viene incoraggiato a esplorare agenti nuovi o promettenti.   Per validare l'approccio proposto, Meta Agent Search è stato testato su diverse sfide, inclusi il compito logico ARC, pensato per valutare l'intelligenza generale di un sistema di IA, e quattro benchmark popolari comprendenti domande di comprensione del testo, matematica, scienze e risoluzione di problemi multi-task. Inoltre, è stata esaminata la capacità degli agenti scoperti di trasferirsi con successo su domini e modelli precedentemente non affrontati. I risultati sperimentali hanno dimostrato che gli agenti scoperti superano ampiamente i baseline progettati manualmente. Ad esempio, gli agenti hanno incrementato i punteggi F1 nei compiti di comprensione del testo di DROP del 13,6% e i tassi di accuratezza nei compiti di matematica di MGSM del 14,4%. Hanno inoltre migliorato l'accuratezza del 25,9% e del 13,2% rispetto ai baseline nei compiti matematici GSM8K e GSM-Hard, rispettivamente, anche dopo il trasferimento tra domini.   Le prestazioni promettenti dell'algoritmo rispetto alle soluzioni progettate manualmente sottolineano il potenziale dell'ADAS nell'automazione della progettazione di sistemi agentici. Gli esperimenti hanno ulteriormente dimostrato che gli agenti scoperti non solo eccellono nel trasferimento tra domini simili, ma mantengono elevate performance anche nel trasferimento tra domini eterogenei, come il passaggio dalla matematica alla comprensione del testo. Questo aspetto evidenzia la robustezza e la capacità di trasferibilità dei sistemi agentici sviluppati tramite Meta Agent Search. Lo studio, pertanto, apre nuove e stimolanti prospettive di ricerca, promuovendo ulteriori approfondimenti nel settore.   Algoritmi di ricerca e spazi di esplorazione nell'Automated Design of Agentic Systems (ADAS) L'Automated Design of Agentic Systems (ADAS) rappresenta l'applicazione di algoritmi di ricerca per identificare i sistemi agentici più efficaci all'interno di uno specifico spazio di ricerca, basandosi su una funzione di valutazione. La definizione dello spazio di ricerca è cruciale poiché determina quali sistemi agentici possono essere rappresentati e, quindi, scoperti durante il processo di ADAS. Questo spazio funge da confine, delimitando ciò che è possibile esplorare e ottimizzare.   Un esempio di implementazione di ADAS è PromptBreeder, un sistema che si concentra esclusivamente sulla mutazione dei prompt testuali utilizzati da un agente, lasciando inalterati altri componenti come il flusso di controllo. In tal modo, lo spazio di ricerca di PromptBreeder è limitato: non permette di esplorare agenti che possano operare con un flusso di controllo diverso da quello predefinito. Questo tipo di vincolo implica che l'innovazione si limita ai prompt, mentre altre variabili rimangono fisse.   Parallelamente, l'attenzione è stata rivolta anche ad altri spazi di ricerca più complessi, come le strutture grafiche e le reti feed-forward, che offrono una gamma più ampia di possibilità rispetto a spazi più specifici come quello di PromptBreeder. La scelta dello spazio di ricerca, dunque, non è un dettaglio secondario, ma piuttosto una decisione strategica che determina il potenziale di scoperta e sviluppo dei sistemi agentici stessi.   L'algoritmo di ricerca viene utilizzato per determinare come gli algoritmi ADAS esplorano lo spazio delle soluzioni possibili. Questi spazi di ricerca possono essere molto ampi o, in alcuni casi, infiniti, rendendo cruciale trovare un equilibrio tra due approcci distinti: l'esplorazione e lo sfruttamento. L'esplorazione consiste nell'individuare nuove soluzioni che potrebbero rivelarsi promettenti, mentre lo sfruttamento comporta l'uso delle migliori soluzioni già identificate. Il rischio, tuttavia, è quello di concentrarsi troppo sulle soluzioni già note, finendo intrappolati in ottimi locali, cioè in risultati che, pur essendo buoni, potrebbero non essere i migliori possibili su scala più ampia.   Alcuni metodi attuali utilizzano l'apprendimento per rinforzo per affrontare questa sfida. L'apprendimento per rinforzo è una tecnica in cui un agente apprende comportamenti ottimali attraverso l'interazione con l'ambiente e il feedback ricevuto sotto forma di ricompense o punizioni. Altri approcci, come l'algoritmo usato da PromptBreeder, adottano una strategia iterativa per generare continuamente nuove soluzioni. L'obiettivo è garantire che l'algoritmo sia in grado di individuare rapidamente sistemi altamente performanti, cioè in grado di svolgere i loro compiti in maniera molto efficiente, senza però trascurare la possibilità di scoprire altre soluzioni che potrebbero essere ancora più efficaci.   Infine, la funzione di valutazione definisce i criteri utilizzati per misurare le prestazioni di un agente. A seconda del contesto applicativo, possono essere presi in considerazione diversi obiettivi, come l'efficienza operativa, i costi associati, la velocità di esecuzione (latenza) o gli aspetti legati alla sicurezza. Un esempio comune di applicazione della funzione di valutazione è la misurazione della performance di un agente su dati nuovi e non ancora analizzati. In questo caso, si utilizza spesso il calcolo del tasso di accuratezza su un set di dati di convalida. Questo approccio è largamente impiegato nelle ricerche e negli studi esistenti. Pertanto, la funzione di valutazione assume un ruolo cruciale, in quanto guida l'intero processo di ottimizzazione, consentendo di confrontare le varie soluzioni ottenute rispetto agli obiettivi prefissati.   Una possibilità ancora poco esplorata ma promettente nel campo delle configurazioni per lo spazio di ricerca riguarda la definizione completa di un sistema agentico attraverso il codice, accompagnata dall'implementazione di un meta-agente in grado di programmare automaticamente agenti più efficaci. Questo approccio si basa su uno spazio di ricerca che utilizza il codice come fondamento, permettendo di scoprire qualsiasi possibile componente di base, come istruzioni di programmazione, utilizzo di strumenti o strutture per controllare il flusso delle operazioni. Inoltre, consente di combinare questi elementi in molteplici modi. Uno spazio di ricerca di questo tipo offre una maggiore trasparenza nella progettazione degli agenti, poiché il codice è generalmente leggibile, facilitando l'individuazione e la correzione degli errori e contribuendo a migliorare la sicurezza complessiva dei sistemi di intelligenza artificiale.   Rispetto a spazi di ricerca che si basano su reti o grafi, un ambiente di ricerca codificato permette di costruire più agevolmente su progressi tecnologici già esistenti. Per esempio, risulta possibile investigare all'interno di framework open-source dedicati agli agenti e sfruttare blocchi di codice già sviluppati. Inoltre, poiché i modelli di linguaggio hanno dimostrato una certa competenza nella programmazione, l'utilizzo di uno spazio di ricerca basato sul codice permette di sfruttare questa abilità durante il processo di esplorazione.   Algoritmo Meta Agent Search per la creazione iterativa e validazione di agenti Il Meta Agent Search è un algoritmo sviluppato con l'obiettivo di individuare e creare agenti all'interno dello spazio del codice. L'approccio centrale di questo algoritmo prevede l'impiego di modelli fondazionali, chiamati meta-agenti, che attraverso un processo iterativo sviluppano nuovi agenti utilizzando un archivio in continuo aggiornamento basato sulle scoperte precedenti. In linea teorica, il meta-agente potrebbe programmare qualsiasi sistema agentico partendo completamente da zero, ma questa strategia risulta inefficiente dal punto di vista pratico.   Per rendere il processo più efficace, al meta-agente viene fornito un insieme di funzioni di base che facilitano il suo lavoro. Queste funzioni comprendono, ad esempio, API che consentono di interrogare i modelli fondazionali o altri strumenti già disponibili. Viene quindi utilizzato un framework semplice e contenuto in meno di 100 righe di codice, che mette a disposizione del meta-agente queste funzioni essenziali, tra cui la capacità di formulare e formattare richieste ai modelli fondazionali.   In tal modo, il compito del meta-agente viene semplificato, concentrandosi principalmente sullo sviluppo di una funzione di elaborazione che definisce un nuovo sistema agentico. Questa funzione, simile a quanto avviene nell'approccio FunSearch , riceve informazioni relative al compito da eseguire e genera la risposta appropriata dell'agente in relazione a quel compito.   Il Meta Agent Search ha come scopo principale quello di permettere al meta-agente di creare nuovi agenti in modo iterativo. Questo processo si basa su principi simili ad altri algoritmi definiti di "open-endedness", i quali fanno affidamento su concetti come la novità e l'interesse. L'obiettivo è favorire l'esplorazione di agenti che risultino innovativi o utili, prendendo spunto dalle scoperte precedenti. Durante questo processo, il meta-agente utilizza un meccanismo di auto-riflessione che consente due cicli di miglioramento, sia per quanto riguarda la novità dell'agente proposto, sia per quanto riguarda la correttezza della proposta stessa. Se si verificano errori durante l'esecuzione del codice, il sistema prevede la possibilità di effettuare fino a tre ulteriori perfezionamenti.   Dopo la creazione di un nuovo agente, questo viene valutato utilizzando dati di validazione pertinenti al dominio di applicazione. Le prestazioni dell'agente vengono misurate attraverso diverse metriche, come il tasso di successo o il punteggio F1, che è una misura statistica che combina la precisione (la capacità di un modello di identificare correttamente esempi positivi) e il richiamo (la capacità di catturare tutti gli esempi positivi disponibili). Per garantire la solidità delle prestazioni, viene inoltre calcolato un intervallo di confidenza bootstrap al 95%, una tecnica statistica che permette di stimare la variabilità delle prestazioni stimate. L'agente, insieme alle sue metriche di valutazione, viene quindi aggiunto all'archivio esistente, e il processo continua iterativamente, basandosi su questo archivio aggiornato, fino a raggiungere il numero massimo di iterazioni prestabilito.   Benchmark e prestazioni: Come gli agenti autonomi superano i modelli manuali La ricerca di Shengran Hu e collaboratori ha dimostrato come Meta Agent Search sia in grado di identificare nuovi agenti in grado di superare le prestazioni di quelli più avanzati progettati manualmente. Questo risultato è stato ottenuto all'interno della sfida denominata Abstraction and Reasoning Corpus (ARC), proposta da François Chollet nel 2019. L'ARC è stata concepita per valutare l'intelligenza artificiale generale, cioè la capacità di un sistema di apprendere e applicare nuove competenze in modo efficiente, piuttosto che limitarsi a eseguire compiti predefiniti.   Le domande dell'ARC sono progettate per mettere alla prova diverse capacità, tra cui la capacità di riconoscere schemi visivi di input-output rappresentati su griglie, imparare una regola di trasformazione di questi schemi a partire dagli esempi forniti e prevedere il pattern di output della griglia sulla base di una griglia di input. Ogni domanda dell'ARC è costruita in modo da presentare una regola di trasformazione unica, il che richiede che l'intelligenza artificiale sia in grado di apprendere queste regole con l'uso di pochi esempi, dimostrando una certa versatilità e capacità di adattamento. Le abilità necessarie includono, ad esempio, la capacità di contare numeri, comprendere geometrie semplici e analizzare le relazioni topologiche tra gli elementi della griglia.   Nel contesto sperimentale, come suggerito dalla pratica comune descritta da Greenblatt nel 2024, non si richiede all'agente di fornire direttamente una risposta, ma di scrivere codice che esegua la trasformazione richiesta. All'interno del framework sperimentale sono forniti strumenti per valutare il codice generato. Dato che l'ARC rappresenta un compito particolarmente complesso per i moderni sistemi di intelligenza artificiale, è stata selezionata una serie di dati ridotti, concentrandosi su domande con griglie di dimensioni pari o inferiori a 5x5, provenienti dal "Public Training Set (Easy)". Sono stati creati un set di validazione e un set di test, contenenti rispettivamente 20 e 60 domande, utilizzati per la fase di addestramento e quella di valutazione del sistema. Per garantire risultati più stabili e ridurre la variabilità dovuta al campionamento casuale delle funzioni di modello, la precisione dell'agente viene valutata ripetendo i test cinque volte. Gli agenti scoperti sono infine sottoposti a una valutazione finale utilizzando un set di test indipendente.   Il processo di ricerca del Meta Agent Search si articola in 25 iterazioni. In ogni iterazione, GPT-4 viene utilizzato come meta agente per guidare la scoperta di nuovi agenti, mentre GPT-3.5 viene impiegato per valutare gli agenti scoperti e confrontarli con i risultati ottenuti dagli agenti di riferimento (baseline), con l'obiettivo di ridurre i costi computazionali mantenendo al contempo un'elevata qualità della valutazione.   Confronto tra agenti avanzati e tecniche di risoluzione di problemi complessi Sono stati confrontati cinque agenti avanzati progettati manualmente, rappresentanti lo stato dell'arte nella risoluzione di problemi complessi. Il primo di questi è il Chain-of-Thought (COT), introdotto da Wei e colleghi nel 2022, il quale istruisce l'agente a fornire una spiegazione del processo di ragionamento prima di arrivare alla risposta finale, facilitando così la risoluzione dei problemi attraverso passaggi intermedi. Il secondo agente è il Self-Consistency con Chain-of-Thought (COT-SC), proposto da Wang e collaboratori nel 2023, che genera risposte parallele tramite COT per poi combinare queste diverse risposte al fine di ottenere una soluzione più precisa. Il terzo agente è il Self-Refine, sviluppato da Madaan e Shinn nel 2024, che permette all'agente di riflettere iterativamente sugli errori compiuti nelle risposte precedenti per correggerli progressivamente. Un altro approccio è quello del LLM-Debate, presentato da Du nel 2023, in cui diversi modelli di linguaggio (LLM) vengono messi a confronto per dibattere tra loro, sfruttando la diversità di prospettive per ottenere risposte più solide. Infine, viene considerato l'approccio Quality-Diversity, una versione semplificata dell'Intelligent Go-Explore, proposto da Lu nel 2024, che genera e combina risposte diverse per esplorare in modo più efficace le soluzioni possibili. Tutti questi metodi sono stati utilizzati come base per il processo di ricerca del Meta Agent Search.   Approccio ADAS e stepping stones ottimizzano la progettazione degli agenti con Meta Agent Search I risultati mostrano che Meta Agent Search scopre in modo progressivo ed efficace agenti che superano le prestazioni delle attuali soluzioni progettate manualmente. Come evidenziato in precedenti studi sugli algoritmi genetici di intelligenza artificiale, Meta Agent Search innova basandosi su un archivio in continua crescita di precedenti "stepping stones" (ovvero idee o soluzioni parziali che fungono da base per sviluppi successivi). Un esempio significativo emerge nell'iterazione 3, quando viene utilizzato un modello che impiega molteplici "chain of thought" (sequenze di ragionamenti) per generare risposte possibili, affinarle e poi combinare le migliori soluzioni. Questo approccio diventa una base cruciale per i progetti successivi. Inoltre, il miglior agente scoperto mostra un meccanismo complesso di feedback che permette di perfezionare le risposte in modo più efficace. L'osservazione attenta del processo di ricerca rivela che questo sofisticato meccanismo di feedback non è apparso improvvisamente, ma è stato il risultato dell'introduzione graduale di idee, come l'integrazione di feedback diversificato, la valutazione delle caratteristiche specifiche (efficienza e semplicità) tramite esperti e la simulazione di feedback simile a quello umano, emerse nelle iterazioni 5, 11 e 12. Il meccanismo finale rappresenta un'innovazione che combina questi elementi, simile al concetto di crossover nell'evoluzione attraverso modelli di linguaggio di grandi dimensioni. I risultati complessivi evidenziano il potenziale dell'approccio ADAS e l'efficacia di Meta Agent Search nel trovare agenti che superano le soluzioni progettate manualmente e nell'inventare nuovi schemi di progettazione attraverso l'innovazione e la combinazione di diverse "stepping stones".   Come Meta Agent Search potenzia la comprensione del testo e le abilità matematiche Sono stati effettuati test sull'algoritmo Meta Agent Search utilizzando quattro benchmark ampiamente riconosciuti: DROP (Dua et al., 2019) per la valutazione della comprensione del testo; MGSM (Shi et al., 2023) per la misurazione delle abilità matematiche in contesti multilingue; MMLU (Hendrycks et al., 2021) per la risoluzione di problemi multi-task; e GPQA (Rein et al., 2023) per la gestione di domande complesse a livello universitario avanzato in ambito scientifico. Ogni test è stato condotto separatamente per ciascun dominio, e l'algoritmo Meta Agent Search è stato eseguito per 30 iterazioni. Per l'agente meta è stato utilizzato GPT-4 (OpenAI, 2024), mentre gli agenti scoperti e i modelli di riferimento sono stati valutati con GPT-3.5 (OpenAI, 2022). Poiché i domini esaminati richiedono elevate capacità di ragionamento, sono stati inclusi due modelli di riferimento aggiuntivi focalizzati specificamente sul miglioramento delle abilità di ragionamento degli agenti, per offrire un confronto più completo. Il primo modello, Step-back Abstraction (Zheng et al., 2023), istruisce gli agenti a riflettere sui principi sottostanti nella risoluzione dei compiti, favorendo un ragionamento più profondo. Il secondo modello, Role Assignment, assegna ruoli distinti ai modelli fondazionali (FMs), come suggerito da Xu et al. (2023), al fine di ottenere risposte di qualità superiore.   I risultati ottenuti in vari ambiti indicano che Meta Agent Search è capace di individuare agenti che superano in prestazioni quelli sviluppati manualmente. Questo è particolarmente evidente nei settori della comprensione del testo e della matematica, dove sono stati osservati significativi miglioramenti. In particolare, le metriche F1, che misurano la precisione e la completezza delle risposte in contesti come il linguaggio naturale, hanno registrato un incremento di 13.6%, mentre i tassi di accuratezza nei problemi matematici sono aumentati del 14.4%.   Nonostante l'algoritmo superi i modelli di riferimento anche nei domini multi-task, cioè quelli che richiedono la gestione simultanea di compiti diversi, e in quelli scientifici, il divario di miglioramento è più ridotto. Questo potrebbe essere dovuto alla complessità delle domande in questi settori, dove le informazioni presenti nei modelli di base (chiamati modelli fondazionali) non sembrano essere sufficienti per risolvere completamente i problemi. Di conseguenza, l'ottimizzazione dei sistemi agentici porta solo a miglioramenti limitati. Tuttavia, si prevede che con il progresso di questi modelli fondazionali, questa limitazione tenderà a diminuire.   Al contrario, nei campi della comprensione del testo e della matematica, i modelli già possiedono le conoscenze necessarie per affrontare le problematiche poste. Qui, gli errori sono per lo più dovuti a fenomeni come le allucinazioni, ossia risposte che appaiono plausibili ma sono errate, o a semplici errori di calcolo. Tali errori possono essere significativamente ridotti attraverso l'impiego di sistemi agentici ben strutturati, come quelli individuati da Meta Agent Search.   In generale, i risultati ottenuti dimostrano l'efficacia dell'algoritmo nella selezione di agenti specializzati per specifici domini, con la potenzialità di ridurre l'impegno umano necessario nella creazione di agenti sempre più adattati a una vasta gamma di applicazioni.   Per dimostrare la capacità di generalizzazione dei blocchi costruttivi e dei modelli progettuali creati, sono stati eseguiti esperimenti riguardanti la trasferibilità degli agenti scoperti. Inizialmente, si è esaminata la trasferibilità tra diversi modelli fondazionali. Gli agenti individuati con il modello GPT-3.5 sono stati trasferiti ad altri modelli fondazionali per valutare se gli agenti, trovati utilizzando un determinato modello, fossero in grado di generalizzare anche in altri contesti. A tal fine, sono stati scelti i tre agenti con le migliori prestazioni, misurate in termini di accuratezza sull'ARC utilizzando GPT-3.5, e successivamente trasferiti a tre modelli ampiamente diffusi: Claude-Haiku, GPT-4 e Claude-Sonnet. È stato applicato lo stesso metodo di valutazione utilizzato per i test su ARC e MGSM. È emerso che gli agenti scoperti superano costantemente quelli progettati manualmente, con un margine considerevole. Tra i modelli testati, Claude-Sonnet ha evidenziato le prestazioni migliori, consentendo al miglior agente di raggiungere un'accuratezza vicina al 50% su ARC.   Successivamente, è stata valutata la trasferibilità tra differenti domini. Gli agenti scoperti nel dominio MGSM, specializzato in matematica, sono stati trasferiti ad altri domini matematici per verificare se fossero in grado di generalizzare anche in contesti diversi. I tre agenti con le migliori prestazioni nel dominio MGSM sono stati trasferiti a quattro domini matematici popolari: GSM8K, GSM-Hard, SVAMP e ASDiv, oltre che a tre domini non matematici. Anche in questo caso, le prestazioni degli agenti sono risultate superiori rispetto ai modelli di riferimento. In particolare, è stato osservato un miglioramento dell'accuratezza del 25,9% su GSM8K e del 13,2% su GSM-Hard rispetto ai modelli standard. Inoltre, è stato sorprendentemente rilevato che gli agenti scoperti nel dominio matematico possono essere efficacemente trasferiti anche a domini non matematici, come la comprensione del testo e i compiti multi-task, dove hanno ottenuto prestazioni superiori o comparabili a quelle degli agenti progettati manualmente. Questi risultati indicano che Meta Agent Search è capace di identificare schemi di progettazione e sistemi agentici che sono adattabili a diversi contesti.   Meta Agent Search e l'importanza della sandboxing per la sicurezza AI Quando si intraprendono ricerche che coinvolgono la generazione di codice tramite modelli di intelligenza artificiale, come nel caso del Meta Agent Search, è fondamentale valutare attentamente le implicazioni legate alla sicurezza. Sebbene nelle configurazioni attuali, con l'uso dei modelli di base, sia improbabile che il codice generato possa eseguire azioni palesemente dannose, i rischi potenziali esistono comunque. Questi rischi possono derivare dalle limitazioni intrinseche nelle capacità dei modelli o da problemi di allineamento degli obiettivi tra ciò che il modello intende fare e ciò che effettivamente realizza. Per questo motivo, l'utilizzo di ambienti di prova isolati, o "sandbox", è altamente consigliato. Questi ambienti protetti permettono di eseguire il codice generato dai modelli in modo sicuro, prevenendo potenziali danni involontari.   L'avanzamento della ricerca su sistemi di intelligenza artificiale sempre più potenti porta inevitabilmente a riflettere sull'opportunità di spingere ulteriormente i limiti delle capacità dell'IA. In particolare, l'idea di sviluppare Sistemi Agentici Automatizzati (ADAS) ha suscitato interesse per la possibilità che ciò possa accelerare la creazione di un'Intelligenza Artificiale Generale (AGI), rispetto agli approcci manuali attualmente in uso. Questo tema ha alimentato un vivace dibattito tra accademici ed esperti del settore e, pur non essendo l'obiettivo principale dello studio condotto da Shengran Hu e collaboratori, pone interrogativi fondamentali sull'etica e la sicurezza nello sviluppo dell'intelligenza artificiale.   In merito agli ADAS, è emerso che con l'accesso alle API dei modelli di base più avanzati, è possibile creare algoritmi altamente efficaci senza la necessità di hardware costoso, come le GPU. Questa scoperta è di grande importanza per la comunità scientifica, poiché mette in luce la semplicità con cui tali algoritmi possono essere sviluppati e il potenziale impatto che ciò potrebbe avere sulla diffusione della tecnologia. La pubblicazione di queste scoperte è generalmente considerata positiva, poiché incoraggia ulteriori studi e sperimentazioni in quest'ambito.   Inoltre, la diffusione di queste conoscenze potrebbe stimolare la ricerca verso lo sviluppo di ADAS sicuri. La creazione di algoritmi che, pur svolgendo compiti complessi, non rischino di generare codice pericoloso o dannoso è una priorità cruciale. In tal senso, un approccio di ricerca aperta, che si concentri sulla sicurezza degli ADAS, potrebbe rappresentare una strategia vincente per garantire che lo sviluppo dell'IA rimanga sicuro e controllato. Una direzione promettente è quella di integrare nei processi di addestramento dei modelli, come nel caso di Meta Agent Search, delle richieste esplicite affinché si comportino in modo sicuro, creando solo agenti utili, onesti e privi di intenti dannosi.   Un ulteriore passo in questa direzione è rappresentato dall'adozione di concetti come l'Intelligenza Artificiale Costituzionale. Questo approccio prevede l'introduzione di regole e vincoli etici direttamente nel comportamento dei sistemi durante il loro sviluppo, garantendo che operino entro limiti etici ben definiti. Tale integrazione di principi etici potrebbe essere la chiave per assicurare che, man mano che l'intelligenza artificiale continua a evolversi, essa rimanga un alleato affidabile e sicuro per l'umanità.   Conclusioni L'Automated Design of Agentic Systems (ADAS) rappresenta una svolta cruciale nell'evoluzione dell'intelligenza artificiale, segnalando un passaggio da un approccio manuale e altamente specializzato a uno più automatizzato e scalabile. Questa transizione non solo ha implicazioni tecniche, ma porta con sé profonde conseguenze strategiche per le aziende. Se da un lato l'ADAS promette di accelerare significativamente la capacità di innovazione e adattamento delle organizzazioni, dall'altro introduce nuove sfide in termini di governance, sicurezza e gestione del cambiamento.   In primo luogo, l'automazione della progettazione dei sistemi agentici potrebbe trasformare radicalmente il panorama competitivo. Le imprese che sapranno integrare ADAS nei loro processi di innovazione avranno un vantaggio significativo, potendo sviluppare soluzioni altamente personalizzate e più rapidamente adattabili ai cambiamenti del mercato. Tuttavia, questa automazione comporta una delega crescente delle decisioni creative e strategiche a sistemi che, per quanto avanzati, operano secondo logiche spesso opache e difficili da comprendere appieno. La trasparenza e la spiegabilità dei risultati prodotti da questi agenti diventano quindi fondamentali per garantire che le decisioni aziendali siano basate su principi condivisi e non su processi che sfuggono al controllo umano.   In secondo luogo, l'introduzione di ADAS richiederà alle aziende di ripensare il loro approccio alla gestione dei rischi e alla sicurezza. I sistemi agentici, soprattutto quelli creati in maniera autonoma, potrebbero comportare rischi imprevedibili se non adeguatamente monitorati e testati in ambienti sicuri. L'adozione di sandboxing, come suggerito nella ricerca, diventerà una pratica essenziale non solo per prevenire danni accidentali, ma anche per proteggere le aziende da potenziali minacce alla sicurezza informatica. Le organizzazioni dovranno investire in infrastrutture e competenze che consentano di gestire queste nuove tecnologie in modo sicuro e controllato.   Un'altra considerazione chiave riguarda la governance e l'etica. Con l'aumento dell'autonomia dei sistemi agentici, le aziende dovranno affrontare nuove questioni etiche, soprattutto in merito alla responsabilità delle decisioni prese da questi agenti. La creazione di un quadro etico robusto, magari ispirato ai principi dell'Intelligenza Artificiale Costituzionale, sarà cruciale per garantire che l'automazione non porti a esiti indesiderati o inaccettabili dal punto di vista sociale. Le imprese dovranno sviluppare politiche che bilancino l'efficienza e l'innovazione con la responsabilità sociale e il rispetto delle normative.   Infine, l'implementazione di ADAS richiederà un cambiamento culturale all'interno delle organizzazioni. Le competenze richieste per gestire questi sistemi automatizzati differiscono da quelle tradizionali, richiedendo una maggiore collaborazione tra i dipartimenti tecnici e quelli strategici. Le aziende dovranno investire in formazione e sviluppo delle competenze, non solo per i loro team IT, ma anche per i leader aziendali, affinché possano comprendere le implicazioni strategiche delle tecnologie emergenti e guidare il cambiamento in modo efficace.   In sintesi, l'ADAS non rappresenta solo una nuova frontiera tecnologica, ma una sfida multidimensionale che richiede alle imprese di ripensare il proprio approccio all'innovazione, alla sicurezza e alla governance. L'adozione di questi sistemi può portare enormi vantaggi competitivi, ma solo se gestita con una visione chiara e una strategia ben articolata, che tenga conto delle complessità etiche, operative e culturali che accompagnano l'automazione avanzata.

  • The AI Scientist: l'automazione totale della ricerca scientifica e della ricerca e sviluppo aziendale

    In un recente studio intitolato " The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery ", i ricercatori Chris Lu, Cong Lu, Robert Tjarko Lange, Jakob Foerster, Jeff Clune e David Ha, provenienti da istituzioni come Sakana AI, l'Università di Oxford, l'Università della British Columbia e il Vector Institute, presentano un quadro innovativo volto all'automazione completa della ricerca scientifica.   Uno dei sogni più ambiziosi nel campo dell'intelligenza artificiale è quello di sviluppare agenti capaci di condurre ricerche scientifiche in modo autonomo, spingendo così i confini della conoscenza. Oggi, i modelli avanzati di intelligenza artificiale sono già utilizzati per assistere gli scienziati in molteplici compiti, come la generazione di idee, la programmazione e la previsione dei risultati. Tuttavia, il loro ruolo è ancora principalmente di supporto, con un impatto diretto limitato sul processo di scoperta scientifica.   A colmare questo divario emerge The AI Scientist, un sistema innovativo progettato per permettere ai modelli linguistici di nuova generazione di condurre attività di ricerca in completa autonomia, fino alla condivisione dei risultati. Non più semplici assistenti, questi agenti diventano veri protagonisti del processo scientifico, generando conoscenza senza la necessità dell'intervento umano.   Questo sistema è capace di sviluppare idee di ricerca originali, scrivere codice per eseguire esperimenti, analizzare e visualizzare i risultati, e redigere articoli scientifici per documentare le scoperte. Ancora più sorprendente, The AI Scientist è in grado di simulare un processo di revisione, valutando la qualità del lavoro prodotto. Questo ciclo di scoperta può ripetersi indefinitamente, creando un flusso continuo di nuove idee che vanno ad arricchire un archivio in costante evoluzione, replicando così il modus operandi della comunità scientifica umana.   L'introduzione di tecnologie come "The AI Scientist" in un contesto aziendale comporterebbe una trasformazione profonda del ruolo di scienziati e ingegneri all'interno della R&D aziendale. Questi professionisti potrebbero infatti orientarsi maggiormente verso la supervisione strategica, piuttosto che sull'operatività quotidiana. Questo cambiamento alleggerirebbe il carico di lavoro operativo dei dipartimenti R&D, consentendo loro di concentrarsi su questioni più complesse e strategiche, come la definizione delle priorità di ricerca e l'integrazione delle innovazioni nel contesto aziendale. Tuttavia, una sfida importante potrebbe derivare dalla potenziale iperproduzione di idee, che rischierebbe di diventare dispersiva se non adeguatamente allineata alla strategia complessiva dell'azienda. Pertanto, la qualità e la pertinenza delle scoperte, insieme alla gestione di un notevole volume di output, diventano fattori determinanti.   Dal punto di vista operativo, l'integrazione di intelligenze artificiali autonome all'interno del reparto R&D aziendale potrebbe portare a una riduzione significativa dei costi e a una maggiore velocità nel lancio dei prodotti sul mercato. Tuttavia, questo richiederebbe anche una riorganizzazione delle competenze interne e l'introduzione di nuove figure professionali, come specialisti in intelligenza artificiale. Inoltre, i dipartimenti R&D dovrebbero sviluppare capacità avanzate per monitorare e gestire i rischi legati a scoperte che potrebbero rivelarsi pericolose o di difficile interpretazione. The AI Scientist e la nuova frontiera della ricerca scientifica automatizzata Il metodo scientifico moderno è stato riconosciuto come una delle principali conquiste dell'Illuminismo. Questo processo richiede che un ricercatore raccolga informazioni di base, formuli ipotesi plausibili, sviluppi un piano per testare tali ipotesi, raccolga dati per verificarle e, infine, valuti e comunichi i risultati ottenuti. Una volta completato, il manoscritto che descrive questo lavoro viene sottoposto a revisione da parte di altri esperti del settore e, se necessario, viene ulteriormente migliorato. Questo iter ha permesso l'avanzamento di numerose scoperte scientifiche e tecnologiche, che hanno avuto un impatto positivo sulla vita umana. Tuttavia, tale ciclo è limitato dalla creatività, dalle conoscenze e dal tempo disponibile dei ricercatori.   Nel contesto dell'intelligenza artificiale, alcuni studiosi hanno ipotizzato la possibilità di automatizzare questo processo di ricerca scientifica, utilizzando l'AI stessa. Nonostante i recenti progressi nei modelli di base, che hanno dimostrato notevoli capacità in vari ambiti, l'AI è riuscita fino ad ora solo a velocizzare specifiche fasi del processo di ricerca. Alcuni esempi includono la stesura di manoscritti scientifici, la generazione di nuove idee o l'assistenza alla programmazione. Tuttavia, non è ancora stata raggiunta la possibilità di completare progetti di ricerca complessi senza la supervisione o l'intervento diretto di ricercatori umani.   Le strategie tradizionali per automatizzare la ricerca scientifica si sono basate su una delimitazione rigida degli spazi di indagine, imponendo confini ben definiti entro i quali le scoperte potevano essere fatte. Ciò ha comportato la necessità di un sostanziale contributo da parte di esperti umani per progettare tali spazi di ricerca. In alcuni campi, come la scoperta di nuovi materiali o la biologia sintetica, sono stati raggiunti significativi risultati attraverso questo approccio. Tuttavia, tali progressi sono stati possibili solo perché l'esplorazione è stata limitata a domini ben conosciuti e caratterizzati, il che ha permesso avanzamenti mirati, ma al contempo ha ridotto la possibilità di fare scoperte più ampie. Altre fasi cruciali del processo scientifico, come la redazione del manoscritto, rimangono ancora non completamente automatizzate.   Anche nel campo del machine learning, l'automazione della ricerca si è concentrata principalmente su aspetti specifici come la ricerca di iperparametri, cioè quei parametri che influenzano il comportamento di un modello di apprendimento automatico, o la scoperta di nuove architetture algoritmiche. Questi approcci hanno ottenuto successi entro spazi di ricerca ben definiti e progettati per ottenere risultati specifici.   Lo studio condotto da Chris Lu e collaboratori presenta una pipeline completamente automatizzata e scalabile per la generazione di articoli scientifici. Questa innovativa tecnologia sfrutta i recenti avanzamenti nei modelli di base per permettere la generazione end-to-end di articoli, partendo da un ampio orientamento di ricerca e da una semplice base di codice iniziale. The AI Scientist è in grado di gestire autonomamente l'intero processo di ricerca scientifica, che comprende la generazione di nuove idee, la ricerca di riferimenti bibliografici, la pianificazione e l'iterazione di esperimenti, la scrittura del manoscritto e anche la revisione paritaria. Questa automazione consente di produrre articoli scientifici a un costo molto basso, intorno ai 15 dollari per articolo. Inoltre, il sistema funziona in un ciclo continuo, sfruttando le scoperte scientifiche già realizzate per migliorare le idee delle ricerche successive, accelerando così il lungo processo della ricerca scientifica. Questa pipeline automatizzata rappresenta un passo importante verso l'utilizzo delle sempre maggiori risorse computazionali per affrontare le principali sfide scientifiche del XXI secolo. Anche se l'attenzione principale dello studio è rivolta alle applicazioni nel campo del Machine Learning, il metodo può essere esteso ad altre discipline come la biologia e la fisica, a condizione che siano presenti sistemi in grado di eseguire esperimenti in maniera automatizzata.   The AI Scientist utilizza tecniche avanzate come il chain-of-thought, che permette di suddividere il ragionamento in una catena di pensieri collegati per una maggiore coerenza decisionale, e la self-reflection, che implica una riflessione interna sui processi per migliorarli in modo autonomo. Questi strumenti permettono al sistema di formulare ipotesi scientifiche e pianificare esperimenti per testarle in maniera autonoma. Successivamente, grazie all'integrazione con l'assistente alla programmazione di ultima generazione Aider, il sistema apporta modifiche al codice necessario per condurre gli esperimenti e raccoglie i risultati ottenuti. Questi risultati vengono poi utilizzati per redigere un articolo scientifico. Il ciclo si chiude con un processo di revisione automatizzata degli articoli, basato sulle linee guida delle principali conferenze nel campo del machine learning. Le idee completate e il feedback dei revisori vengono integrati nell'archivio delle scoperte scientifiche del sistema, consentendo così un continuo miglioramento. Gli articoli generati e gli esperimenti condotti risultano interpretabili anche per i ricercatori umani, i quali possono trarre vantaggio dalle conoscenze acquisite tramite questo processo automatizzato.   LLMs come strumenti avanzati per l'automazione del linguaggio e della scrittura di codice I modelli di linguaggio di grandi dimensioni autoregressivi (LLMs) rappresentano uno strumento avanzato per la generazione automatica di testo. Questi modelli apprendono a completare sequenze testuali prevedendo la probabilità di un nuovo elemento (detto token, simile a una parola) sulla base dei token già generati. Durante la fase di test, il modello genera le previsioni campionando nuovi token in base a questa probabilità. Grazie all'uso di vasti dataset e alla scalabilità dei modelli, gli LLMs non solo sono capaci di produrre testo coerente, ma dimostrano abilità vicine a quelle umane. Tra queste capacità rientrano la comprensione del senso comune, come descritto da studi precedenti, il ragionamento logico e la capacità di scrivere codice informatico.   Le applicazioni pratiche di questi modelli prevedono spesso l'integrazione all'interno di un framework per agenti. In tali framework, l'LLM può essere utilizzato per diverse operazioni. Ad esempio, può essere strutturato per rispondere a query linguistiche specifiche attraverso il prompting, un metodo in cui il modello viene esposto a esempi per migliorare le sue prestazioni. Un altro approccio consiste nel guidare il modello attraverso processi di ragionamento complessi, come avviene nel chain-of-thought, dove il modello sviluppa una catena di pensieri logici per risolvere un problema. Inoltre, esistono metodi per far sì che il modello migliori iterativamente i propri risultati, come avviene con la self-reflection, un processo in cui il modello riflette sui propri output e li perfeziona. Questi approcci sfruttano la capacità degli LLMs di apprendere in modo contestuale e ne migliorano le prestazioni, aumentando al contempo la loro robustezza e affidabilità.   Un esempio di applicazione concreta di questi concetti è Aider, un assistente per la programmazione basato su LLM. Questo framework open-source è stato progettato per assistere nella scrittura di codice, correggere errori o ristrutturare il codice esistente in una base di codice già avviata. Aider può utilizzare diversi modelli di linguaggio sottostanti e, con i modelli più avanzati, ha dimostrato un notevole successo nel risolvere problemi di programmazione reali. Nel benchmark SWE Bench, che raccoglie problemi reali da GitHub, Aider ha raggiunto un tasso di successo significativo, pari al 18,9%. Questo livello di affidabilità, insieme ad altre innovazioni, consente di automatizzare il processo di ricerca nel campo del machine learning in modo completo, senza necessità di intervento umano diretto.   Come funziona AI Scientist dalle idee alla sperimentazione fino alla scrittura The AI Scientist si sviluppa attraverso tre fasi principali: la generazione delle idee, l'iterazione sperimentale e la scrittura del documento scientifico. Dopo la redazione del documento, viene introdotta una fase di revisione, utilizzando un modello linguistico avanzato per valutare la qualità dell'elaborato prodotto.   1. Generazione delle idee . L'AI Scientist utilizza un processo per generare nuove idee di ricerca che si ispira al concetto di evoluzione e alla ricerca sull'apertura a nuove possibilità. Il metodo è basato su una crescita iterativa di un archivio di idee, dove i modelli di linguaggio svolgono il ruolo di "operatore di mutazione". Questo significa che tali modelli vengono utilizzati per creare variazioni e nuove direzioni di ricerca a partire da idee già esistenti. Ogni nuova idea viene descritta nei dettagli, accompagnata da un piano sperimentale per metterla in pratica e da una valutazione numerica in cui si autoassegnano punteggi relativi al grado di interesse, novità e fattibilità dell'idea stessa. Durante il processo, l'AI Scientist genera iterativamente nuove direzioni di ricerca, basandosi sulle idee archiviate e sui punteggi ottenuti dalle idee precedenti.   Per migliorare queste idee, si ricorre a una tecnica che coinvolge più fasi di ragionamento concatenato e di auto-riflessione. Questo aiuta a raffinare e sviluppare ogni idea in modo più completo. Dopo la generazione delle idee, viene effettuato un ulteriore filtraggio. In questa fase, il modello di linguaggio è collegato a risorse esterne, come l'API di Semantic Scholar e strumenti per l'accesso al web. Questo permette di eliminare le idee che risultano troppo simili a quelle già esistenti nella letteratura scientifica disponibile. In questo modo, il processo assicura la produzione di direzioni di ricerca originali e innovative.   2. Iterazione sperimentale . AI Scientist esegue gli esperimenti proposti e successivamente visualizza i risultati ottenuti, con l'obiettivo di facilitarne la successiva scrittura. In questo processo viene impiegato uno strumento chiamato Aider, il quale pianifica inizialmente una lista di esperimenti da condurre, per poi eseguirli in sequenza. Per rendere questa procedura più affidabile, in caso di errore o di timeout (ad esempio, quando gli esperimenti richiedono troppo tempo per essere completati), gli errori vengono restituiti ad Aider, che corregge il codice e tenta di rieseguire l'esperimento fino a quattro volte. Al termine di ciascun esperimento, Aider riceve i risultati e annota le osservazioni in uno stile simile a quello di un diario sperimentale. Attualmente, Aider opera solamente su testo, ma in versioni future potrebbe integrare anche visualizzazioni grafiche o altri tipi di dati. In base ai risultati ottenuti, Aider ripianifica e implementa l'esperimento successivo, ripetendo questo ciclo fino a cinque volte. Una volta conclusi gli esperimenti, Aider viene incaricato di modificare uno script di grafici in Python per generare figure da includere nell'articolo. L'AI Scientist annota ciò che ciascun grafico rappresenta, permettendo così ai grafici generati e agli appunti sperimentali di fornire tutte le informazioni necessarie per la stesura del documento. Durante tutte le fasi, Aider ha accesso allo storico delle esecuzioni precedenti.   In generale, i modelli di base forniti per i grafici e gli esperimenti sono piccoli file indipendenti. Tuttavia, l'AI Scientist spesso crea nuovi grafici e raccoglie metriche che non erano incluse nei modelli iniziali. Questa capacità di modificare il codice in modo arbitrario può talvolta portare a risultati inattesi.   3. Stesura dell'articolo . Il terzo stadio dell'AI Scientist prevede la redazione di un documento chiaro e conciso che illustri i progressi raggiunti, adottando uno stile simile a quello di un articolo da conferenza standard nel campo del machine learning, redatto in LaTeX. LaTeX è un sistema di preparazione di documenti ampiamente utilizzato in ambito accademico e scientifico per la sua capacità di gestire in modo efficace la composizione del testo e la formattazione complessa, particolarmente adatto a documenti che includono formule matematiche. Poiché la stesura di un buon documento in LaTeX può richiedere tempo anche ai ricercatori più esperti, vengono implementate alcune strategie per rendere questo processo più efficiente e affidabile.   Il primo passaggio consiste nella generazione del testo per ogni sezione del documento. Gli appunti registrati e i grafici vengono passati ad Aider, uno strumento incaricato di completare, passo dopo passo, una bozza di articolo seguendo un template di conferenza. Questo processo si svolge in un ordine prestabilito: introduzione, background, metodi, impostazione sperimentale, risultati, e infine conclusione. Ogni sezione già completata viene mantenuta come contesto per Aider, in modo che possa tenerne conto durante la scrittura delle sezioni successive. Vengono forniti brevi suggerimenti su cosa dovrebbe includere ciascuna sezione, ispirandosi alla guida "How to ML Paper", un popolare manuale su come scrivere articoli di apprendimento automatico. Inoltre, mentre viene redatta ogni sezione, viene eseguito un ciclo di auto-riflessione, secondo una metodologia descritta in un lavoro di Shinn e collaboratori del 2024, per migliorare la qualità del testo. In questa fase non vengono incluse citazioni, ad eccezione di uno schema per la sezione relativa ai lavori correlati, che sarà completata in una fase successiva.   Il secondo passaggio prevede la ricerca sul web delle fonti necessarie per le citazioni. In modo analogo alla generazione di idee, l'AI Scientist può effettuare fino a venti interrogazioni all'API di Semantic Scholar per trovare le fonti più rilevanti da confrontare e includere nella sezione dei lavori correlati. Questo processo consente all'AI Scientist di selezionare gli articoli che ritiene più pertinenti e di completare eventuali citazioni mancanti nelle altre sezioni del documento. Per ciascun articolo selezionato viene fornita una breve descrizione su come e dove inserire la citazione nel testo. Inoltre, i riferimenti bibliografici in formato bibtex vengono automaticamente aggiunti al file LaTeX per garantirne la correttezza.   Il terzo passaggio riguarda il raffinamento del testo. Dopo le prime due fasi, l'AI Scientist dispone di una bozza completa del documento, che però potrebbe risultare eccessivamente prolissa e ripetitiva. Per risolvere questo problema, viene eseguita un'ulteriore auto-riflessione sezione per sezione, con l'obiettivo di eliminare eventuali informazioni duplicate e rendere più fluido e diretto il flusso degli argomenti.   Infine, dopo che il template LaTeX è stato completamente riempito con tutti i risultati appropriati, questo viene passato a un compilatore LaTeX. Durante la compilazione, viene utilizzato un linter LaTeX, un software che controlla gli errori nel codice, e gli eventuali errori di compilazione vengono rimandati ad Aider affinché li corregga automaticamente.   Revisione scientifica automatizzata con GPT-4o risultati e confronto   Un componente chiave di una comunità scientifica efficace è il suo sistema di revisione, che ha l'obiettivo di valutare e migliorare la qualità degli articoli scientifici. Per riprodurre un simile processo utilizzando modelli linguistici di grandi dimensioni, è stato progettato un agente basato su GPT-4° con lo scopo di condurre revisioni di articoli seguendo le linee guida di revisione della conferenza Neural Information Processing Systems (NeurIPS). Questo agente di revisione è in grado di elaborare il testo grezzo dei manoscritti in formato PDF utilizzando la libreria di parsing PyMuPDF. L'output generato dal processo include punteggi numerici che valutano aspetti come solidità, presentazione, contributo scientifico, punteggio complessivo e livello di fiducia. Inoltre, vengono forniti elenchi di punti deboli e punti di forza del lavoro analizzato, insieme a una decisione preliminare binaria di accettazione o rifiuto del documento. Tali decisioni possono successivamente essere ricalibrate applicando una soglia basata sul punteggio del revisore.   Per analizzare le prestazioni del sistema di revisione automatica, sono state confrontate le decisioni generate automaticamente con i dati di riferimento relativi a 500 articoli scientifici presentati alla conferenza ICLR del 2022. L'ICLR, ovvero l'International Conference on Learning Representations, è un'importante conferenza internazionale nel campo dell'intelligenza artificiale e dell'apprendimento automatico. I dati utilizzati per il confronto provengono dal dataset pubblico OpenReview, una piattaforma online che consente di gestire e consultare le revisioni e i feedback relativi agli articoli scientifici presentati a conferenze accademiche. Per rendere il processo decisionale più affidabile e preciso, sono state integrate diverse innovazioni recenti nel campo dei sistemi basati su LLM. Tra queste innovazioni, è stata inclusa la capacità del modello di riflettere su sé stesso, ossia una tecnica in cui il modello analizza e rivaluta le proprie risposte per migliorarle. Inoltre, sono stati presentati al modello esempi selezionati per guidare meglio le decisioni e si è adottata una tecnica chiamata "ensemble delle risposte". Quest'ultima consiste nel combinare più risposte diverse generate dal modello al fine di ottenere una decisione finale più accurata e rappresentativa, riducendo così la possibilità di errore o bias nel processo di revisione.   Utilizzando GPT-4o, il processo di revisione guidato dall'AI Scientist ha raggiunto un'accuratezza del 70%, grazie a cinque cicli di riflessione su sé stesso, cinque revisioni combinate e un esempio di revisione basato sulle linee guida dell'ICLR 2022. Successivamente, è stata eseguita una meta-review supportata da un LLM, in cui l'agente ha assunto il ruolo di "Area Chair", ovvero una figura responsabile di supervisionare e sintetizzare le decisioni di revisione. Sebbene questa accuratezza sia inferiore al 73% registrato dagli esseri umani in un esperimento di coerenza della NeurIPS 2021, il revisore automatico ha superato le prestazioni umane in termini di punteggio F1, che misura l'equilibrio tra precisione e sensibilità, ottenendo un valore di 0.57 rispetto a 0.49. Inoltre, ha raggiunto un livello comparabile agli esseri umani nell'AUC, una metrica che valuta la capacità di un modello di distinguere tra categorie diverse.   Il dataset di articoli ICLR 2022 preso in considerazione era altamente sbilanciato, contenendo molti più articoli respinti rispetto a quelli accettati. Quando il dataset è stato bilanciato, il processo di revisione dell'AI Scientist ha raggiunto un'accuratezza simile a quella umana, con valori molto vicini. Inoltre, il tasso di falsi negativi, ovvero il numero di articoli di alta qualità erroneamente respinti, è risultato essere significativamente inferiore rispetto al dato umano, mentre il tasso di falsi positivi, cioè articoli erroneamente accettati, era leggermente più alto, suggerendo margini di miglioramento futuri.   Le prestazioni del revisore automatico sono state ulteriormente esaminate attraverso un confronto tra la coerenza dei punteggi assegnati da revisori umani e quelli generati dal modello di linguaggio di grandi dimensioni. In particolare, è stata analizzata la correlazione tra i punteggi assegnati da coppie di revisori umani anonimi, selezionati in modo casuale, e la correlazione tra la media di questi punteggi umani e il punteggio generato dall'LLM. Per un campione di 500 articoli della conferenza ICLR 2022, è emerso che la correlazione tra i punteggi di due revisori umani è risultata inferiore rispetto a quella tra il punteggio generato dall'LLM e la media dei punteggi umani. Questo suggerisce che le revisioni generate dall'LLM non solo possono offrire un feedback utile, ma mostrano anche una maggiore allineamento con il punteggio medio umano rispetto a quanto accade tra i revisori umani stessi.   Il costo per ogni revisione generata varia tra 0.25 e 0.50 dollari in termini di costi API. Sono state confrontate anche le prestazioni di altri modelli di base, come Claude Sonnet 3.5 e GPT-4o-mini. Sebbene questi modelli offrano un approccio più economico, le loro prestazioni sono risultate sostanzialmente peggiori. Inoltre, nel caso di Sonnet 3.5, è stato necessario impostare una soglia molto più alta per ottenere risultati calibrati, a causa di un persistente bias verso giudizi eccessivamente ottimisti. Altri modelli come Llama 3.1 405B hanno mostrato difficoltà a seguire in modo coerente il formato richiesto per la revisione.   Sono stati confrontati diversi tipi di configurazioni di prompt per GPT-4o, scoprendo che sia la riflessione su sé stesso sia l'uso di un esempio di revisione aumentano significativamente l'accuratezza del revisore. Al contrario, l'uso dell'ensamble delle revisioni, pur non migliorando sostanzialmente le prestazioni, contribuisce a ridurre la variabilità nei risultati.   Limiti e potenzialità dell'AI Scientist nella modellazione della diffusione dei dati Prima di introdurre gli esperimenti e le metriche relative ai documenti generati da The AI Scientist, è utile esaminare un esempio concreto proveniente da una delle esecuzioni di questo sistema. Questo campione consente di evidenziare sia i punti di forza sia le limitazioni del sistema. Il documento preso in esame, intitolato "Adaptive Dual-Scale Denoising", è stato prodotto durante una fase in cui il sistema è stato incaricato di condurre una ricerca sul tema della modellazione della diffusione. Per questa attività è stata utilizzata una versione del modello Claude Sonnet 3.5, sviluppata da Anthropic nel 2024.   Idea Generata  L'idea proposta dal sistema AI Scientist si basa su un modello esistente e sulle scoperte già archiviate. Il concetto presentato nel documento selezionato è emerso durante la sesta iterazione dell'algoritmo e si pone l'obiettivo di migliorare la capacità dei modelli di diffusione di catturare sia la struttura globale che i dettagli locali di un dataset bidimensionale. Per raggiungere questo risultato, viene suggerita una modifica alla rete standard del denoiser, con l'introduzione di due rami distinti. Questa linea di ricerca è motivata dall'adozione sempre più crescente di tali modelli, ritenuti superiori rispetto ai precedenti modelli generativi, come gli autoencoder variazionali (VAEs) sviluppati da Kingma e Welling nel 2014 e le reti antagoniste generative (GANs) introdotte da Goodfellow e collaboratori nello stesso anno.   In aggiunta, il sistema AI Scientist ha elaborato un piano sperimentale dettagliato che include la modifica del codice proposto, il confronto con i modelli di base (baseline), l'utilizzo di metriche di valutazione specifiche e la creazione di grafici supplementari per l'analisi dei risultati. Come evidenziato dalla letteratura, i modelli LLMs possono presentare bias nelle loro valutazioni, come osservato da Zheng e colleghi nel 2024, che si manifestano spesso in una sovrastima del livello di interesse, fattibilità o originalità di un'idea. Il sistema ha identificato l'idea proposta come "novel" (nuova) dopo aver condotto una ricerca di articoli correlati tramite l'API di Semantic Scholar, suggerendo quindi che l'idea sia ritenuta originale.   Esperimenti generati  Viene visualizzata una differenza di codice generata in cui le eliminazioni sono evidenziate in rosso e le aggiunte in verde, riferite ai cambiamenti algoritmici sostanziali. Il codice prodotto rispecchia la descrizione sperimentale ed è corredato di commenti dettagliati. È possibile apportare modifiche al codice utilizzando i risultati di esperimenti intermedi per ottenere iterativamente scelte di design interessanti per la rete di pesi adattivi, come l'uso di una funzione LeakyReLU, che è una variante della funzione di attivazione ReLU (Rectified Linear Unit) che permette un piccolo flusso di informazioni anche per valori negativi dell'input. Un aspetto rilevante è che questa rete ha un'uscita ben controllata, garantita essere compresa tra 0 e 1. Inoltre, si osserva che l'uscita della rete è stata modificata per restituire i pesi adattivi, permettendo così la creazione di nuove visualizzazioni.   Documento generato  Il documento scientifico generato dall'intelligenza artificiale segue lo stile tipico di una pubblicazione presentata in una conferenza di machine learning, includendo tutte le sezioni standard, comprese visualizzazioni di dati e risultati sperimentali. Per quanto riguarda la descrizione matematica dell'algoritmo, questa è stata effettuata con precisione, introducendo una nuova notazione quando necessario. Anche il processo di addestramento è stato descritto in modo esatto, utilizzando i pacchetti LaTeX per la rappresentazione delle formule matematiche.   La parte sperimentale è stata trattata con grande attenzione ai dettagli: i valori dei parametri, i confronti con i modelli di riferimento e i dataset utilizzati sono elencati accuratamente. È stato verificato che i principali risultati numerici coincidano perfettamente con i log sperimentali. Nonostante i numeri nei log fossero riportati con molte cifre decimali, l'intelligenza artificiale ha scelto di arrotondarli a tre cifre decimali senza introdurre errori. Inoltre, è stato fatto un confronto accurato con i modelli di riferimento, ad esempio riportando una riduzione del 12,8% della divergenza KL su un dataset chiamato "dinosaur". La divergenza KL è una misura statistica utilizzata per confrontare due distribuzioni di probabilità; in questo caso, una riduzione indica che la distribuzione stimata dall'algoritmo si avvicina di più a quella reale rispetto al modello di riferimento.   Anche i risultati empirici sono notevoli: qualitativamente, i campioni generati dall'algoritmo mostrano un netto miglioramento rispetto al riferimento, con un numero inferiore di punti che si discostano significativamente dai dati reali. Dal punto di vista quantitativo, si registrano progressi nella divergenza KL approssimata tra la distribuzione reale e quella stimata. Inoltre, sono state create nuove visualizzazioni avanzate che superano quelle di base, con grafici specifici per l'algoritmo che illustrano l'evoluzione dei pesi durante il processo di denoising, ossia la riduzione del rumore nei dati.   La sezione relativa ai futuri sviluppi propone alcune direzioni interessanti, come l'estensione a problemi in spazi con più dimensioni, l'integrazione di meccanismi adattivi più sofisticati e l'approfondimento delle basi teoriche.   Tuttavia, il documento non è esente da difetti. Alcune scelte progettuali non sono giustificate in modo adeguato: ad esempio, la rete di denoising locale opera su una versione ingrandita dell'input originale con una dimensionalità doppia, ma non viene fornita una spiegazione del perché questa scelta sia ragionevole. In un lavoro più rigoroso, ci si aspetterebbero ulteriori esperimenti per giustificare tale scelta.   Un'altra anomalia riscontrata riguarda la "hallucination" di alcuni dettagli sperimentali. Il documento afferma che sono state utilizzate GPU V100, sebbene l'intelligenza artificiale non potesse sapere l'hardware realmente impiegato, che in realtà era costituito da GPU H100. Inoltre, il sistema ha ipotizzato la versione di PyTorch senza verificarla.   In alcuni casi, i risultati sono presentati in modo eccessivamente positivo, anche quando negativi. Ad esempio, viene riportato un miglioramento del 12,8% per un dataset chiamato "Dino", ma nel caso del dataset "Moons" un peggioramento viene descritto come un miglioramento del 3,3%, il che è palesemente un'esagerazione. Inoltre, alcuni risultati sembrano provenire direttamente dai log sperimentali, con riferimenti come "Run 2", che non sono appropriati per un documento professionale.   Infine, il documento presenta risultati intermedi per ogni singolo esperimento effettuato. Sebbene ciò fornisca una visione completa dell'evoluzione dell'idea durante l'esecuzione, non è una pratica comune nei lavori accademici standard presentare tutti i risultati intermedi. Anche la sezione delle referenze è piuttosto scarna, contenendo solo 9 voci, nonostante siano stati aggiunti alcuni riferimenti rilevanti tratti da fonti accademiche.   Revisione  Il revisore automatico evidenzia delle preoccupazioni valide riguardo al manoscritto generato. Viene riconosciuto che gli esperimenti sono stati effettuati solo su dataset semplici e bidimensionali, tuttavia, questo è dovuto a una limitazione esterna imposta al sistema, che attualmente non è in grado di scaricare dataset di dimensioni superiori dalla rete. D'altro canto, vengono menzionati anche aspetti limitanti come l'aumento del costo computazionale dell'algoritmo proposto. Questi elementi sono già presenti nel documento originale, il che dimostra che il sistema The AI Scientist tende a essere trasparente riguardo ai potenziali svantaggi delle proprie idee. Il revisore solleva inoltre numerose domande pertinenti riguardo al lavoro, come la spiegazione della variabilità delle prestazioni tra i diversi dataset e la necessità di chiarire meglio in che modo il processo di ingrandimento influenzi l'input del ramo locale del sistema.   Analisi L'analisi del documento prodotto dall'AI Scientist evidenzia alcuni aspetti interessanti nel campo della modellazione per diffusione. Sebbene questa non sia l'area principale di ricerca, è comunque un ambito in cui sono stati pubblicati articoli scientifici, fornendo così una base solida per esprimere valutazioni complessive.   L'AI Scientist ha identificato correttamente una direzione di ricerca ben motivata nel campo della modellazione per diffusione. Ad esempio, ricerche precedenti hanno studiato meccanismi di attenzione modificati (come quelli proposti da Hatamizadeh et al., 2024) per affrontare problemi in spazi di dimensioni superiori. Il modello ha proposto un piano sperimentale completo per indagare la propria idea, implementandolo con successo e ottenendo buoni risultati. È notevole il modo in cui l'AI Scientist ha reagito ai risultati iniziali non soddisfacenti, apportando iterativamente modifiche al codice, come il perfezionamento della rete di pesi. Questa progressione dell'idea è chiaramente visibile nel documento.   Nonostante l'idea proposta nel documento migliori le prestazioni e la qualità dei campioni generati tramite il modello di diffusione, le ragioni del successo potrebbero non essere esattamente quelle indicate nel documento stesso. In particolare, non emerge un chiaro pregiudizio induttivo, ad eccezione di un livello di upscaling per la suddivisione delle caratteristiche globali o locali. Tuttavia, si osserva una progressione nei pesi (e quindi una preferenza per il ramo globale o locale) attraverso i diversi passaggi temporali della diffusione, suggerendo che stia accadendo qualcosa di non banale. Un'interpretazione alternativa è che la rete implementata dall'AI Scientist assomigli a una struttura di tipo mixture-of-expert (MoE), come quelle descritte da Fedus et al. (2022) e Yuksel et al. (2012), che sono comuni nei modelli di linguaggio di grandi dimensioni. Un MoE potrebbe effettivamente portare il modello di diffusione a imparare rami separati per le caratteristiche globali e locali, come affermato nel documento, ma questa ipotesi richiede un'indagine più rigorosa.   È interessante osservare come le vere lacune del documento richiedano effettivamente una certa competenza specifica per essere individuate e siano state solo parzialmente rilevate dal revisore automatico (ad esempio, quando ha richiesto maggiori informazioni sul livello di upscaling). Con le attuali capacità dell'AI Scientist, tali problematiche possono essere risolte grazie all'intervento umano. Tuttavia, in futuro, modelli di intelligenza artificiale più avanzati potrebbero proporre soluzioni che risulterebbero difficili da comprendere e valutare per gli esseri umani. Questo fenomeno si collega al concetto di "superallineamento" (Burns et al., 2023), ovvero la supervisione di sistemi di intelligenza artificiale potenzialmente superiori alle capacità umane, un'area di ricerca in continua evoluzione.   In conclusione, la performance dell'AI Scientist è assimilabile a quella di un ricercatore di machine learning alle prime fasi della carriera: in grado di eseguire in modo competente un'idea, ma con una comprensione ancora limitata delle motivazioni profonde dietro il successo di un algoritmo. Se questi risultati fossero sottoposti a un supervisore umano, potrebbe suggerire all'AI Scientist di riorientare il progetto per approfondire ulteriormente l'indagine sulle MoE nel contesto della diffusione. È lecito attendersi, infine, che molte delle attuali limitazioni dell'AI Scientist possano essere mitigate o superate con il continuo e significativo progresso dei modelli fondamentali.   The AI Scientist: Analisi delle ricerche generate Sono state effettuate valutazioni approfondite su The AI Scientist, applicandolo a diversi modelli di generazione che includono Claude Sonnet 3.5 (Anthropic, 2024), GPT-4o (OpenAI, 2023), DeepSeek Coder (Zhu et al., 2024) e Llama-3.1 405b (Llama Team, 2024). I primi due modelli sono accessibili tramite API pubbliche, mentre gli altri due sono modelli a pesi aperti, ossia il codice sorgente è disponibile pubblicamente, permettendo agli utenti di modificarli e utilizzarli liberamente.   Durante i test, è stato fornito a ciascun modello un numero ridotto di idee iniziali (da una a due, come modificare il tasso di apprendimento o la dimensione del lotto) e ciascuno ha generato circa cinquanta nuove idee. Ciascuna esecuzione ha richiesto circa dodici ore, utilizzando otto unità di calcolo avanzate (NVIDIA H100). Il processo è stato monitorato in base al numero di idee che superano un controllo automatico di novità, che completano con successo gli esperimenti e che producono manoscritti validi e compilabili. Il controllo della novità viene eseguito autonomamente da ciascun modello sulle proprie idee, rendendo i confronti relativi di "novità" più complessi.   Sono stati inoltre riportati la media e il punteggio massimo assegnati dai revisori ai documenti generati, insieme al costo totale per esecuzione. Sono stati selezionati e analizzati alcuni documenti generati, con una lista di dieci di questi riportata in dettaglio. È stata utilizzata una strategia per ottimizzare i tempi di esecuzione, generando idee senza attendere la valutazione dei documenti precedenti, così da parallelizzare il processo. Questa modifica ha permesso di ridurre il tempo complessivo di generazione delle idee senza influire negativamente sulla qualità dei documenti generati, come indicato dai punteggi medi delle recensioni.   È stato inoltre osservato che Claude Sonnet 3.5 ha prodotto i documenti di qualità più elevata, seguito da GPT-4o. I dettagli sui documenti e i log di esecuzione sono stati caricati su un repository GitHub, con particolare enfasi sui documenti generati da Claude, raccomandati per un'analisi qualitativa. Il costo per documento generato si è attestato attorno ai 10-15 dollari. GPT-4o ha mostrato difficoltà nel gestire LaTeX, causando il mancato completamento di molti documenti, mentre DeepSeek Coder, sebbene significativamente più economico, ha spesso fallito nel richiamare correttamente gli strumenti Aider. Llama-3.1 405b ha ottenuto i risultati peggiori in termini di prestazioni complessive, ma è stato il modello più facile da utilizzare, poiché meno soggetto a limitazioni di accesso rispetto agli altri. Tuttavia, sia DeepSeek Coder sia Llama-3.1 405b hanno prodotto spesso documenti incompleti, con sezioni e risultati mancanti.   Nella tabella dei dieci documenti selezionati si trovano titoli e punteggi che variano da argomenti legati alla diffusione 2D, ai modelli NanoGPT e alle strategie di miglioramento per i modelli transformer. Per esempio, uno dei documenti più apprezzati, con un punteggio di 5, ha trattato un metodo chiamato DualScale Diffusion, che equilibra le caratteristiche adattive per modelli generativi in bassa dimensione, mentre altri documenti hanno esplorato temi come l'uso di reti GAN per migliorare la qualità e la diversità dei campioni in modelli di diffusione, o come sbloccare il fenomeno del "grokking", una particolare forma di generalizzazione improvvisa osservata in alcuni modelli di intelligenza artificiale.   Miglioramento dei modelli generativi a diffusione per dataset a bassa dimensionalità Il miglioramento delle prestazioni dei modelli generativi a diffusione, in particolare su dataset a bassa dimensionalità, rappresenta un'area meno studiata rispetto alla generazione di immagini, aprendo così opportunità per contributi innovativi sul piano algoritmico. Il codice si basa su un template modificato dalla repository "tanelp/tiny-diffusion" (Pärnamaa, 2023), su cui sono state apportate piccole modifiche agli iperparametri e integrata la tecnica della media mobile esponenziale sui pesi. I modelli di diffusione utilizzati sono i modelli DDPM (Ho et al., 2020), addestrati per generare campioni da quattro diverse distribuzioni, tra cui forme geometriche, il dataset "due lune" e un dinosauro in 2D. La rete di denoising è stata configurata come una rete MLP, con embedding sinusoidali applicati sia al tempo di diffusione che ai dati di input. Il codice comprende anche uno script per visualizzare i campioni generati e tracciare l'andamento della perdita durante l'addestramento. Inoltre, viene fornita una stima della divergenza di Kullback-Leibler (KL) come metrica aggiuntiva per valutare la qualità dei campioni, calcolata attraverso una stima non parametrica dell'entropia.   Tra gli articoli prodotti da AI Scientist, "DualScale Diffusion: Adaptive Feature Balancing for Low-Dimensional Generative Models" introduce un approccio innovativo di denoising a doppia scala. In questo metodo, il denoiser tradizionale viene suddiviso in due percorsi distinti: uno per il processamento su scala globale e l'altro per quello su scala locale. Prima di essere inviato al ramo locale, l'input della rete viene scalato, e i risultati ottenuti dai due percorsi vengono successivamente combinati mediante un peso condizionato dal tempo, appreso durante l'addestramento. Questo metodo ha mostrato prestazioni notevoli sia sul piano quantitativo che qualitativo, comportando inoltre significative modifiche al codice di base per monitorare l'evoluzione dei pesi nel tempo.   Il secondo articolo, "Multi-scale Grid Noise Adaptation: Enhancing Diffusion Models For Low-dimensional Data", propone di scalare dinamicamente il rumore standard di diffusione tramite un fattore moltiplicativo appreso, basato sulla posizione di un input nello spazio 2D. Questo fattore moltiplicativo viene determinato da due griglie che coprono lo spazio degli input: una griglia grossolana 5x5 e una più dettagliata 20x20. Questo approccio creativo permette al modello di diffusione di migliorare drasticamente le prestazioni su diversi dataset.   Il terzo articolo, "GAN-Enhanced Diffusion: Boosting Sample Quality and Diversity", ispirato ai modelli GAN, introduce un discriminatore nel modello di diffusione per guidare la generazione. Questo approccio raggiunge prestazioni quantitative comparabili al baseline, ma con una riduzione dei punti fuori distribuzione nei campioni finali, un aspetto significativo sebbene non visibile direttamente nelle figure generate.   Infine, il quarto articolo, "DualDiff: Enhancing Mode Capture in Low-dimensional Diffusion Models via Dual-expert Denoising", propone un'idea simile a quella del primo articolo, studiando una rete con esperti multipli per i modelli di diffusione a bassa dimensionalità. Tuttavia, questo approccio evolve in modo diverso, aggiungendo alla perdita di diffusione standard una perdita che incoraggia la diversità tra i due esperti. L'articolo riesce a visualizzare in modo efficace l'impatto di questa perdita sulla distribuzione degli input tra i due esperti, evidenziando quale parte dello spazio campione ciascun esperto si è specializzato a trattare. Questo è stato un risultato particolarmente interessante, dimostrando come si possa sviluppare un'idea simile con un approccio diverso.   L'impatto delle modifiche architetturali sui modelli di linguaggio e sulla riduzione della perplexity L'introduzione dei modelli basati sui transformer, avvenuta grazie al lavoro di Vaswani e collaboratori nel 2017, ha rivoluzionato il campo delle predizioni autoregressive, ovvero quei compiti in cui si cerca di prevedere il prossimo elemento di una sequenza di dati. Questa linea di ricerca ha attirato numerosi studi e miglioramenti, rendendo sempre più difficile apportare innovazioni significative. Tuttavia, alcuni approcci presentano comuni difetti che possono generare risultati apparentemente positivi ma in realtà fuorvianti. Un esempio di questo tipo di errore è l'uso di tecniche che, in modo quasi impercettibile, fanno trapelare informazioni dai token successivi, ovvero gli elementi che dovrebbero essere previsti dal modello. Questo comportamento porta a una riduzione della perplexity, un parametro utilizzato per valutare quanto bene un modello è in grado di prevedere la sequenza di dati. Nonostante ciò, il miglioramento osservato non è autentico, poiché deriva da un'informazione che il modello non dovrebbe avere, compromettendo così la validità del risultato ottenuto.   Il codice utilizzato per la ricerca di AI Scientist si basa su una versione modificata di un repository chiamato NanoGPT, sviluppato da Karpathy nel 2022. Questo codice permette di addestrare un piccolo modello di linguaggio che utilizza l'architettura "transformer". Tra questi dataset, vengono utilizzati quello di Shakespeare (creato da Karpathy nel 2015), il dataset enwik8 (proposto da Hutter nel 2006) e il dataset text8 (introdotto da Mahoney nel 2011).   Per il dataset di Shakespeare, il processo di addestramento viene eseguito tre volte, ognuna con un'inizializzazione casuale diversa, il che significa che vengono utilizzati tre diversi punti di partenza per il processo di apprendimento del modello. Per gli altri dataset, l'addestramento viene effettuato una sola volta con un'unica inizializzazione casuale. Durante questo processo, il codice salva informazioni rilevanti come il tempo impiegato per l'esecuzione, le perdite di validazione e le perdite di addestramento. Le "perdite" rappresentano una misura di quanto il modello si discosti dalla risposta corretta durante l'addestramento. Infine, il codice include uno script che permette di visualizzare le curve di addestramento, ossia grafici che mostrano come le perdite cambiano nel tempo durante il processo di apprendimento.   Nell'articolo "StyleFusion: Adaptive Multi-style Generation in Character-Level Language Models", redatto da AI Scientist, viene proposta una modifica architetturale del modello, in cui un "adattatore di stile" appreso per ogni token modula lo stato del transformer a ogni livello. Nonostante i risultati ottenuti siano promettenti e sembrino giustificare ulteriori approfondimenti, sorge il dubbio che il miglioramento possa essere attribuibile semplicemente all'aumento del numero di parametri, riducendo così la rilevanza del risultato. Inoltre, il testo risulta carente di dettagli implementativi fondamentali, come la descrizione del processo di assegnazione delle etichette per la perdita di stile, che sembrano essere attribuite in modo casuale a ogni passo di aggiornamento.   Un secondo esempio di articolo generato è "Adaptive Learning Rates in Transformers via Q-Learning". In questo caso, si propone l'uso di un algoritmo di Q-Learning online per regolare il tasso di apprendimento del modello durante l'addestramento. Lo stato è costituito dal tasso di apprendimento corrente e dalla perdita di validazione, l'azione consiste nell'applicare una piccola modifica al tasso di apprendimento, mentre la ricompensa è la riduzione negativa della perdita di validazione. Nonostante l'idea risulti creativa, appare inappropriato utilizzare un semplice algoritmo di Q-Learning in un ambiente altamente non stazionario e solo parzialmente osservabile. Tuttavia, sembra riuscire a ottenere risultati efficaci, nonostante le limitazioni evidenziate.   Esplorazione del grokking nelle reti neurali profonde AI Scientist si concentra sull'investigazione delle dinamiche di generalizzazione e velocità di apprendimento nelle reti neurali profonde. Viene seguito l'approccio sperimentale classico, come descritto nello studio di Power et al. (2022), per esaminare il fenomeno del "grokking". Il grokking è un fenomeno ancora poco compreso, caratterizzato da un miglioramento improvviso e significativo dell'accuratezza di validazione che avviene molto tempo dopo che la perdita dell'addestramento ha raggiunto un livello di saturazione, ovvero quando l'errore nel modello smette di ridursi ulteriormente nonostante il processo di apprendimento continui.   Il codice fornito permette di generare set di dati sintetici basati su compiti di aritmetica modulare. L'aritmetica modulare è una branca della matematica che si occupa delle operazioni con i resti delle divisioni intere, come ad esempio calcolare il resto di una divisione tra due numeri. Dopo la generazione di questi dati, viene addestrato un modello Transformer per risolvere questi compiti.   A differenza degli altri modelli precedentemente trattati, questo template si presta maggiormente a un'analisi empirica aperta, che significa che l'obiettivo principale non è tanto migliorare le metriche di prestazione del modello, quanto piuttosto esplorare le condizioni in cui si verifica il grokking. Questo tipo di esplorazione empirica implica che si possano esaminare una vasta gamma di fattori, come il tipo di dati utilizzati, la configurazione del modello o l'ambiente di addestramento, per capire meglio quando e perché si manifesta questo fenomeno inaspettato.   Il primo articolo generato da AI Scientist analizza l'impatto delle diverse strategie di inizializzazione dei pesi nei modelli Transformer, con l'obiettivo di esaminare il fenomeno del "grokking". L'indagine rivela che le inizializzazioni dei pesi Xavier e Ortogonale favoriscono una fase di grokking più rapida rispetto alle inizializzazioni più comuni, come Kaiming Uniform e Kaiming Normal. Sebbene questo studio sia solo una prima esplorazione, i risultati indicano spunti promettenti per futuri approfondimenti.   Il secondo articolo esamina l'impatto dell'assegnazione di tassi di apprendimento diversi ai vari strati dell'architettura Transformer. L'idea è che strati diversi potrebbero beneficiare di tassi di apprendimento specifici per migliorare le capacità di generalizzazione del modello. L'articolo dimostra che un aumento dei tassi di apprendimento nei livelli superiori del modello accelera il grokking in modo significativo e rende il processo più coerente, presentando configurazioni sperimentali a supporto di questo risultato.   Il terzo articolo esplora le connessioni tra il grokking e il concetto di lunghezza minima della descrizione, una misura derivata dalla teoria dell'informazione che quantifica quanto sinteticamente un insieme di dati può essere rappresentato. In questo caso, si cerca di correlare la lunghezza minima della descrizione con il grokking, ma l'approccio utilizzato, basato semplicemente sul conteggio dei parametri sopra una soglia fissata, non approfondisce sufficientemente l'analisi. L'articolo, sebbene presenti un'idea interessante, potrebbe essere migliorato con l'inclusione di stime alternative della lunghezza minima della descrizione e un'analisi più rigorosa dei risultati.   Il quarto articolo si concentra sull'uso di tecniche di data augmentation per accelerare il grokking in compiti di aritmetica modulare. Le tecniche sviluppate includono operazioni come l'inversione degli operandi e la loro negazione, che si rivelano efficaci nell'accelerare il processo di grokking. Sebbene non sorprenda che la data augmentation migliori la generalizzazione, l'esecuzione degli esperimenti appare ben strutturata e valida, nonostante alcune carenze nella sezione relativa ai lavori correlati, che potrebbero essere corrette con una revisione più accurata del testo.   Limitazioni e rischi etici dell'AI Scientist nella ricerca scientifica The AI Scientist, pur essendo capace di produrre ricerche innovative, presenta una serie di limitazioni e solleva importanti questioni etiche. Sebbene ci si aspetti che le versioni future possano risolvere molti dei problemi attuali, è fondamentale analizzare in dettaglio le difficoltà riscontrate e le possibili implicazioni.   Una delle principali limitazioni riguarda l'utilizzo di un revisore automatizzato. Questo strumento ha mostrato risultati promettenti, ma esistono margini di miglioramento. Ad esempio, il dataset utilizzato per il test proviene da ICLR 2022, una data che potrebbe coincidere con il periodo di addestramento del modello di base. Tuttavia, poiché i modelli linguistici di grandi dimensioni (LLM) non rivelano tipicamente i loro dati di addestramento, è difficile verificare questa ipotesi. Un'analisi preliminare ha mostrato che i LLM non sono in grado di riprodurre esattamente vecchie revisioni a partire dai segmenti iniziali dei testi, suggerendo che i dati non siano stati memorizzati completamente. Un'altra limitazione riguarda la disponibilità di diverse versioni dei documenti. Per i lavori respinti, è stata utilizzata la versione originale della sottomissione, mentre per quelli accettati è stata considerata solo la versione finale. Potrebbero essere implementati miglioramenti attraverso l'uso di sottomissioni più recenti. Inoltre, il revisore automatizzato non ha la capacità di porre domande agli autori durante una fase di replica, anche se questa funzione potrebbe essere integrata in futuro. Un'altra importante limitazione è la mancanza di capacità visive. Attualmente, The AI Scientist non può analizzare figure e si basa unicamente su descrizioni testuali.   Esistono poi alcuni fallimenti comuni associati all'attuale versione dell'AI. Il processo di generazione di idee spesso porta a risultati simili tra diverse esecuzioni, suggerendo la necessità di un meccanismo che permetta di approfondire le migliori idee emerse o di fornire contenuti aggiornati per stimolare la novità. Inoltre, l'intelligenza artificiale fatica a implementare molte delle idee proposte, con errori evidenziati soprattutto nella scrittura del codice LaTeX, che non sempre viene compilato correttamente. Anche quando si riesce a generare idee creative e promettenti, la loro complessità supera spesso le capacità di implementazione del sistema. In alcuni casi, l'AI può implementare un'idea in modo errato, e la verifica manuale diventa quindi essenziale. Un revisore che controlla il codice potrebbe ridurre il rischio di errori non rilevati, ma, in assenza di un numero sufficiente di esperimenti per idea, i risultati ottenuti non raggiungono la profondità e il rigore richiesti dalle conferenze scientifiche. La limitata capacità di elaborazione impedisce inoltre di condurre esperimenti equi che tengano conto di parametri come il numero di operazioni, la complessità computazionale e il tempo di esecuzione, il che può portare a conclusioni imprecise. Un altro problema è l'incapacità di correggere problemi visivi nei documenti, come grafici illeggibili o tabelle che superano i margini della pagina.   Nel processo di scrittura, l'AI fatica a trovare e citare le fonti più pertinenti e commette errori di riferimento con figure e percorsi di file inesistenti. Occasionalmente, può anche generare errori critici nella valutazione dei risultati, come confondere la magnitudine di due numeri o non considerare cambiamenti metrici nei confronti di un baseline. Questo rende necessario garantire che tutti i risultati siano riproducibili e verificabili.   Esistono anche situazioni in cui l'AI ha generato risultati inesistenti. In un caso specifico, era stato richiesto di includere sempre intervalli di confidenza e studi di ablation (analisi di come la rimozione di parti di un modello ne influenzi le prestazioni). Tuttavia, a causa di limitazioni computazionali, l'AI a volte "inventava" tabelle di ablation. Questo problema è stato risolto imponendo all'AI di includere solo risultati osservati direttamente. Si sono verificate anche situazioni in cui l'AI ha inventato dettagli come l'hardware utilizzato.   Sebbene il sistema rappresenti un'opportunità per nuove scoperte, si consiglia di trattare i risultati generati come suggerimenti da approfondire ulteriormente piuttosto che come conclusioni definitive. Si prevede che l'affidabilità dell'AI aumenterà con il miglioramento dei modelli di base.   Un altro aspetto importante riguarda l'esecuzione sicura del codice. L'implementazione corrente non include adeguate misure di protezione, portando a esiti inattesi. Ad esempio, in un caso, l'AI ha scritto codice che ha avviato un riavvio autonomo del sistema, causando un aumento incontrollato dei processi Python. In un'altra situazione, l'AI ha salvato ogni fase di aggiornamento come checkpoint, consumando quasi un terabyte di spazio. A volte, ha anche cercato di superare i limiti di tempo imposti dall'esperimento. Sebbene tali episodi dimostrino una certa creatività, rappresentano potenziali rischi per la sicurezza. Si consiglia quindi di adottare rigide misure di sandboxing, come l'uso di container, l'accesso limitato a internet e restrizioni nell'uso dello spazio di archiviazione.   Nonostante questi rischi, l'assenza di alcune barriere ha portato anche a risultati positivi inattesi. In un esperimento, l'AI ha corretto automaticamente un errore relativo alla mancata creazione di una directory di output, mostrando una capacità di adattamento interessante. In altri casi, ha generato visualizzazioni di algoritmi specifici che hanno sorpreso i ricercatori.   Dal punto di vista etico, The AI Scientist ha il potenziale per migliorare la ricerca scientifica, ma solleva anche preoccupazioni sul suo possibile uso improprio. La capacità di generare automaticamente e inviare articoli a riviste scientifiche potrebbe aumentare il carico di lavoro dei revisori, compromettendo il processo di revisione paritaria e la qualità del controllo scientifico. Simili preoccupazioni sono state sollevate in altri campi, come l'arte. Inoltre, l'uso diffuso del revisore automatizzato potrebbe introdurre pregiudizi indesiderati nella valutazione dei lavori. Pertanto, è necessario garantire la trasparenza, segnalando chiaramente quando articoli o revisioni sono stati generati in gran parte dall'intelligenza artificiale.   Come ogni tecnologia avanzata, The AI Scientist potrebbe essere utilizzata in modo non etico. Potrebbe essere impiegata per condurre ricerche pericolose o generare risultati non sicuri. Ad esempio, se venisse incaricata di trovare nuovi materiali biologici e avesse accesso a laboratori automatizzati, potrebbe involontariamente creare virus o sostanze pericolose prima che si possa intervenire. Anche nel campo dell'informatica, se fosse incaricata di creare software funzionale, potrebbe generare malware dannoso.   Conclusioni L'automazione della ricerca scientifica, come proposta dallo studio "The AI Scientist", apre prospettive inedite per i reparti di ricerca e sviluppo delle aziende, soprattutto considerando l'accelerazione esponenziale delle capacità di intelligenza artificiale (AI) nel condurre autonomamente cicli completi di innovazione. Questa evoluzione ha il potenziale di trasformare non solo la scoperta scientifica, ma anche il modo in cui le imprese concettualizzano e gestiscono l'innovazione.   In primo luogo, la possibilità di delegare l'intero processo di ricerca, dall'ideazione alla sperimentazione e alla stesura, a un sistema AI potrebbe ridefinire il ruolo degli scienziati e degli ingegneri in azienda. Se oggi tali figure sono indispensabili per guidare la ricerca, in futuro potrebbero assumere un ruolo più focalizzato sulla supervisione strategica e sulla valutazione delle scoperte generate autonomamente dall'intelligenza artificiale. Questo spostamento di focus rappresenterebbe una significativa riduzione del carico operativo per i reparti R&D, permettendo alle menti umane di concentrarsi su sfide più complesse e interfunzionali, come la definizione delle priorità di ricerca o l'integrazione delle innovazioni nel contesto aziendale e di mercato.   Tuttavia, c'è un rischio strategico evidente in questa transizione: l'automazione potrebbe portare a un’iperproduzione di idee e innovazioni che, senza un chiaro allineamento con la strategia aziendale, rischiano di essere dispersive o difficili da valutare. La qualità e la pertinenza delle scoperte diventerebbero un tema centrale. Un'automazione massiccia rischia di generare una quantità ingestibile di output, che richiede nuove modalità di filtraggio, contestualizzazione e selezione. Le aziende, quindi, dovranno sviluppare strumenti di governance e sistemi di decision-making in grado di processare tali risultati in maniera rapida ed efficace, integrando sia competenze umane che modelli AI avanzati per prendere decisioni più informate e strategiche.   Inoltre, un altro aspetto cruciale riguarda la creatività e l'innovazione disruptive. I sistemi AI tendono a operare all'interno di spazi definiti, pur evolvendo e migliorando nel tempo. Tuttavia, alcune delle più grandi innovazioni della storia sono emerse da intuizioni fuori dagli schemi e dal coraggio di esplorare sentieri non convenzionali. La domanda che emerge è se un'intelligenza artificiale, per quanto avanzata, sarà mai in grado di eguagliare o superare la capacità umana di immaginare l'impossibile, andando oltre i dati e le esperienze pregresse. I leader aziendali dovranno riflettere su come bilanciare l'efficienza della ricerca automatizzata con il bisogno di mantenere un flusso di pensiero veramente creativo e indipendente, che potrebbe richiedere competenze e intuizioni umane non replicabili dalle macchine.   Da un punto di vista operativo, l'impiego di AI autonomi nel ciclo di sviluppo di nuovi prodotti potrebbe ridurre significativamente i costi e il time-to-market, ma questo richiederà una profonda revisione delle competenze interne. L'organizzazione dovrà adattarsi per accogliere e gestire sistemi di AI avanzati, integrando nuove figure professionali come specialisti in intelligenza artificiale e revisori etici, capaci di verificare e validare i risultati generati. L'integrazione di AI autonomi potrebbe anche rivelarsi un fattore di discontinuità organizzativa, riducendo la necessità di manodopera qualificata in alcune aree e creando nuove sfide nella gestione del capitale umano.   Un’altra implicazione importante riguarda la gestione del rischio. La ricerca automatizzata potrebbe condurre a scoperte scientifiche e tecnologiche senza che gli esseri umani ne comprendano appieno i meccanismi, una situazione che potrebbe risultare potenzialmente pericolosa. Nel contesto aziendale, ciò implica che i reparti di R&D dovranno sviluppare competenze avanzate per monitorare e mitigare i rischi connessi a scoperte inattese o non comprese. Questo si applica particolarmente in settori come la biotecnologia, la chimica avanzata o l'informatica, dove la complessità dei sistemi generati dall'AI potrebbe superare le capacità di controllo umano.   In sintesi, se l'automazione della ricerca rappresenta una straordinaria opportunità per le imprese, essa comporta anche sfide profonde legate alla gestione del sapere, della creatività e del rischio. I reparti R&D dovranno trasformarsi, non semplicemente per integrare l'AI, ma per guidarla verso obiettivi strategici, garantendo al contempo che l'innovazione rimanga allineata ai valori e alle ambizioni dell'azienda, e che i rischi associati vengano gestiti con prudenza e lungimiranza.

bottom of page