Self-Discover rappresenta un quadro generale innovativo per i modelli di linguaggio di grandi dimensioni (LLM) che consente loro di auto-scoprire strutture di ragionamento intrinseche ai compiti per affrontare problemi complessi di ragionamento, che risultano impegnativi per i metodi di sollecitazione tradizionali. Questo approccio si basa su un processo di auto-scoperta in cui gli LLM selezionano e compongono moduli di ragionamento atomici, come il pensiero critico e il ragionamento passo dopo passo, in una struttura di ragionamento esplicita da seguire durante la decodifica. I risultati mostrano che Self-Discover migliora significativamente le prestazioni di GPT-4 e PaLM 2 su benchmark di ragionamento complessi come BigBench-Hard, il ragionamento agente basato sulla conoscenza e MATH, con miglioramenti fino al 32% rispetto al metodo Chain of Thought (CoT). Inoltre, supera i metodi basati su inferenza come CoT-Self-Consistency di oltre il 20%, richiedendo da 10 a 40 volte meno calcoli di inferenza. Dimostriamo anche che le strutture di ragionamento auto-scoperte sono universalmente applicabili tra diverse famiglie di modelli, evidenziando somiglianze con i modelli di ragionamento umano.
I modelli di linguaggio di grandi dimensioni (LLM), come GPT-4 e PaLM 2, hanno ottenuto risultati notevoli nella generazione di testi coerenti e nell'esecuzione di compiti seguendo istruzioni specifiche. Tuttavia, migliorare la loro capacità di ragionamento e risolvere problemi complessi rimane una sfida cruciale. Vari metodi di sollecitazione, ispirati alle teorie cognitive sul ragionamento umano, sono stati proposti per affrontare questa sfida. Tuttavia, questi metodi tendono ad applicare un modulo di ragionamento predefinito a ogni compito, senza considerare la struttura di ragionamento unica e intrinseca necessaria per risolverlo in modo efficiente.
Self-Discover mira a identificare la struttura di ragionamento specifica per ciascun compito, permettendo un'elaborazione altamente efficiente. Ispirato al modo in cui gli esseri umani ideano internamente un programma di ragionamento per risolvere i problemi, Self-Discover guida gli LLM nella composizione di una struttura di ragionamento coerente a partire da moduli di ragionamento atomici descritti in linguaggio naturale. Questo processo si svolge in due fasi: la prima fase mira a scoprire la struttura di ragionamento intrinseca al compito, mentre la seconda fase utilizza questa struttura per risolvere istanze specifiche del compito.
Risultati Sperimentali Self-Discover LLM
Self-Discover è stato testato su 25 compiti di ragionamento complessi, ottenendo miglioramenti significativi rispetto al metodo CoT in 21 dei 25 compiti, con guadagni di performance fino al 42%. Questi risultati evidenziano i vantaggi della struttura di ragionamento auto-scoperta, che integra i punti di forza di più moduli di ragionamento, rispetto all'applicazione di un singolo modulo predefinito come CoT. Inoltre, Self-Discover ha dimostrato prestazioni superiori rispetto ai metodi basati su inferenza, come CoT + Self-Consistency, richiedendo notevolmente meno calcoli di inferenza.
Analisi
Un'analisi approfondita ha rivelato che Self-Discover offre i maggiori vantaggi nei compiti che richiedono una vasta conoscenza del mondo, e una moderata spinta nei compiti algoritmici. Inoltre, le strutture di ragionamento auto-scoperte si sono dimostrate universalmente applicabili tra diverse famiglie di modelli, con evidenti somiglianze con i modelli di ragionamento umano. Questo suggerisce che l'approccio può fornire intuizioni significative sul compito in modo più interpretabile rispetto ai prompt ottimizzati.
Conclusione
Self-Discover introduce un metodo efficiente e performante che consente ai modelli di auto-scoprire strutture di ragionamento adatte a qualsiasi compito, basandosi su un insieme di competenze generali di risoluzione dei problemi. I risultati mostrano miglioramenti significativi su benchmark di ragionamento complessi per diversi LLM, con una trasferibilità universale delle strutture di ragionamento scoperte. Questo apre nuove prospettive per l'avanzamento del ragionamento strutturato nei LLM e per l'esplorazione del potenziale di collaborazione tra umani e intelligenza artificiale.
Comments