top of page
Andrea Viliotti
5 dic 2024Tempo di lettura: 16 min
Introduzione al Machine Learning
Il Machine Learning apprende dai dati per migliorare compiti complessi, richiedendo etica e gestione per ridurre bias e impatti sociali.
Andrea Viliotti
23 nov 2024Tempo di lettura: 12 min
Come MBTL rende resilienti nel reinforcement learning
MBTL migliora generalizzazione e resilienza nel reinforcement learning, riducendo costi e gap, con successi in eco-driving e traffico.
Andrea Viliotti
28 ott 2024Tempo di lettura: 14 min
Robotica avanzata MIT: adattamento rapido e flessibilità con l'HPT
HPT del MIT sfrutta Transformer per affrontare l'eterogeneità nei robot, ottimizzando adattamento e flessibilità in compiti e ambienti diver
Andrea Viliotti
27 ott 2024Tempo di lettura: 12 min
MathGAP: Valutazione dei modelli linguistici su problemi matematici complessi
MathGAP valuta la capacità dei LLMs di risolvere problemi aritmetici complessi, testando la generalizzazione con dimostrazioni strutturate.
Andrea Viliotti
26 ott 2024Tempo di lettura: 15 min
CMs: Una nuova frontiera nella generazione di immagini AI
I Consistency Models (CMs) ottimizzano la generazione d’immagini riducendo i passaggi, con vantaggi per AI multimediale e industria.
Andrea Viliotti
22 ott 2024Tempo di lettura: 15 min
Controllable Safety Alignment (CoSA): Un nuovo approccio alle norme di sicurezza AI
CoSA adatta i modelli AI a norme di sicurezza variabili senza riaddestramento, offrendo flessibilità e riducendo notevolmente i costi.
Andrea Viliotti
20 ott 2024Tempo di lettura: 13 min
nGPT: Un nuovo passo nell'evoluzione dei transformer
nGPT usa la normalizzazione su ipersfera per ridurre instabilità e overfitting, migliorando traduzione, generazione e compiti downstream.
Andrea Viliotti
15 set 2024Tempo di lettura: 20 min
ALOHA 2 e l'evoluzione dell'automazione robotica ad alta destrezza per compiti complessi
ALOHA 2 sfrutta dati su larga scala e modelli avanzati per migliorare la manipolazione robotica di oggetti complessi e deformabili.
Andrea Viliotti
12 ago 2024Tempo di lettura: 38 min
Scaling LLM: Ottimizzare il calcolo durante la fase di test può risultare più efficace rispetto all'incremento dei parametri del modello
Team di Google DeepMind e dell'Università di Berkeley ha scoperto che ottimizzare il calcolo è più efficace dell'aumentare i parametri LLM
Andrea Viliotti
8 ago 2024Tempo di lettura: 34 min
Come MoMa di Meta innova il pre-addestramento nei modelli linguistici multimodali
MoMa di Meta FAIR migliora l'efficienza nei modelli linguistici multimodali, usando esperti AI per integrare dati sin dal pre-addestramento.
Andrea Viliotti
22 lug 2024Tempo di lettura: 19 min
ChatLogic potenzia il ragionamento complesso nei LLM
ChatLogic di U. Auckland integra programmazione logica in GPT-4 per migliorare ragionamento e memoria a lungo termine in LLM.
Andrea Viliotti
19 lug 2024Tempo di lettura: 16 min
Come COCOM migliora e perfeziona la gestione del contesto nei LLM
COCOM ottimizza LLM comprimendo contesti in embedding, bilanciando velocità e qualità risposte.
Andrea Viliotti
10 lug 2024Tempo di lettura: 16 min
Grazie alla Trascendenza AI, piattaforme come ChatGPT, Gemini o Claude possono superare le capacità degli esperti umani?
L'AI può superare gli umani, come dimostra la "Trascendenza AI" nello studio degli scacchi.
Andrea Viliotti
8 lug 2024Tempo di lettura: 25 min
Come migliorare le risposte di ChatGPT, Gemini o Claude tramite le tecniche RAG (Retrieval Augmented Generation)
"Fudan University studia tecniche RAG (Retrieval-Augmented Generation) per modelli linguistici, migliorando accuratezza e riducendo errori.
Andrea Viliotti
24 giu 2024Tempo di lettura: 30 min
Il ruolo dei k-sparse autoencoders in GPT-4: Verso un'intelligenza artificiale più interpretabile
I ricercatori di OpenAI usano k-sparse autoencoders per estrarre funzionalità interpretabili da GPT-4, migliorando comprensione e metriche
Andrea Viliotti
30 mag 2024Tempo di lettura: 13 min
Kolmogorov–Arnold Networks (KAN): Nuove frontiere nell'apprendimento automatico per la scienza e l'industria
Le Reti Kolmogorov-Arnold Networks (KAN) offrono flessibilità e precisione superiori agli MLP.
Andrea Viliotti
8 apr 2024Tempo di lettura: 7 min
Carenza e scarsa qualità dei dati per addestramento dell'intelligenza artificiale
Addestramento dell'intelligenza artificiale. Sfide: scarsità dati qualitativi, etica, e innovazione in raccolta e analisi dati
Andrea Viliotti
26 mar 2024Tempo di lettura: 10 min
Come ragionano gli LLM come ChatGPT e Gemini
LLM come ChatGPT e Gemini elaborano dati con reti neurali. Studi MIT mostrano processi interni semplici, utili in business.
Andrea Viliotti
19 mar 2024Tempo di lettura: 8 min
PlanGPT: Innovare la pianificazione urbana cinese con l'AI generativa
PlanGPT, LLM per la pianificazione urbana cinese, sviluppato in collaborazione con l'Accademia Cinese, promette innovazioni nel settore...
Andrea Viliotti
12 mar 2024Tempo di lettura: 7 min
I modelli Mamba e il futuro dell'AI spiegabile
Ricerca su modelli Mamba: equilibrio tra velocità e complessità, con focus su interpretazione.
bottom of page