top of page
Immagine del redattoreAndrea Viliotti

L'uso dell'IA per l'analisi storica della diffusione del sapere matematico

L'intelligenza artificiale (IA) sta trasformando rapidamente il campo della ricerca scientifica, rendendo i processi più veloci e fornendo approfondimenti più accurati rispetto ai metodi tradizionali. La ricerca di Eberle et al. (2024) rappresenta un esempio significativo di come l'IA possa essere utilizzata per analizzare grandi volumi di dati storici, fornendo informazioni che sarebbero state difficili da ottenere con tecniche convenzionali. Lo studio ha esaminato un ampio corpus di testi storici, utilizzando tecniche avanzate di machine learning per analizzare e confrontare le versioni di diversi testi di astronomia e matematica, con particolare attenzione alla diffusione delle conoscenze matematiche tra il 1500 e il 1650. Eberle et al. hanno applicato un processo di atomizzazione dei testi, scomponendoli in singole unità di dati come tabelle e numeri, e successivamente ricomponendoli per identificare pattern e tendenze nel sapere scientifico. I risultati hanno mostrato una significativa riduzione dell'entropia dei contenuti stampati tra il 1540 e il 1560, indicando una crescente omogeneizzazione del sapere, spesso influenzata da figure come Oronce Finé, il cui lavoro è stato ampiamente ripubblicato. In questo articolo, esploreremo l'applicazione dell'IA nella ricerca storica, concentrandoci su questo caso concreto relativo alla diffusione del sapere matematico nell'Europa del XVI secolo, utilizzando dati significativi tratti dallo studio.

L'uso dell'IA per l'analisi storica della diffusione del sapere matematico
L'uso dell'IA per l'analisi storica della diffusione del sapere matematico

Atomizzazione e ricomposizione: un approccio basato sull'IA per l'analisi storica

Lo studio di Eberle et al. si basa su un processo innovativo chiamato "atomizzazione e ricomposizione" per analizzare un ampio corpus di testi storici di astronomia e matematica, noto come Collezione Sacrobosco. L'obiettivo principale è rendere più accessibili e fruibili i dati storici complessi, consentendo così di identificare pattern significativi e tendenze che altrimenti sarebbero rimaste nascoste.


Il processo di atomizzazione inizia con la digitalizzazione delle opere originali, un passaggio fondamentale che trasforma i testi stampati in una forma leggibile dalle macchine. Successivamente, queste opere digitali vengono scomposte in unità di dati più piccole: parole, frasi, tabelle e numeri. Ogni elemento viene etichettato e classificato in modo che il modello ML possa successivamente analizzarlo in modo accurato. La rete neurale convoluzionale (CNN) utilizzata per l'analisi è stata addestrata per identificare elementi specifici come tabelle numeriche e diagrammi, che sono particolarmente utili per studiare il contenuto scientifico.


L'approccio di ricomposizione, invece, implica la reintegrazione dei dati atomizzati per identificare relazioni nascoste e comprendere come il sapere scientifico si sia evoluto nel tempo. Per esempio, grazie alla ricomposizione dei dati, i ricercatori sono stati in grado di confrontare edizioni diverse di uno stesso testo, analizzando quali elementi siano stati aggiunti, modificati o rimossi. Questo ha permesso di comprendere meglio come le idee matematiche si siano propagate e siano state modificate in risposta a fattori culturali, politici ed economici.


L'uso del machine learning ha permesso di calcolare l'entropia delle pubblicazioni tra il 1540 e il 1560, evidenziando una significativa riduzione di tale parametro. Questo calo suggerisce una tendenza all'omogeneizzazione del sapere, presumibilmente per rispondere alle esigenze di un pubblico accademico sempre più uniformato e standardizzato.


Inoltre, l'approccio di atomizzazione e ricomposizione ha consentito l'identificazione di anomalie, come la coesistenza di teorie nuove e vecchie all'interno dello stesso contesto storico. Un esempio di questo è stato riscontrato nelle tabelle delle zone climatiche, dove l'antica concezione delle zone climatiche in sette parti continuava ad essere presente insieme alla più moderna suddivisione in 24 zone. Questo tipo di scoperte permette ai ricercatori di comprendere meglio come le nuove conoscenze non sempre soppiantino le idee esistenti, ma spesso si sviluppino parallelamente, influenzandosi reciprocamente.

L'intero processo di atomizzazione e ricomposizione è stato reso possibile dall'integrazione di modelli di intelligenza artificiale avanzati e da tecniche di elaborazione del linguaggio naturale (NLP). L'uso dell'NLP è stato fondamentale per l'analisi semantica dei testi, consentendo al modello di distinguere tra diversi tipi di informazioni e di comprendere il contesto in cui venivano utilizzati determinati termini scientifici. Questo ha reso possibile l'identificazione di cambiamenti nel significato e nell'uso delle terminologie scientifiche nel corso del tempo.


Nel complesso, l'approccio di atomizzazione e ricomposizione non solo accelera il processo di ricerca, ma offre anche nuove prospettive di analisi. Permette ai ricercatori di analizzare i testi storici in modo quantitativo, identificando pattern e tendenze su larga scala, e di condurre analisi qualitative più dettagliate su elementi specifici. Questo tipo di integrazione tra IA e ricerca storica rappresenta un passo avanti significativo nella comprensione dell'evoluzione del sapere umano.

 

Dati significativi: diffusione e omogeneizzazione del sapere

I dati raccolti dallo studio mostrano come la diffusione del sapere matematico tra il 1500 e il 1650 sia stata caratterizzata da fasi di intensa pubblicazione e ripubblicazione, spesso guidate da meccanismi di mercato che incentivavano la produzione di nuove edizioni in rapida successione. Questo fenomeno ha favorito la diffusione rapida delle conoscenze scientifiche, ma ha anche portato a una maggiore standardizzazione dei contenuti.


L'entropia, una misura della variabilità del contenuto, ha mostrato una diminuzione, suggerendo che le stesse informazioni venivano ripetute in più pubblicazioni, riducendo così la diversità del sapere disponibile. Questa riduzione dell'entropia è stata attribuita in gran parte all'influenza di Oronce Finé, matematico reale francese, le cui opere sono state continuamente ripubblicate durante questo periodo. Le ripetute ristampe delle sue opere hanno contribuito a diffondere una visione standardizzata della matematica, che ha avuto un impatto duraturo sulla formazione scientifica dell'epoca.


Un altro aspetto rilevante emerso dallo studio è la valutazione della distribuzione geografica delle conoscenze in termini di entropia delle pubblicazioni. Le città con punteggi di entropia più bassi, come Wittenberg e Frankfurt am Main, hanno mostrato una produzione fortemente omogenea, presumibilmente dovuta al controllo politico e religioso sulla formazione scientifica. In queste città, la standardizzazione dei contenuti era incentivata da istituzioni accademiche che miravano a consolidare una visione unificata della scienza. Questo tipo di controllo ha portato a una riduzione della diversità dei contenuti disponibili, contribuendo alla formazione di un sapere condiviso e consolidato.


Al contrario, luoghi con maggiore diversità nella produzione editoriale, come Venezia e Parigi, hanno favorito una più ampia varietà di contenuti scientifici. Queste città erano centri culturali e commerciali di primaria importanza, con una maggiore libertà editoriale e una maggiore domanda di opere diverse. Ciò ha favorito la pubblicazione di testi innovativi e l'introduzione di nuove idee, contribuendo a mantenere viva una certa eterogeneità nella diffusione del sapere. La varietà delle pubblicazioni in questi centri ha permesso la coesistenza di approcci diversi alla matematica e ha facilitato lo sviluppo di nuove teorie, in contrasto con la tendenza alla standardizzazione osservata in altre regioni.

Un ulteriore dato significativo riguarda la coesistenza di teorie nuove e vecchie all'interno delle stesse pubblicazioni. Questo fenomeno evidenzia come la diffusione del sapere non sia stata un processo lineare, ma piuttosto un'interazione complessa tra tradizione e innovazione.


Questa dinamica di coesistenza tra vecchio e nuovo ha avuto importanti implicazioni per la formazione scientifica e culturale dell'Europa del XVI secolo. Ha permesso una transizione graduale verso nuove idee, mantenendo al contempo una continuità con il passato. Questo equilibrio tra continuità e innovazione è stato fondamentale per il progresso scientifico, poiché ha permesso alle nuove idee di radicarsi senza creare una frattura drastica con il sapere consolidato.

 

Implicazioni per la ricerca storica

L'approccio basato sull'IA ha permesso non solo di tracciare la diffusione del sapere, ma anche di identificare anomalie e deviazioni dai trend dominanti.

Inoltre, l'utilizzo dell'IA per l'analisi dei dati storici permette di esaminare i processi di omogeneizzazione e diversificazione del sapere in modo più dettagliato rispetto al passato. La capacità dell'IA di identificare pattern e relazioni su larga scala consente ai ricercatori di comprendere meglio i meccanismi attraverso i quali la conoscenza si diffonde e si stabilizza. Questo è particolarmente importante per capire come le istituzioni accademiche e politiche abbiano influenzato la standardizzazione del sapere e come le dinamiche di mercato abbiano contribuito alla riproduzione e diffusione di contenuti scientifici.


Le implicazioni di questo approccio per la ricerca storica vanno oltre la semplice comprensione della diffusione del sapere matematico. L'integrazione di tecniche di machine learning consente di affrontare questioni più ampie, come il ruolo delle reti di comunicazione accademica, l'impatto delle dinamiche sociali ed economiche sulla produzione scientifica e la resilienza delle teorie scientifiche di fronte a cambiamenti culturali e politici. Questo tipo di analisi apre nuove prospettive per la ricerca storica, consentendo ai ricercatori di esplorare fenomeni complessi e di sviluppare nuove ipotesi basate su dati empirici.


Un altro aspetto importante riguarda la possibilità di utilizzare l'IA per identificare l'influenza di singoli attori o istituzioni nella diffusione del sapere. Lo studio di Eberle et al. ha evidenziato come la ripubblicazione delle opere di Oronce Finé abbia avuto un ruolo fondamentale nella standardizzazione della conoscenza matematica dell'epoca. Questo tipo di analisi può essere esteso per identificare altri individui o istituzioni che hanno avuto un impatto significativo sulla formazione del sapere scientifico, fornendo così una comprensione più completa delle dinamiche storiche della produzione della conoscenza.

Infine, l'uso dell'IA nella ricerca storica pone anche questioni metodologiche interessanti. L'integrazione di strumenti tecnologici avanzati richiede una riflessione critica sui limiti e sulle potenzialità di questi strumenti. È importante che i ricercatori mantengano un ruolo attivo nell'interpretazione dei risultati prodotti dai modelli di machine learning, assicurandosi che le analisi siano contestualizzate adeguatamente e che le conclusioni siano basate su una comprensione approfondita dei dati storici. L'IA può quindi essere vista come uno strumento complementare, che amplifica le capacità di ricerca degli storici senza sostituire il loro ruolo critico e interpretativo.

 

Conclusioni

L’utilizzo dell’intelligenza artificiale nell’analisi storica della diffusione del sapere, come esemplificato dallo studio di Eberle et al., apre prospettive strategiche per le imprese che operano nel campo della conoscenza e della tecnologia. Il processo di “atomizzazione e ricomposizione” rappresenta una metodologia innovativa che permette di scomporre e riassemblare grandi quantità di dati per ottenere insight non rilevabili attraverso l’analisi umana tradizionale. Questo modello consente di creare pattern di significato che identificano traiettorie evolutive e cambiamenti nelle tendenze, mettendo in luce come l’adozione di certe conoscenze possa diffondersi e radicarsi in base alle interazioni tra fattori culturali, economici e sociali.


Per le aziende, l’applicazione di questo tipo di IA nell’analisi dei dati storici suggerisce un approccio ai big data che va oltre l’elaborazione quantitativa per arrivare a comprendere la storia evolutiva del comportamento dei consumatori o del mercato. La possibilità di identificare momenti di “riduzione dell’entropia”, ovvero di standardizzazione delle informazioni, non si limita a fornire un quadro della stabilizzazione del sapere, ma offre un indicatore prezioso per valutare i periodi in cui un certo livello di conoscenza si consolida e diventa uno standard del settore. Analogamente, i momenti di maggiore “varianza informativa” possono identificare periodi di diversificazione o innovazione che possono guidare le aziende a sviluppare prodotti o servizi in un momento strategico.


La coesistenza di vecchie e nuove conoscenze evidenziata dallo studio, e la tendenza ad un’integrazione anziché a una sostituzione netta, offrono una lezione fondamentale per la gestione aziendale della conoscenza. Le aziende dovrebbero considerare che le innovazioni non sempre devono rimpiazzare le metodologie consolidate, ma possono invece creare una sinergia utile se implementate parallelamente, rispettando i tempi di assorbimento e familiarità del proprio mercato o dei propri dipendenti. Questa coesistenza suggerisce che la gradualità nell’integrazione di nuove tecnologie non è solo prudente, ma può essere essenziale per garantirne l’accettazione e l’efficacia.


Infine, l’uso dell’IA come “strumento complementare” all’interpretazione umana solleva un punto cruciale per le organizzazioni che si trovano a implementare IA avanzate: il valore critico dell’interpretazione umana. L’IA offre enormi capacità di analisi e automazione, ma i dati risultanti richiedono una competenza umana per tradurre i pattern rilevati in decisioni strategiche. Questo comporta che le aziende dovrebbero strutturare i propri team in modo da integrare esperti di IA e analisti di dati con profili in grado di fornire contesto, intuizioni ed esperienza storica dei fenomeni aziendali, evitando che i modelli statistici e di ML vengano fraintesi o utilizzati in modo non strategico. In sintesi, l’IA diventa uno strumento per un’evoluzione consapevole del sapere, una risorsa per migliorare il processo decisionale aziendale e un mezzo per facilitare l’adattamento continuo in un contesto di mercato dinamico.



 

Post recenti

Mostra tutti

Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page