top of page

Risultati di ricerca

471 risultati trovati per ""

  • Generative Agent Simulations: Modeling Human Behavior through Qualitative Interviews

    The study titled “Generative Agent Simulations of 1,000 People,” conducted by Joon Sung Park, Carolyn Q. Zou, and Aaron Shaw, highlights how Generative Agent Simulations  can model human behavior through qualitative interviews, with support from prestigious institutions such as Stanford University, Northwestern University, the University of Washington, and Google DeepMind, explores how Generative Agent Simulations can replicate human behaviors using large language models. The research focuses on how in-depth qualitative interviews can provide essential data for constructing generative agents capable of accurately replicating the responses of more than a thousand people in sociological and experimental contexts. The overarching goal is to understand whether these simulations can offer a virtual laboratory for testing theories and policies in the social domain. Generative Agent Simulations: Modeling Human Behavior through Qualitative Interviews Generative Agent Simulations: Data Insights and Research Goals This study, focusing on Generative Agent Simulations , aligns with a sociological tradition that models human behavior through abstract agents, typically anchored to mathematical rules or simplified assumptions about decision-making processes. While this approach is useful for testing basic theories, it often struggles to capture the real-world complexity of everyday life. In “Generative Agent Simulations of 1,000 People,”  the challenge is different: leveraging the power of large language models to build agents generated from qualitative interview transcripts. The research team aimed to collect extensive and detailed information about the lives of over a thousand individuals, with the goal of creating a wide array of agents capable of providing coherent answers to diverse questions, stimuli, and situations. The selection of the human sample was based on demographic stratification criteria that took into account age, geographic area, gender, education level, and political orientation, among other factors. The aim was to obtain a representative sample of the U.S. population, avoiding models that would only be valid for specific subgroups. Each participant took part in a two-hour interview conducted through an AI system acting as a “virtual interviewer.” This choice helped maintain a certain uniformity in style and expertise when posing follow-up questions, so as to extract personal and complex information. The interviews included both general questions—on life history and the perception of social issues—as well as more personal inquiries, such as educational paths, family relationships, political values, and work-related aspects. A protocol inspired by the American Voices Project, a well-established sociological initiative in the United States, was adopted to capture the wide variety of nuances through which people describe their lives. It is important to note that the interview questions were not specifically tailored to subsequent tests (General Social Survey, Big Five, or experimental games), thereby reducing the risk of unintentionally “training” participants to respond in line with those tests. The breadth of the thematic coverage, coupled with the freedom granted to the interviewees, produced very extensive transcripts: on average, about 6,491 words per person, with some interviews far exceeding this threshold. These data form the “memory” of each generative agent. Essentially, a large language model such as GPT-4 was fed the full transcript of each participant. When a researcher wants to query the agent that represents a specific individual, the model receives the interview as a prompt, along with certain internal reflection mechanisms that help identify the most relevant content to deliver. A crucial point involves verifying how closely these simulations reflect the real behavior of the interviewees. It is not enough to confirm that the agent responds coherently; a quantitative comparison is needed between the answers provided by the real participants and the answers from the agents in follow-up surveys. To this end, each subject was asked to complete four types of tests: the core part of the General Social Survey (GSS), the Big Five questionnaire (BFI-44), a battery of well-known economic games (such as the Dictator Game, the Trust Game, and the Public Goods Game), and some social psychology experiments already replicated at a large scale. The participants completed these tests twice: once immediately after the interview and once two weeks later, to measure inconsistencies in their own responses. In other words, if a person contradicts themselves easily, it becomes more difficult for the agent to replicate their behavior. From this, the concept of normalized accuracy arises, calculated by dividing the agent’s accuracy by the participant’s demonstrated consistency, i.e.: normalized accuracy = (agent accuracy) / (participant’s internal replication) The research also highlights the privacy and data security measures adopted, such as name redaction, de-identification of transcripts, and the possibility of revoking consent. Along with these safeguards, the authors devised an “agent bank” infrastructure to allow other scholars to test hypotheses and query these agents under an ethical framework that respects data protection regulations. Essentially, this first phase aims to understand how the depth and variety of topics covered in the interview can give rise to generative agents for each individual, potentially capable of answering questions on any topic: political, social, or even experimental. The use of broad-ranging interviews addresses the need to go beyond traditional models based on a few demographic variables, thereby reducing the risk of falling into stereotypes. The presence of a rich and personal data set should allow the agent to approximate what the interviewee actually thinks or does.   Generative Architecture: Advancing Precision and Reliability One of the distinctive features of this study is the method used to transform interview transcripts into true agents. Specifically, each time a query is made, the entire transcript is “injected” into the language model prompt. A text-based memory of synthetic reflections, often generated automatically, is also included to help the model retrieve the relevant information that emerged during the conversation. Practically speaking, when one asks an agent, “What do you think about a hypothetical new public health law?”, the model scans the corresponding participant’s interview and “expert” reflections to produce a plausible response that is consistent with the positions expressed by the original interviewee. This approach differs significantly from classic agent-based models that use rigid rules or abstract utility functions. The project relies on the assumption that large language models incorporate general knowledge of human behavior and that combining them with individual testimonies could enable the creation of agents capable of reproducing specific personalities. However, to confirm whether this actually happens in an accurate way, the authors opted for a direct comparison between each agent’s responses and the real individual’s answers to the relevant survey or experiment. A first level of analysis involves the General Social Survey. This includes 177 core questions with categorical or ordinal responses and 6 questions of a numeric type. It was calculated that the average consistency among participants—i.e., the degree to which each individual replicated their own answers after two weeks—was about 81.25%, whereas the agents’ raw accuracy on the same responses was around 68.85%. If one normalizes 68.85% by dividing it by 81.25%, the result is about 0.85. In other words, the agent approaches 85% of the consistency that a real person has with themselves. This result is deemed more than satisfactory, especially compared to “brief description” alternatives (demographic data or short self-written portraits), which produced normalized accuracy values around 0.70–0.71. A second level of analysis concerns the Big Five Personality Inventory, composed of 44 items aimed at assessing traits such as openness, conscientiousness, extraversion, agreeableness, and emotional stability. Here, accuracy was evaluated using correlation and Mean Absolute Error, since the answers follow a continuous scale. Comparing the agent’s responses with the participant’s self-replication yielded a normalized correlation of about 0.80 for interview-informed agents, suggesting a solid ability to capture personality structure without falling into stereotypes. Again, agents constructed only from demographic data showed lower correlations. A third level of analysis involved five economic games: the Dictator Game, the Trust Game (both first and second player), the Public Goods Game, and the Prisoner’s Dilemma. These tests introduce monetary incentives along with dynamics of cooperation or trust. The average correlation between the agents’ choices and the actual participants’ choices was around 0.66, with a similar normalization (0.66). Unlike the GSS and Big Five, here there is not such a pronounced statistical advantage when comparing these agents to other agent types, although the interview agents generally perform better. One point raised by the authors is that economic behaviors can be more variable and subject to contextual factors not necessarily surfacing during the interview: a participant may decide to be altruistic on a certain day and more selfish on another, reducing even their own internal consistency. From a technical standpoint, the generative architecture also employs a so-called “reflection module” to extract high-level inferences and allow the model to focus on crucial portions of the transcript. In addition, a specific effort is made to reduce biases by introducing more behavioral descriptions, rather than labeling individuals by race, gender, or ideology. In fact, one of the most interesting findings is a reduction in accuracy disparities across political or racial subgroups. For instance, with political groups, using interview-based agents reduces the accuracy gap between ideological extremes from about 12.35% to 7.85%. This suggests that agents based on rich, personal information are less prone to the typical generalizations made by simple demographic agents.   Assessing Results: GSS, Big Five, and Economic Games After discussing the architecture and general goals, it is helpful to delve into the evaluation methodologies employed in the study, focusing on the accuracy and consistency measures, as well as the reasons behind the choice of the GSS, Big Five, and certain classic economic games. The General Social Survey is one of the most long-standing and respected sociological surveys, covering a wide spectrum of questions ranging from social and political considerations to matters of religiosity, family customs, and perceptions of institutions. In the research, the authors specify that they used 177 core questions and excluded those with more than 25 response options or open-ended answers that could not be compared. Through these items, participants reveal their positions on topics ranging from support for specific public policies to their level of trust in institutions. The agent, in turn, must select among the same options the one that best reflects the original participant’s viewpoint, as gleaned from the interview. All of this is compared with the actual answers the individual provided in the questionnaires. One of the most challenging aspects of this process lies in the fact that humans themselves are not always consistent in their opinions. Numerous studies have shown that, over time, a person may give somewhat different responses when taking the same survey again, owing to mood changes, new information, or even a slightly different interpretation of the question. This is why the study introduced internal replication of each participant after two weeks. For example, if an individual confirms 80% of their previous responses, an agent that hits 70% of the same answers actually achieves a performance of (70% / 80%) = 0.875, i.e., a normalization of 0.875. Moving on to the Big Five Personality Inventory, the choice of this scale is strategic for two reasons. First, personality traits have a strong foundation in the literature and tend to remain relatively stable over time, at least for adults. Second, these trait scores are derived from multiple questions, which, when summed in an index, help reduce statistical noise. The use of Likert scales with continuous values requires correlation calculations and Mean Absolute Error (MAE) to measure the distance between answers. Here as well, participant consistency is not guaranteed, so the researchers evaluated the correlation between the initial session and the one two weeks later. The interview agent showed a correlation with human scores that, in numerical terms, yields a normalized value of about 0.80. According to the authors, these figures are higher than those for agents fed only demographic information or brief “person-based” descriptions. The economic games add a different behavioral dimension: they are no longer just verbal preferences but involve choices with real monetary costs and benefits. The Dictator Game, for instance, measures a person’s willingness to share (or not) a sum of money with another player. The Trust Game focuses on trust and repayment, while the Public Goods Game examines how multiple players contribute to a collective good. Finally, the Prisoner’s Dilemma is a classic for exploring strategic cooperation or defection. The paper mentions that real monetary incentives were used, encouraging participants to choose sincerely. Results show that the correlation between the agents’ actions and the participants’ actual choices is about 0.66 for interview-based agents—a figure considered noteworthy, given the chance variability typical of such games. The challenge here is not just interpreting the interview and guessing someone’s personality but also anticipating strategic choices, possibly influenced by emotional factors. In summary, the evaluations covering the GSS, Big Five, and economic games span a broad range of attitudes, beliefs, and practical behaviors. The agents excel particularly in replicating responses to sociopolitical questionnaires and in identifying personality traits. Meanwhile, their performance in strategic games, though still interesting, is more modest. This suggests that, while the interview provides a significant information repository, certain aspects of behavior may not be fully captured by mere autobiographical narratives.   Experimental Insights: Simulations and Treatment Effects A further step that characterizes the study is the verification of the agents’ capacity to predict treatment effects in experimental contexts. Social research often uses experiments in which subjects are split into control and treatment groups to test hypotheses about reactions to artificial situations, moral vignettes, or scenario manipulations. The paper describes five experiments from a large-scale replication project (the Mechanical Turk Replication Project), involving scenarios such as perceived harm based on intentionality, the relevance of fairness in decisions, and the role of dehumanization in someone’s willingness to harm another. In short, the real participants successfully replicated four out of five studies, failing in one—an outcome not surprising in scientific literature, as replications don’t always fully confirm the original reported effects. The novelty lies in the fact that the interview agents produced the same replication results: they detected a significant effect in four studies and a non-relevant outcome in the fifth. Even more surprising is the correlation between the effect sizes observed among real participants and those of the agents, which nearly reaches 0.98. This value reflects a near-perfect alignment with the experimental “variance” measured in the participants. Essentially, this suggests that the agent not only reproduces individual behaviors but also mirrors group dynamics, showing the same effects observed in the experimental conditions applied to the real participants. Each of the five experiments had a slightly different design. In one, for example, people were asked to judge whether the culprit of a harmful act had acted intentionally or by mistake, and how this influenced the need for punishment. In another, the effect of a sense of power on the level of trust in a potential exchange partner was tested. For each scenario, the agents received the same instructions and conditions (text or images) and, just like the participants, provided their response. According to the authors, the fact that group-level differences match real-world outcomes on a population scale could open new possibilities. One might imagine conducting a pilot study on a thousand agents—each anchored to a real person’s interview—to “probe” the expected effect of an intervention before investing in an expensive human experiment. Caution is advised, however: the idea is not to completely replace real participants, because even the most accurate model cannot update itself on events occurring after the interview. Also, if significant changes occur or if they concern areas not mentioned during the interview, the simulation may be incomplete. The paper also highlights the risks of using these agents superficially in policy-making contexts. For instance, if one wanted to test a new public health awareness campaign, the agents could offer a glimpse of how various population segments might react. But one must remember that the agents cannot exceed the limits of the data they contain: if the interview failed to address crucial aspects, their responses might be arbitrary. Nonetheless, the high correlation coefficient between the treatments experienced by participants and those produced by the agents shows that, with proper controls and a thorough interview protocol, these simulation systems can serve as a useful and stimulating virtual laboratory.   Addressing Biases and Data Access in Generative Simulations A well-known issue in artificial intelligence is the presence of bias during training or in defining agent profiles. Models relying on simple demographic labels often fall into stereotypes, disadvantaging minority groups or underrepresented categories. Encouragingly, the study shows that agents generated from interviews exhibit a smaller performance gap than those relying solely on demographic attributes. Looking at the Demographic Parity Difference (DPD), which measures the disparity in accuracy between the most and least favored group, interview-based models significantly shrink the gap—for instance, from 12.35 percentage points at ideological extremes down to about 7.85. A similar pattern is observed for racial variables, although the degree of improvement can vary in some cases. This finding can be explained by the very nature of qualitative interviews, which enable the agent to draw from a wide range of personal content, rather than relying on a “typical profile.” In the case of agents built on basic categories like gender, age, or ideological stance, the language model tends to reproduce typical images that are necessarily incomplete and fail to capture individual complexity. Conversely, if a person from a certain minority group shares a specific life experience in the interview, the text-based agent will remember that experience, reducing the risk of broad generalizations. The study also introduces an “agent bank” system designed to make these virtual profiles available to the scientific community. The idea is to provide access at two levels: a more open level with aggregated data, allowing researchers to explore general trends without violating participants’ privacy; and a more restricted level with specific permissions for open-ended queries and access to individual responses. This second level would be useful for those needing to run particularly detailed simulations or test new experimental protocols, which require interacting with individual agents in a personalized way. However, oversight procedures, control logs, and restrictions on commercial use would be necessary to safeguard participants’ rights. On an application level, the prospects appear varied. In the social sciences, simulating a thousand individuals anchored to real interviews could help formulate hypotheses about how different population segments might react to a particular event, such as a new legislative proposal or a health crisis. One could analyze how a group of agents behaves on virtual social networks, exploring opinion polarization or information spread. In marketing and market research contexts, a company might want to “question” the agents to grasp purchasing trends, with the understanding that these agents represent a snapshot in time rather than a dynamic update. At the same time, the research invites caution. Although the results are promising and show a strong alignment between agents and real participants, no simulation can entirely replace real-world studies on human samples, particularly in evolving social and informational contexts. The value of the “Generative Agent Simulations of 1,000 People”  approach is to offer a preliminary testing ground for research hypotheses—a virtual lab where one can explore, at lower cost and in less time, the impact of certain inputs. Yet the authors maintain that any significant conclusions must be backed up by field verification and ongoing reassessment of the timeliness and validity of the interview data. A further strategic consideration is the opportunity to expand the study to other populations or to specialized interviews on niche topics. If the interview protocol targeted a specific group—for instance, individuals working in a particular medical field—the resulting agents could provide very detailed projections about hospital policies. Conversely, maximum diversity (like the general population in this study) offers a broader perspective but one that is less deeply specialized. In any case, the richness of these agents hinges on the comprehensiveness of their interviews, which must be meticulously designed to capture the complexities of human life without resorting to excessive redundancies.   Conclusions The findings of “Generative Agent Simulations of 1,000 People”  indicate that combining in-depth qualitative interviews with large-scale language models can yield highly plausible human simulation scenarios. Accuracy reaches notable levels in questionnaire responses, such as those in the GSS, and in detecting personality traits. Even in economic games and social psychology experiments, the collective coherence of the agents is strikingly close to that observed in actual participants. However, from a managerial or entrepreneurial standpoint, one should not expect these agents to become a perfect substitute for field surveys. The social context evolves, and interview data are ultimately a static snapshot that will age over time. The strategic reflection, then, revolves around the possibility of using these agents as an initial testing ground for communication or policy strategies. If a company or institution wished to gauge how a certain population segment might respond to a new product, it could run a preliminary simulation with hundreds of “personalized” agents, gathering insights on potential reactions, conflicts, or divergences. Subsequently, a more targeted and smaller-scale traditional experiment could be conducted, optimizing time and costs. One could also investigate group dynamics, for example, the formation of opinion clusters, in a virtual environment. While this approach is certainly feasible, it should be accompanied by ongoing scrutiny of the data’s origin and relevance: if the interview materials are outdated or incomplete, the simulation’s outcomes will likewise be limited or biased. Comparing this method with other existing simulation tools reveals that generative agents offer a remarkably greater level of granularity, as each agent is anchored to a real individual rather than to a generic construct. Still, open questions remain regarding how participants’ personalities and choices might change over time—an issue not handled by static models. Moreover, simpler techniques already exist that address “similar tasks,” such as traditional preference modeling in marketing or electoral behavior simulators. However, those solutions rarely integrate such a rich textual component that could reflect responses to complex proposals and scenarios. The study at hand thus introduces new possibilities but also requires caution, enhanced ethical oversight, and continual data maintenance. Over the longer term, one could imagine extending this approach internationally or integrating additional data collection methods, such as face-to-face interviews or biometric information and social media history—provided there is explicit consent. This would be another step toward simulations that more closely reflect real people, with the caveat of heightened privacy concerns. The authors of this work underscore the importance of a responsible governance system—one that balances data transparency, the protection of interviewees, and the need for innovative research. The path is clear: using interview-based agents could lead to deeper analyses of human dynamics, yielding rapid feedback and lowering certain logistical barriers. Nonetheless, any simulation must be handled with awareness of its limitations and the inherent uncertainty in forecasting real human behavior. Podcast: https://creators.spotify.com/pod/show/andrea-viliotti/episodes/Generative-Agent-Simulations-model-behavior-through-interviews--revolutionizing-social-science-research-and-experimental-applications-e2spv9u Source: https://arxiv.org/abs/2411.10109

  • Generative Agent Simulations: dinamiche di intervista e applicazioni nelle scienze sociali

    Lo studio intitolato 'Generative Agent Simulations of 1,000 People', condotto da Joon Sung Park, Carolyn Q. Zou e Aaron Shaw, con il supporto di istituzioni di prestigio come Stanford University, Northwestern University, University of Washington e Google DeepMind, esplora come le Generative Agent Simulations  possano replicare comportamenti umani utilizzando large language models. La ricerca si concentra su come interviste qualitative in profondità possano fornire dati essenziali per costruire agenti generativi, capaci di replicare con accuratezza le risposte di oltre mille persone in contesti sociologici e sperimentali. L’obiettivo generale è comprendere se tali simulazioni possano offrire un laboratorio virtuale per testare teorie e politiche in ambito sociale. Generative Agent Simulations: dinamiche di intervista e applicazioni nelle scienze sociali Generative Agent Simulations: dati e obiettivi della ricerca La ricerca si colloca in una tradizione sociologica che, già in passato, ha cercato di modellare il comportamento umano attraverso agenti astratti, tipicamente ancorati a regole matematiche o ipotesi semplificate sui processi decisionali. Questo approccio, se da un lato risulta utile per testare teorie di base, spesso soffre di una scarsa aderenza alla complessità reale della vita quotidiana. Nel lavoro intitolato “Generative Agent Simulations of 1,000 People”, la sfida è diversa: sfruttare la potenza dei large language models per costruire agenti generati da trascrizioni di interviste qualitative. Il team di ricerca si è proposto di raccogliere informazioni estese e dettagliate sulle vite di oltre mille individui, con l’obiettivo di creare un ampio ventaglio di agenti in grado di rispondere in modo coerente a domande, stimoli e situazioni variegate. La selezione del campione umano si è basata su criteri di stratificazione demografica che tenessero conto di età, area geografica, genere, livello di istruzione e posizionamento politico, tra gli altri fattori. La finalità era ottenere un campione rappresentativo della popolazione statunitense, così da non limitare l’efficacia del modello a sottogruppi specifici. Ogni partecipante ha preso parte a un colloquio di due ore, realizzato tramite un sistema di intelligenza artificiale che fungeva da “intervistatore virtuale”. Questa scelta ha permesso di mantenere una certa omogeneità di stile e di competenza nel porre domande di approfondimento, in modo da estrarre informazioni personali e complesse. Le interviste hanno incluso sia domande generali, ad esempio sulla storia di vita e la percezione di temi sociali, sia quesiti più personali, quali i percorsi di studio, le relazioni familiari, i valori politici e gli aspetti lavorativi. È stato adottato un protocollo ispirato all’American Voices Project, un’iniziativa sociologica già consolidata negli Stati Uniti, pensata per cogliere la varietà di sfumature attraverso cui le persone raccontano la propria esistenza. Importante è sottolineare che le domande di intervista non sono state specificamente tarate sui test successivi (General Social Survey, Big Five o giochi sperimentali), così da ridurre il rischio di “addestrare” inconsapevolmente i partecipanti a rispondere in linea con quelle prove. L’ampiezza della copertura tematica, unita alla libertà lasciata all’intervistato, ha prodotto trascrizioni molto corpose: si parla di una media di 6.491 parole a persona, con alcune interviste che hanno superato ampiamente questa soglia. Tali dati costituiscono la “memoria” di ciascun agente generativo. In sostanza, un grande modello linguistico come GPT-4 è stato alimentato con la trascrizione completa di ogni partecipante. Quando un ricercatore vuole interrogare l’agente che rappresenta un determinato individuo, il modello riceve come prompt l’intervista e alcuni meccanismi di riflessione interni che aiutano a identificare i contenuti più rilevanti da restituire. Un punto cruciale è rappresentato dall'obiettivo di verificare quanto queste simulazioni riflettano il comportamento reale degli intervistati. Non è sufficiente accertare che l'agente risponda in maniera coerente: è necessario un confronto quantitativo con le risposte ottenute dai partecipanti attraverso questionari e test svolti successivamente all’intervista. A questo fine, si è chiesto a ogni soggetto di sottoporsi a quattro tipologie di prove: la parte centrale del General Social Survey (GSS) , il questionario Big Five  (BFI-44), una serie di giochi economici  noti (come il Dictator Game, il Trust Game e il Public Goods Game) e alcuni esperimenti di psicologia sociale  già oggetto di replicazioni di ampia scala. I partecipanti hanno completato questi test due volte: una volta subito dopo l’intervista e una volta due settimane dopo, così da misurare l’eventuale incoerenza delle proprie stesse risposte. In altre parole, se una persona si contraddice facilmente, la difficoltà per l’agente di replicarne il comportamento cresce. Nasce da qui il concetto di accuratezza normalizzata, calcolata dividendo l’accuratezza dell’agente per la coerenza dimostrata dal partecipante, cioè: accuratezza normalizzata = (accuratezza dell’agente) / (replicazione interna del partecipante) . All’interno della ricerca, si mettono in evidenza anche le tutele adottate per la privacy e per la sicurezza dei dati, come l’oscuramento di nomi, la de-identificazione delle trascrizioni e la possibilità di revoca del consenso. Insieme a queste precauzioni, è stata ideata un’infrastruttura di “banca di agenti” per consentire ad altri studiosi di testare ipotesi e di interrogarli secondo un quadro etico e rispettoso delle normative sulla protezione dei dati. L’essenza di questa prima fase sta dunque nel cogliere come la profondità e la varietà di argomenti affrontati nell’intervista possano dar vita ad agenti generativi di singoli individui, potenzialmente capaci di rispondere a domande in qualunque ambito: politico, sociale, persino di natura sperimentale. L’uso di interviste ampie risponde alla necessità di andare oltre i tradizionali modelli che si basano su poche variabili demografiche, scongiurando così il rischio di cadere in stereotipi. La presenza di una base dati ricca e personale dovrebbe permettere di avvicinare l’agente a ciò che la persona intervistata effettivamente pensa o fa. Architettura generativa: precisione e affidabilità Una delle particolarità di questo studio è il metodo con cui le trascrizioni delle interviste vengono trasformate in veri e propri agenti. Si parla infatti di un’architettura che, a ogni interrogazione, “inietta” l’intera trascrizione nel prompt del modello di linguaggio. A questo si aggiunge una memoria testuale di riflessioni sintetiche, spesso generate in automatico, per aiutare il modello a richiamare le informazioni pertinenti emerse durante la conversazione. In pratica, quando si chiede a un agente “Cosa pensi di un’ipotetica nuova legge su salute pubblica?”, il modello setaccia l’intervista del relativo partecipante e le riflessioni “esperte”, per emettere una risposta plausibile e coerente con le posizioni espresse dall’intervistato originale. Questo approccio differisce nettamente dai classici agent-based models che utilizzano regole rigide o funzioni di utilità astratte. Il progetto si fonda sull'ipotesi che i grandi modelli linguistici incorporino una conoscenza generale del comportamento umano e che integrarli con testimonianze individuali possa consentire la creazione di agenti in grado di riprodurre personalità specifiche. Tuttavia, per capire se ciò avvenga in modo accurato, gli autori hanno voluto procedere a un confronto diretto tra la risposta dell’agente e la risposta reale dell’individuo nel questionario o nell’esperimento di riferimento. Un primo livello di analisi riguarda il General Social Survey . Qui si parla di 177 domande core con risposte categoriche o ordinali e di 6 quesiti di tipo numerico. Si è calcolato che la coerenza media dei partecipanti, cioè, il grado in cui ciascuno replica a sé stesso a distanza di due settimane, è pari all’81,25%, mentre la precisione grezza degli agenti su queste stesse risposte è intorno al 68,85%. Se si normalizza dividendo 68,85% per 81,25%, si ottiene circa 0,85. In altre parole, l’agente si avvicina all’85% della coerenza che la persona reale ha con sé stessa. Questo risultato è stato giudicato più che soddisfacente, soprattutto in confronto ad alternative di “descrizione breve” (demografiche o piccoli ritratti scritti dai partecipanti stessi) che davano valori intorno a 0,70-0,71 di accuratezza normalizzata. Un secondo livello di analisi riguarda il Big Five Personality Inventory , composto da 44 domande per valutare tratti come l’apertura mentale, la coscienziosità, l’estroversione, l’amicalità e la stabilità emotiva. Qui l’accuratezza è stata valutata in termini di correlazione e di Mean Absolute Error, visto che le risposte seguono una scala continua. Il confronto con la replicazione interna del partecipante ha mostrato un risultato di circa 0,80 come correlazione normalizzata per gli agenti informati da interviste, il che suggerisce una buona capacità di intercettare la struttura di personalità, senza appiattirsi su stereotipi. Anche in questo caso, agenti costruiti solo su dati demografici hanno dato correlazioni più basse. Un terzo livello di analisi ha coinvolto cinque giochi economici : Dictator Game, Trust Game (primo e secondo giocatore), Public Goods Game e Prisoner’s Dilemma. Questi test introducono incentivi monetari e dinamiche di cooperazione o fiducia. Il risultato medio per la correlazione grezza degli agenti, confrontata con le scelte effettive dei partecipanti, si attesta intorno a 0,66, con una normalizzazione simile (0,66). A differenza del GSS e del Big Five, qui non c’è un vantaggio statistico così marcato nel confronto con altre tipologie di agenti, anche se gli agenti intervista restano tendenzialmente migliori. Uno dei punti discussi dagli autori è che i comportamenti economici possono essere più volubili e sensibili a fattori di contesto che non emergono necessariamente nell’intervista: un partecipante può decidere di essere altruista in un certo giorno e un po’ più egoista in un altro, riducendo anche la sua stessa coerenza interna. Sul versante tecnico, l’architettura generativa adotta anche un cosiddetto “reflection module” per estrarre inferenze di alto livello e permettere al modello di focalizzarsi sui passaggi cruciali della trascrizione. Inoltre, c’è un impegno specifico nella riduzione dei bias, introducendo descrizioni di tipo più comportamentale e meno etichettate in base a razza, genere o ideologia. In effetti, uno degli esiti più interessanti è la riduzione di disparità di accuratezza tra sottogruppi politici o razziali. Per esempio, per i gruppi politici, l’uso delle interviste riduce il divario di accuratezza tra estremi ideologici da circa 12,35% a 7,85%. Ciò suggerisce che gli agenti che si basano su informazioni ricche e personali evitano di scadere nelle generalizzazioni tipiche dei semplici agenti demografici. GSS, Big Five e Giochi Economici: valutazioni dei risultati Dopo aver discusso l’architettura e le finalità generali, è utile approfondire le metodologie di valutazione adottate nel lavoro in questione, soffermandosi sulle misure di accuratezza e coerenza, nonché sui motivi che hanno portato a selezionare proprio GSS, Big Five e alcuni classici giochi economici. Il General Social Survey  è una tra le più longeve e rispettate indagini sociologiche, con un ampio spettro di domande che vanno da considerazioni su temi sociali e politici fino a questioni sulla religiosità, i costumi familiari e la percezione delle istituzioni. Nella ricerca, gli autori specificano di aver usato 177 quesiti centrali e di aver escluso quelli con più di 25 opzioni di risposta o con risposte aperte non comparabili. Attraverso questi item, il partecipante rivela la propria posizione su argomenti che vanno dal sostegno a specifiche politiche pubbliche, fino al livello di fiducia nelle istituzioni. L’agente, a sua volta, deve selezionare tra le stesse opzioni l’alternativa che meglio rispecchia il punto di vista del partecipante originario, così come è emerso dai contenuti dell’intervista. Il tutto è messo a confronto con la risposta concreta che il soggetto ha fornito nei questionari. Uno degli aspetti più difficili in questa operazione sta nel fatto che anche la persona umana non è sempre stabile nelle proprie opinioni. Molti studi hanno mostrato che, a distanza di tempo, la ripetizione di un questionario può portare a risposte talvolta differenti, complice un cambiamento d’umore, una nuova informazione sopraggiunta o più semplicemente un’interpretazione leggermente diversa della domanda. Ecco perché nel documento si è introdotta la replicazione interna del partecipante a due settimane di distanza. Se, per esempio, un individuo conferma all’80% le sue risposte precedenti, un agente che ottiene un 70% di risposte coincidenti raggiunge in realtà una performance di (70% / 80%) = 0,875, cioè una normalizzazione di 0,875. Passando al Big Five Personality Inventory , la scelta di questa scala appare strategica per due ragioni. Primo, i tratti della personalità hanno basi solide in letteratura e risultano relativamente stabili nel tempo, almeno per un adulto. Secondo, i punteggi derivano da più domande che, sommate in un indice, permettono di ridurre il rumore statistico. L’uso di scale Likert con valori continui richiede calcoli di correlazione e Mean Absolute Error (errore medio assoluto) per misurare la distanza tra le risposte. Anche in questo caso, la coerenza del partecipante non è scontata, e i ricercatori hanno quindi valutato la correlazione fra la sessione iniziale e quella di due settimane dopo. L’agente intervista, dotato delle trascrizioni, ha mostrato un livello di correlazione con i punteggi umani che, a conti fatti, sfiora un indice normalizzato di 0,80. Gli autori sottolineano che questi valori sono superiori a quelli di agenti nutriti di sole informazioni demografiche o di brevi descrizioni “persona-based”. I giochi economici  aggiungono una prospettiva comportamentale diversa: non si tratta più di semplici preferenze verbali, ma di scelte che implicano costi e benefici monetari. Il Dictator Game, per esempio, misura la tendenza a condividere o meno una somma di denaro con un altro giocatore. Il Trust Game si focalizza sulla capacità di fiducia e di restituzione, mentre il Public Goods Game mette più persone di fronte al dilemma del contributo a un bene collettivo. Infine, il Prisoner’s Dilemma è un classico per comprendere la cooperazione o la defezione strategica. Nel documento si riferisce di un incentivo economico reale, in modo da spingere i partecipanti a scegliere con sincerità. Emerge che la correlazione con le mosse effettive dei partecipanti è circa 0,66 per gli agenti da intervista, un dato ritenuto comunque degno di nota, considerando la componente di variabilità contingente che contraddistingue questi giochi. La sfida, infatti, non è soltanto interpretare l’intervista e indovinare la personalità del soggetto, ma anche prevedere scelte strategiche, magari influenzate da fattori emotivi. In sintesi, la valutazione su GSS, Big Five e giochi economici copre un ventaglio ampio di atteggiamenti, credenze e comportamenti pratici. Gli agenti si dimostrano abili soprattutto nel replicare risposte a questionari di tipo sociopolitico e nel calcolo dei tratti di personalità, mentre mostrano prestazioni più moderate, pur sempre interessanti, nei giochi di natura strategica. Questo quadro suggerisce che, sebbene l’intervista offra un patrimonio informativo significativo, certi aspetti del comportamento potrebbero sfuggire alle semplici narrazioni autobiografiche. Simulazioni e effetti di trattamento: implicazioni sperimentali Il passo ulteriore che contraddistingue lo studio è la verifica della capacità degli agenti di prevedere anche effetti di trattamento in contesti sperimentali. Spesso, la ricerca sociale fa uso di esperimenti in cui i soggetti sono suddivisi in gruppi di controllo e gruppi di trattamento, per testare ipotesi sulle reazioni a situazioni artificiali, vignette morali o manipolazioni di scenario. Il documento descrive cinque esperimenti tratti da un progetto di replicazione su larga scala (il Mechanical Turk Replication Project), comprendenti situazioni come la valutazione del danno percepito in base all’intenzione, la rilevanza della correttezza nelle decisioni e il ruolo della deumanizzazione nella disponibilità a far del male a un individuo. In sintesi, i partecipanti reali hanno replicato con successo quattro studi su cinque, fallendo in uno. Questo risultato non è sorprendente, poiché nella letteratura scientifica le repliche non confermano sempre completamente gli effetti riportati negli studi originali. La vera novità risiede nel fatto che anche gli agenti intervista hanno ottenuto gli stessi esiti di replicazione: hanno rilevato un effetto significativo in quattro studi e un risultato non rilevante nel quinto. Un aspetto ancora più sorprendente è la correlazione tra le dimensioni dell’effetto osservate nei partecipanti reali e quelle degli agenti, che si avvicina a 0,98. Questo valore riflette una quasi perfetta coerenza con la "varianza" sperimentale rilevata. In pratica, questo indica che l’agente non si limita a riprodurre i comportamenti dei singoli individui, ma è anche in grado di riflettere le dinamiche di gruppo, mostrando gli stessi effetti riscontrati nelle condizioni sperimentali applicate ai partecipanti reali. Ciascuno dei cinque esperimenti presentava un disegno leggermente diverso. In uno si chiedeva, per esempio, di giudicare se il colpevole di un atto dannoso avesse agito con intenzione o per errore, e come questo influisse sulla necessità di punizione. In un altro, si verificava se la percezione di potere alterasse il livello di fiducia che un individuo ripone in un potenziale partner di scambio. Per ogni scenario, gli agenti venivano esposti alle stesse istruzioni e condizioni (testo o immagini) e, proprio come i partecipanti, producevano la loro scelta di risposta. Il fatto che le differenze di gruppo rispecchino quelle reali su scala di popolazione, secondo gli autori, potrebbe aprire a nuove prospettive. Immaginare di condurre uno studio pilota su un migliaio di agenti, ancorati a interviste reali, potrebbe permettere di “sondare” in anticipo l’effetto atteso di un intervento, prima di impegnarsi in una costosa sperimentazione umana. Tuttavia, si invitano i lettori alla cautela: non si tratta di sostituire in toto i partecipanti reali, perché rimane il problema che il modello, per quanto accurato, non può aggiornarsi su eventi successivi all’intervista. Inoltre, se intervengono cambiamenti significativi o contesti di cui l’intervistato non ha discusso, la simulazione potrebbe risultare incompleta. Il documento mette anche in luce i rischi associati a un utilizzo superficiale di questi agenti in contesti di policy-making. Per esempio, se si volesse testare una nuova campagna di sensibilizzazione sanitaria, gli agenti potrebbero dare un’idea di come segmenti di popolazione reagirebbero. Ma occorrerebbe sempre considerare che gli agenti non possono superare i limiti dei dati in loro possesso: se l’intervista non approfondisse certi aspetti cruciali, la loro risposta potrebbe risultare arbitraria. In ogni caso, l’elevato indice di correlazione fra i trattamenti sperimentali subiti dai partecipanti e quelli attribuiti dagli agenti dimostra che, con i giusti controlli e un protocollo di intervista ampio, questi sistemi di simulazione possono diventare un laboratorio virtuale utile e stimolante. Bias demografici e accesso ai dati: sfide e opportunità Un problema ben noto nel campo dell’intelligenza artificiale è la presenza di bias nella fase di addestramento o nella definizione dei profili degli agenti. Sovente, modelli che si basano su semplici etichette demografiche finiscono per cadere in stereotipi, penalizzando gruppi minoritari o categorie meno rappresentate. Nella ricerca emerge un dato incoraggiante: gli agenti generati a partire da interviste mostrano un divario di prestazioni minore rispetto a quelli che usano soltanto attributi demografici. Se si guarda al Demographic Parity Difference (DPD) , che misura la differenza di accuratezza tra il gruppo più e meno favorito, i modelli basati su interviste riducono il gap in modo significativo, scendendo per esempio dai 12,35 punti percentuali di disparità sugli estremi politici a circa 7,85. Una tendenza simile si riscontra anche per variabili razziali, sebbene il margine di miglioramento, in alcuni casi, risulti più contenuto. Questa dinamica si spiega con la natura stessa delle interviste qualitative, che permettono all’agente di attingere a una varietà di contenuti personali, sottraendosi alla semplificazione del “tipico profilo”. Nel caso di agenti costruiti su semplici categorie di genere, età o collocazione ideologica, il modello linguistico tende a riprodurre immagini tipiche, per forza di cose incomplete, non catturando la complessità individuale. Al contrario, se un individuo di un certo gruppo minoritario ha un’esperienza specifica raccontata nell’intervista, l’agente basato sul testo ricorderà proprio quel vissuto, attenuando il rischio di generalizzazione. La ricerca propone anche un sistema di “banca di agenti” progettato per rendere disponibili questi profili virtuali alla comunità scientifica. L’idea è offrire un accesso su due livelli: uno più aperto, con dati aggregati, per consentire a ricercatori di esplorare le tendenze generali senza violare la privacy dei partecipanti; un altro più restrittivo, con autorizzazioni specifiche per domande aperte e accesso alle singole risposte. Questo secondo livello servirebbe per chi, ad esempio, intenda eseguire simulazioni particolarmente dettagliate o provare nuovi protocolli sperimentali, avendo bisogno di interagire con i singoli agenti in maniera personalizzata. Saranno però necessarie procedure di sorveglianza, log di controllo e limitazioni per usi commerciali, così da non ledere i diritti degli intervistati. Dal punto di vista applicativo, si intravvedono varie prospettive. Sul piano delle scienze sociali, simulare un migliaio di individui a partire da interviste vere potrebbe aiutare a formulare ipotesi su come diversi segmenti di popolazione reagirebbero a un certo evento, come una nuova proposta di legge o una crisi sanitaria. Si potrebbe analizzare l’effetto di gruppi di agenti su reti sociali virtuali, esplorando la polarizzazione delle idee o la propagazione di informazioni. Nel contesto del marketing e delle ricerche di mercato, un’azienda potrebbe desiderare di “interrogare” gli agenti per capire tendenze di acquisto, fermo restando che tali agenti rappresentano un’istantanea nel tempo e non un aggiornamento dinamico. Allo stesso tempo, la ricerca invita alla prudenza. Sebbene i risultati siano incoraggianti e mostrino un buon allineamento tra agenti e partecipanti reali, nessuna simulazione può sostituire in modo definitivo lo studio diretto su campioni umani, soprattutto se l’ambiente sociale e informativo cambia. Il vantaggio degli agenti di “Generative Agent Simulations of 1,000 People” è di offrire un punto di partenza per la prototipazione di ipotesi di ricerca, un laboratorio virtuale in cui sperimentare, con costi minori e tempi più rapidi, l’impatto di determinati input. Ma ogni conclusione di rilievo deve essere, a parere degli autori, corroborata da verifiche sul campo e da un riesame costante dell’attualità e della validità delle informazioni contenute nelle trascrizioni. Un altro aspetto strategico è la possibilità di ampliare lo studio coinvolgendo popolazioni diverse o interviste specializzate su temi di nicchia. Se il protocollo di intervista si focalizzasse su un gruppo ristretto, per esempio persone che lavorano in un settore sanitario specifico, allora gli agenti risultanti potrebbero fornire proiezioni molto dettagliate sulle politiche ospedaliere. Al contrario, la diversificazione massima (come nello studio su popolazione generale) offre un quadro più ampio, ma meno profondamente mirato. In ogni caso, la chiave di questi agenti è la ricchezza delle loro interviste, che devono essere pianificate per estrarre la complessità della vita umana senza incorrere in troppe ridondanze. Conclusioni Gli esiti di “Generative Agent Simulations of 1,000 People” suggeriscono che la combinazione di interviste qualitative approfondite e modelli linguistici di ampia scala possa delineare scenari di simulazione umana piuttosto verosimili. L’accuratezza raggiunge livelli notevoli nelle risposte a questionari come il GSS o nel calcolo di tratti di personalità, e persino nei giochi economici e negli esperimenti di psicologia sociale si evidenzia una coerenza collettiva degli agenti molto vicina a quella rilevata su individui reali. Tuttavia, in una prospettiva manageriale o imprenditoriale, non bisogna attendersi che tali agenti diventino un sostituto perfetto delle indagini sul campo. Il contesto sociale evolve, e le informazioni contenute nelle interviste sono pur sempre una fotografia statica, destinata a invecchiare. La riflessione strategica, allora, verte sulla possibilità di usare questi agenti come primo banco di prova per testare ipotesi di comunicazione o di policy. Se un’azienda o un’istituzione desiderasse capire come un determinato segmento della popolazione potrebbe reagire a un nuovo prodotto, potrebbe condurre una simulazione iniziale con centinaia di agenti “personalizzati”, ottenendo indicazioni su possibili risposte, conflitti o divergenze. A quel punto, si procederebbe a una sperimentazione più tradizionale, mirata e meno estesa, ottimizzando tempi e costi. O ancora, si potrebbero indagare dinamiche di gruppo, ad esempio la formazione di correnti di opinione, in un ambiente virtuale. Questa prospettiva, sebbene realistica, va comunque affiancata a un controllo continuo sulla provenienza e l’aggiornamento dei dati: se i testi di intervista sono troppo vecchi o se contengono lacune, la simulazione restituirà risultati incompleti o distorti. Se si confronta questo approccio con altri strumenti di simulazione già disponibili, si nota che i generative agents offrono una granularità notevolmente maggiore, perché ancorano ogni agente a un individuo reale invece che a un generico costrutto. Tuttavia, restano aperte questioni su come la personalità e le scelte del partecipante possano cambiare nel tempo, problema che i modelli statici non gestiscono. In più, esistono già tecnologie che “fanno cose simili” in modo più semplice, come i classici modelli di preferenza in ambito marketing o i simulatori di comportamento elettorale. Questi ultimi, però, raramente integrano una dimensione testuale così ricca, tale da restituire reazioni a proposte e scenari complessi. Il lavoro qui presentato aggiunge dunque nuove potenzialità, ma richiede anche cautela, un controllo etico rafforzato e una manutenzione continua dei dati. In una visione di più lungo periodo, si potrebbe immaginare di estendere l’approccio a contesti internazionali o di integrare nuove metodologie di raccolta, come interviste condotte in presenza o l’inclusione di informazioni biometriche e storici dei social media, purché autorizzati. Si tratterebbe di un ulteriore passo verso simulazioni ancora più aderenti alle persone, con il rischio, però, di problemi di privacy ancor maggiori. Gli autori del lavoro ricordano l’importanza di un sistema di governance responsabile, capace di bilanciare trasparenza dei dati, tutela degli intervistati e necessità di consentire ricerche innovative. La direzione sembra dunque chiaramente tracciata: l’uso di agenti generati da interviste potrebbe portare a un’analisi più sottile delle dinamiche umane, offrendo riscontri veloci e abbattendo alcuni ostacoli logistici. Resta però indispensabile ricordare che ogni simulazione va maneggiata con la consapevolezza dei suoi limiti e dell’impossibilità di prevedere con certezza assoluta il comportamento umano reale. Podcast: https://creators.spotify.com/pod/show/andrea-viliotti/episodes/Generative-Agent-Simulations-dinamiche-di-intervista-e-applicazioni-nelle-scienze-sociali-e2spv8b Fonte:   https://arxiv.org/abs/2411.10109

  • Human Creativity and Artificial Intelligence: Boundaries and New Perspectives

    “A.I. Isn’t Genius. We Are.” by Christopher Beha, referencing Roland Barthes and Pierre Bourdieu, appeared in the pages of The New York Times. The investigation takes its cue from today’s discussion around large language models, highlighting how human creativity and artificial intelligence have sparked both fears and hopes, examining the cultural roots that uphold concepts of individual ingenuity, and considering the possibility that technology might surpass talent. The analysis revolves around an essential question: How much does the human factor truly matter in the birth of innovative solutions, and how much are such solutions instead an expression of social, economic, and cognitive processes? Human Creativity and Artificial Intelligence: Boundaries and New Perspectives Human Creativity and the Artificial Intelligence Debate: Fears and Potential The controversy pitting supporters of artificial intelligence against its more critical observers found one of its symbolic starting points in the release of ChatGPT two years ago. Since then, considerable debate has focused on the risk of losing the distinctive trait of creativity we usually attribute to individuals. Some foresee the end of what is called human exceptionalism, imagining a world in which computers and algorithms outdo every form of imagination and originality. The worry is that songs, paintings, novels, and design projects might end up becoming indistinguishable from those created by professionals, marking the disappearance of the human dimension in the arts and the conception of new ideas. This fear has been fueled by interpretations that overemphasize the power of computational models and, more importantly, by a cultural tendency to implicitly and gradually underestimate what humans are truly capable of doing. To fully understand the causes of this underestimation, we need to examine how, as early as the second half of the twentieth century, we witnessed a deconstruction of the idea of the “author.” In his famous 1967 essay, “The Death of the Author,”  critic Roland Barthes argued that every text was the outcome of an interweaving of preexisting writings and that no individual truly held a creative primacy. Within a post-structuralist perspective, cultural production is interpreted as the result of historical, political, and economic dynamics that influence one another, leaving little room for an authentic individual contribution. In this vision, the author appears to be a conduit through which already-structured ideas are expressed, thus diminishing the concept of “genius” understood as the source of extraordinarily original creations. On the one hand, there was a desire to counteract an excessive mythologizing of art and its creators, but on the other, the result was a flattening of any sense of wonder, as if everything could be reduced to combinations and recombination of existing cultural materials. In his 1979 study “Distinction,” sociologist Pierre Bourdieu stressed how aesthetic tastes are intimately connected to mechanisms of social distinction and how artistic innovation is tied to mechanisms of power rather than to free individual expression. He described culture as the realm of “cultural capital,” with the codes of the elite perpetuating certain hierarchies and marginalizing all else. According to this view, the artist does not create from nothing but rather responds to specific social conventions. A different approach, yet similarly aimed at reducing human autonomy, came from Richard Dawkins’s neo-Darwinian materialism. With his theory of “memes,” he argued that cultural ideas spread almost mechanically. If genes are transmitted through DNA, “memes” circulate in social strata, replicating and adapting in a competitive manner. In other words, every cultural elaboration is simply a passage of preexisting content, and the mind acts as a container that recycles material, not as a furnace where a creative spark is ignited. Within these theories, the last bastion of human exceptionalism seemed to crumble, because the entire sphere of aesthetic and conceptual production was seen as a result of inherited or cultural conditioning. Although these perspectives prompted important reflections on the role of history, biological constraints, and power structures, they also led to a widespread tendency to treat creativity as an illusion. Consequently, over the past decades, we’ve grown accustomed to viewing cinema, music, and literature as macrosystems of repetition. Every new artistic product becomes a remix of genres and codes from the past. Just think of comic-book story universes, the endless reworkings of literary motifs, or the continuous crossovers between musical styles from different eras. On a daily scale, a meme culture has flourished that magnifies the phenomenon: movie scenes, political news, and pop-cultural events immediately become “reusable” material, ready to be distorted, re-edited, and relaunched in a ceaseless flow. In such a flattened environment, the notion that a machine might generate text, images, or melodies is no longer felt to be extraordinary but instead the logical consequence of an ongoing process in which creativity and repetition merge and the distinction between new and old is weakened. With the emergence of language models trained on vast amounts of data, many people have begun to believe that the line separating algorithms and human ingenuity is very thin. Some have declared that the human spark is definitively extinguished. Others, less alarmed, have downplayed the influence of these tools, seeing artificial intelligence as a significant technological innovation rather than humanity’s point of no return. In either case, the emphasis is on underestimating human capabilities and what humans can actually achieve. If we begin with the idea that intellectual production derives solely from combining existing information, then the possibility of a computer reproducing the same mechanisms seems perfectly natural. Conversely, recognizing our capacity to create something genuinely authentic compels us to deeply reconsider the relationship between human creativity and artificial intelligence, especially in the most advanced inventions.   Artificial Intelligence and Human Culture The reflection on artificial intelligence extends beyond merely technological aspects or questions of employment; it touches the very foundations of culture, philosophy, and our ability to conceive entirely new ideas. Some readers may wonder whether machine learning systems are merely “enhanced tools” or whether they represent something more significant. The article that informs this discussion puts forth a hypothesis: we shouldn’t be afraid that machines might appropriate our creativity; rather, we should worry about how we ourselves have undermined the idea that human beings possess an imaginative potential not reducible to probabilistic calculations. This conclusion also stems from a tradition reminding us that logic and aesthetics are two poles of the same arc of knowledge. The history of mathematics, philosophy, and the science in general demonstrates that certain individuals have managed to combine analytical skills with contemplative aptitude. The recent development of generative AI systems fits precisely into that long trajectory rooted in formal logic (via figures like Kurt Gödel, John von Neumann, or Alan Turing) and the visionary creativity of programmers and scholars who envisioned a form of computation capable of exploring vast semantic spaces. Every line of code, every mathematical formula or neural network architecture, holds the echo of the ingenuity of those who laid the groundwork in ages past. Consider the geometry of ancient civilizations, Aristotelian logic, or the early mechanical devices designed for calculation. Nothing that is part of the AI domain today was born in a vacuum of creativity; it is all the outcome of a pipeline composed of discoveries, insights, and intellectual exchanges among centuries of researchers and philosophers. Furthermore, one might argue that generative artificial intelligence, with its ability to synthesize texts, images, and ideas from an enormous pool of digitized knowledge, reflects a broader phenomenon: the blending of sciences and humanities. In the past, there have been individuals who personified this union. Leonardo da Vinci’s name, for instance, is emblematic: some place him in the history of engineering due to his mechanical projects, others celebrate him as a painter. Yet the most fascinating aspect is how he moved from scientific observation of the world to artistic invention, from the pure analysis of anatomy to the pictorial representation. Anyone examining AI’s phenomenology with a historical lens might see a fresh, ambitious attempt by humanity to build intellectual tools capable of exploring and unifying different domains of knowledge. This recognition implies admitting that the fears about the eclipse of human genius are often fueled by a misunderstanding: it’s not the machine that threatens our uniqueness, but rather us who fail to properly situate AI as a product of our ingenuity while simultaneously underestimating ourselves as thinking beings. On the contrary, if we realize that every algorithm, every neural network, and every deep learning module derives from complex processes of human development and creativity, then it becomes evident that the supposed contest between humans and AI is largely meaningless. AI is a collective, choral creation that merges the passion of physicists, engineers, linguists, and philosophers, along with the humanistic dimension of those who imagine new solutions to old problems. Some hold that in practical terms, rising automation is disrupting entire fields of knowledge and labor. To an extent, that’s true: technology changes existing balances, shifts skill sets, and creates new spaces for innovation. Yet the value of this transformation cannot be reduced to simply tallying what is lost and what is gained, because the widespread adoption of an AI system always reflects the desire to test the limits of what is possible. Between the end users and the developers exists a chain of expertise that stretches back to remote times and takes shape in today’s software—an ongoing flow of ideas that propels humanity forward. We must also remember that AI does not operate in a regulatory or ethical vacuum. Humans set parameters, select data, write guidelines, and define objectives. The great promise of systems like ChatGPT also lies in their capacity to raise questions about how we construct knowledge, compelling us to reflect on the origins of content and how it may be used. This awareness portrays AI as a continuous interlocutor, rather than an enemy. The echoes of collective fears mingle with the allure of a work that ultimately arises from the same spirit that led to the major technological achievements of the past.   Human Genius and AI: An Evolving Relationship For many centuries, the concept of genius played a central role in defining what makes it possible to produce extraordinary works. The genealogy of this idea dates back to antiquity, when Socrates spoke of a “daimonion” that guided his conduct, or to Christian mystics identifying a personal connection with the divine, or still further to Enlightenment thinkers who tried to secularize the notion of inspiration. In Immanuel Kant’s view, great art came from the individual capable of creating his own rules, rather than following those already established. Romanticism then promoted the image of the author drawing on profound intuition to realize masterpieces, while mathematics was viewed as a systematic, methodical discipline. Yet the twentieth century reminded us that even in rigorous scientific fields like physics or logic, there are moments when intuitive leaps overturn established certainties, yielding unexpected solutions. This notion of genius has been challenged from multiple angles: concerns about venerating false masters, the realization that so-called “great men” of history often benefited from privileged backgrounds, or the fact that they could commit destructive acts—all of these undermined trust in the concept. More recently, public discourse has celebrated figures like Bill Gates, Steve Jobs, and Elon Musk as “geniuses” for turning technological intuitions into economic empires, an equation that ambiguously conflates financial success with authentic innovation. The collateral effect is a further dilution of the term “genius,” as it becomes associated with managerial skills or with cutthroat economic competitiveness. However, the critical issue is not the casual use of the word but rather the loss of trust in the possibility that sometimes someone can think outside the box, going beyond the mere sum of existing notions to produce genuinely novel creations. Here the AI question fits perfectly. In fearing that neural networks might exceed human capacities, we sense a collective defeat: if we are merely systems that process and combine information, then there is no distinction between humans and machines—which might even outperform us in every domain. Yet it is essential to invert this viewpoint, noting that machine learning models do not represent an abstract or independent reality but rather the concrete result of an engineering process built through a lengthy path of human commitment and work. When we ask whether machines will truly replicate the deepest qualities of humanity, we should recall that algorithms do not develop authentic inspiration; they execute probabilistic models. Although computational power allows for wide-ranging variations and combinations, generating surprising texts, images, and sounds, the driving force behind these combinations remains the information we provide. No neural network has ever awakened with the awareness to ponder existential questions or discover an absolute ethical principle beyond what it was programmed to do. This perspective does not aim to diminish AI, but rather to redefine the scale of roles. Thinking of artificial intelligence as a “foe” of creativity is contradictory because technology embodies the work of generations of researchers, artists, and thinkers who dedicated their lives to designing and refining mechanisms capable of processing information. If fear emerges, it is because we perceive in these systems the possibility that they could rival us in areas we consider “sacred” or distinctly human, such as writing novels or composing music. In reality, what resonates is the ancestral fear humans have of themselves: the reflection falls on how we use our own inventions, what responsibilities we assume in programming them, and what goals we pursue. At the same time, AI demonstrates how humans, with their capacity for abstraction and imagination, can create digital “creatures” able to traverse countless fields of knowledge. Such results were once the domain of a few extraordinary figures—like Leonardo da Vinci, who united mathematics and art, philosophical reflection, and the invention of machines. Today, that aspiration to unify knowledge is expressed in the construction of generative models that tap into every segment of available expertise. It is a prospect that should inspire fascination more than anxiety, showing how the human mind, even collectively, can conceive structures of great versatility. If history teaches us anything, it is that technological leaps forward become opportunities to reflect on our place in the universe. Thus, the real “competitor” may not be the machine at all but our own mental laziness, our reluctance to resume a conversation about inspiration and creative impetus in a way that goes beyond economic calculations or scientific oversimplifications.   Conclusions The evidence gathered points to a more measured perspective than the most catastrophic tones might suggest. The genuine risk is not that artificial intelligence will wipe out our creativity, but that we might abandon our recognition of the mind’s generative power, delegating even our last glimmer of curiosity to sophisticated machines. In the current scenario, many technologies already exist with functions similar to those of large language models, though without the accompanying clamor: from data analysis systems in the business world to simulation software in engineering. When placed side by side, the evolutionary leap in deep learning models appears significant, yet can be situated within a long tradition of technical achievements. The crucial factor lies in identifying the implications for businesses and society: understanding that AI is neither a facile replacement for thought, nor an autonomous monster allows managers and entrepreneurs to more soberly assess the introduction of such tools. Every innovation must be governed by clear regulations, proper staff training, and a strategic approach that takes ethical and cultural dimensions into account. The environment in which we operate already includes similar technologies assisting organizations for years, but today’s debate provides an opportunity for a more far-reaching and inclusive vision: those investing in AI gradually discover that behind a piece of software lies an unbroken chain of expertise, the result of an ancient fusion between mathematics and the creative spirit. In an era, intent on cutting costs, from staffing to basic research, it becomes crucial to preserve that spark of inspiration which has always made the difference between a merely replicative technology and one that genuinely benefits humanity. The prods of these models do not close any doors to collaboration among ideas, nor does it invalidate art or literature; rather, it expands our potential for achievement if we begin to believe again in our capacity to ask radical questions. Looking ahead, comparisons between AI and similar systems already in use will reveal increasingly sophisticated forms of integration, while also leaving room for new dilemmas about the nature of learning and the meaning of “thinking.” Many companies will find themselves reevaluating their decision-making processes, discovering they need individuals capable of connecting data with sensitivity to the human dimension. In a certain sense, this will require reclaiming something very ancient: a careful attention to one’s own interiority and environment, so as to perceive when a hunch deserves to be fostered until it becomes a disruptive market idea. This is not about idolizing AI, but about placing it within a broader framework of shared creativity. Indeed, the genuine added value of these systems does not lie in the perfection of their algorithms but rather in our willingness to reflect, experiment, and embrace that dimension of the mind where intuition can become a flash of novelty. It is an invitation to combine scientific and humanistic culture in a serious way, to see computers as extensions of our quest for knowledge rather than adversaries. In a marketplace where competition drives the adoption of increasingly sophisticated solutions, the strategic difference may lie precisely in the awareness that behind every line of code there flows the plural history of humanity, and that the next steps demand both technical rigor and creative courage.   Podcast: https://creators.spotify.com/pod/show/andrea-viliotti/episodes/Human-Creativity-and-Artificial-Intelligence-Boundaries-and-New-Perspectives-e2spk1k Source:   https://www.nytimes.com/2024/12/26/opinion/ai-genius-art.html

  • Creatività umana e intelligenza artificiale: confini e nuove prospettive

    “A.I. Isn’t Genius. We Are.” di Christopher Beha, con riferimenti a Roland Barthes e Pierre Bourdieu, è apparso sulle pagine del The New York Times . L’indagine prende spunto dall’odierna discussione sui grandi modelli linguistici, mostrando come la creatività umana e l’intelligenza artificiale  abbiano generato timori e speranze, sulle radici culturali che sostengono i concetti di ingegno individuale e sulla possibilità che la tecnologia possa superare il talento. L’analisi ruota intorno a una questione essenziale: quanto conta davvero l’azione dell’uomo nella nascita di soluzioni innovative, e quanto invece queste soluzioni sono espressione di processi sociali, economici e cognitivi? Creatività umana e intelligenza artificiale: confini e nuove prospettive Creatività umana e intelligenza artificiale: paure e potenzialità La vicenda che vede opposti i promotori dell’ intelligenza artificiale  e i più critici verso questa tecnologia ha trovato uno dei suoi avvii simbolici con l’uscita di ChatGPT  due anni fa. Da allora si è discusso a lungo sul rischio di perdere quel tratto peculiare di creatività  che si è soliti attribuire agli individui. Alcuni paventano la fine della cosiddetta eccezionalità dell’uomo, prospettando un contesto in cui computer e algoritmi sorpassano ogni forma di immaginazione e originalità. Si teme che canzoni, dipinti, romanzi e progetti di design finiscano per essere indistinguibili da quelli creati da professionisti, segnando la scomparsa dell’umano nelle arti e nell’ideazione di nuovi concetti. Questo timore è stato alimentato da interpretazioni che esaltano troppo il potere dei modelli computazionali, ma soprattutto da una tendenza culturale a sottovalutare, in modo implicito e graduale, ciò che l’uomo sa effettivamente fare. Per comprendere fino in fondo le cause di questa sottovalutazione, è indispensabile guardare a come, già nella seconda metà del Novecento, si sia portata avanti una decostruzione dell’idea di “autore”. Il critico Roland Barthes  nel suo celebre saggio del 1967, “La morte dell’autore”, sosteneva che ogni testo era frutto di un intreccio di scritture preesistenti e che nessun individuo avesse un effettivo primato creativo. Nella prospettiva poststrutturalista, la produzione culturale viene interpretata come il frutto di dinamiche storiche, politiche ed economiche che si influenzano reciprocamente, lasciando scarsa possibilità a un autentico contributo individuale. In questa visione, l’autore appare come un mezzo attraverso il quale si esprimono idee già strutturate, ridimensionando il concetto di "genio" inteso come fonte di creazioni straordinariamente originali. Da un lato, quindi, c’è stata la volontà di reagire a un eccesso di mitizzazione dell’arte e di chi la crea, ma dall’altro si è finiti per appiattire ogni possibilità di meraviglia, come se tutto fosse riconducibile a combinazioni e ricombinazioni di materiali culturali esistenti. Il sociologo Pierre Bourdieu , nel suo studio “Distinction” del 1979, ha insistito su come i gusti estetici siano intimamente connessi ai meccanismi di distinzione sociale e come l’innovazione artistica rientri in meccanismi di potere più che di libera espressione individuale. Egli descriveva la cultura come il regno del “capitale culturale”, con i codici dell’élite che tengono in vita determinate gerarchie e lasciano a margine tutto il resto. L’artista, secondo questa chiave, non crea dal nulla, ma risponde a precise convenzioni sociali. Un approccio diverso, ma convergente nell’idea di ridurre l’autonomia dell’essere umano, è venuto dal materialismo neodarwiniano di Richard Dawkins . Con la teoria dei “memi”, egli ha sostenuto che le idee culturali si propagano in modo quasi meccanico. Se i geni si trasmettono attraverso il DNA, i “memi” circolano negli strati sociali, replicandosi e adattandosi in maniera competitiva. In altre parole, ogni elaborazione culturale sarebbe un semplice passaggio di contenuti preesistenti, e la mente fungerebbe da contenitore che ricicla materiali, non da fornace in cui nasce un fuoco creativo. Dentro a queste teorie, è sembrato crollare l’ultimo baluardo di eccezionalità umana, perché tutta la sfera della produzione estetica e concettuale veniva interpretata come frutto di condizionamenti ereditari o culturali. Queste impostazioni, sebbene abbiano portato a importanti riflessioni sul ruolo della storia, dei vincoli biologici e dei contesti di potere, hanno anche generato una diffusa tendenza a trattare la creatività come un’illusione. La conseguenza è che, negli ultimi decenni, ci si è abituati a vedere il cinema, la musica e la letteratura come macrosistemi di ripetizioni. Ogni nuovo prodotto artistico diventa un remix di generi e codici del passato. Basti pensare agli universi narrativi dei fumetti, alle infinite rivisitazioni di motivi letterari, o alle continue contaminazioni tra stili musicali di epoche diverse. Su scala quotidiana, si è poi diffusa una cultura dei meme che amplifica il fenomeno: scene di film, notizie politiche, fatti di costume diventano subito materiali “riusabili”, pronti per essere distorti, rieditati e rilanciati in un flusso incessante. In uno scenario così appiattito, l’idea che una macchina possa generare testi, immagini o melodie non è più avvertita come straordinaria, bensì come la logica conseguenza di un processo già in atto, dove creatività e ripetizione si fondono e la distinzione tra nuovo e antico si indebolisce. Con l’emergere di modelli linguistici addestrati su enormi quantità di dati, molte persone hanno iniziato a credere che la linea di demarcazione tra l’algoritmo e l’ingegno umano fosse molto sottile. Alcuni hanno gridato a una scomparsa definitiva della scintilla umana. Altri, meno allarmati, hanno ridimensionato l’influenza di questi strumenti, considerando l’ intelligenza artificiale  un’innovazione tecnologica rilevante, ma non il punto di non ritorno dell’umanità. Il focus, in entrambi i casi, è sulla sottovalutazione dell’uomo e di ciò che l’uomo può davvero fare. Se si parte dall’idea che la produzione intellettuale derivi soltanto dal combinare informazioni esistenti, la possibilità che un computer riproduca gli stessi meccanismi diventa perfettamente naturale. Invece, la consapevolezza della nostra capacità di creare qualcosa di autentico ci spinge a riconsiderare in profondità la relazione tra creatività umana e intelligenza artificiale , specialmente nelle invenzioni più avanzate. Intelligenza artificiale e cultura umana La riflessione circa l’ intelligenza artificiale  non riguarda soltanto gli aspetti meramente tecnologici o le questioni di lavoro, ma tocca i fondamenti stessi della cultura, della filosofia e della capacità di concepire idee inedite. Alcuni lettori potrebbero chiedersi se i sistemi di machine learning siano semplici “strumenti potenziati” o se rappresentino qualcosa di più incisivo. L’articolo da cui muove questa analisi avanza un’ipotesi: non dovremmo temere che le macchine si approprino della nostra creatività, ma piuttosto preoccuparci di quanto noi stessi abbiamo demolito l’idea che l’essere umano abbia un potenziale immaginativo non riducibile a calcoli probabilistici. Questa conclusione nasce anche da una tradizione che ci ricorda come la logica  e l’ estetica  siano due poli di un medesimo arco di conoscenza. Lo dimostra la storia della matematica, della filosofia e delle scienze in generale, in cui alcuni individui hanno saputo coniugare capacità analitiche e attitudini contemplative. Il recente sviluppo di sistemi di intelligenza artificiale generativa  rientra proprio in quella lunga traiettoria che affonda le radici nella logica formale (attraverso figure come Kurt Gödel, John von Neumann o Alan Turing) e nella creatività visionaria di programmatori e studiosi che hanno immaginato una forma di calcolo capace di esplorare vasti spazi semantici. Ogni riga di codice, ogni formula matematica o architettura di rete neurale, custodisce l’eco dell’ingegno di chi ha gettato le basi in epoche lontane. Si pensi alle geometrie di antiche civiltà, alla logica aristotelica, o alle prime macchine meccaniche progettate per il calcolo. Nulla di ciò che oggi rientra nel calderone dell’AI è nato in un vuoto di creatività: è tutto frutto di una filiera fatta di scoperte, intuizioni e scambi intellettuali fra secoli di ricercatori e filosofi. Oltretutto, si può affermare che l’ intelligenza artificiale  generativa, nella sua capacità di sintetizzare testi, immagini e idee da un enorme bacino di conoscenze digitalizzate, sia lo specchio di un fenomeno più ampio: la fusione tra scienze e discipline umanistiche. In passato, abbiamo già avuto figure in grado di rappresentare questa unione. Il nome di Leonardo da Vinci  è un esempio emblematico: alcuni lo collocano nella storia dell’ingegneria grazie ai suoi progetti meccanici, altri lo celebrano come pittore. Eppure, l’aspetto che più affascina è il modo in cui egli riusciva a passare dall’osservazione scientifica del mondo all’invenzione artistica, dalla pura analisi anatomica alla trasposizione pittorica. Chi osserva la fenomenologia dell’AI con uno sguardo storico potrebbe intravedere un nuovo, ambizioso tentativo dell’umanità di costruire strumenti intellettuali capaci di esplorare e unificare domini del sapere diversi tra loro. Ciò implica riconoscere che i timori sull’eclissi del genio umano sono spesso alimentati da un fraintendimento: non è la macchina a insidiarsi nella nostra unicità, siamo noi che, da un lato, la priviamo di una corretta collocazione come prodotto dell’ ingegno  e, dall’altro, ci sottostimiamo come essere pensanti. Se, al contrario, riconosciamo che ogni algoritmo, ogni rete neurale e ogni modulo di deep learning derivano da complessi percorsi di elaborazione e creatività umana, allora appare chiaro come la presunta gara tra uomo e AI abbia poco senso. L’AI è un frutto collettivo, corale, che unisce la passione di fisici, ingegneri, linguisti e filosofi, così come la sfera umanistica di chi immagina soluzioni inedite per problemi antichi. Alcuni ritengono che, dal punto di vista pratico, la crescente automazione spiazzi interi settori della conoscenza e del lavoro. In parte, questo è vero: la tecnologia modifica equilibri preesistenti, trasferisce competenze e crea nuovi spazi di innovazione. Eppure, il valore di questa metamorfosi non può ridursi a un semplice conteggio di ciò che si perde e di ciò che si guadagna, perché l’adozione su larga scala di un sistema di AI riflette sempre la tensione a saggiare i limiti del possibile. Tra i fruitori finali e gli sviluppatori esiste una catena di saperi che prosegue da tempi remoti e che si manifesta nel software dei nostri giorni, una continuità di idee che spinge avanti l’ umanità . Occorre anche considerare che l’AI non agisce in un vuoto normativo o etico. Sono gli esseri umani a impostare parametri, selezionare i dati, scrivere linee guida e definire obiettivi. La grande promessa di sistemi come ChatGPT  sta anche nella capacità di sollevare interrogativi sul nostro modo di costruire la conoscenza, costringendoci a ragionare sulla provenienza dei contenuti e sull’uso che se ne può fare. Questa consapevolezza ci mostra l’AI come un interlocutore costante, ma non come un nemico. L’eco delle paure collettive si mescola al fascino di un’opera che, in fin dei conti, nasce dal medesimo spirito che ha portato alle grandi innovazioni del passato. Genio umano e AI: una relazione in evoluzione Per molti secoli, il concetto di genio  ha rivestito un ruolo centrale nella definizione di ciò che consente la nascita di opere straordinarie. La genealogia di questa idea viene dagli antichi, quando Socrate parlava di un “daimonion” che gli suggeriva la condotta, o dai mistici cristiani che identificavano un contatto personale con il divino, o ancora dai pensatori illuministi che tentarono di secolarizzare la nozione di ispirazione. Nella visione di Immanuel Kant , la grande arte scaturiva dall’individuo capace di creare le proprie regole, non di seguire quelle già scritte. Nel Romanticismo si affermò l’immagine dell’autore che attinge dall’intuizione più profonda per realizzare capolavori, mentre la matematica veniva vista come una disciplina schematica e metodica. Eppure, lo stesso Novecento ci ha ricordato che perfino in ambiti scientifici rigorosi, come la fisica o la logica, si presentano momenti in cui lo slancio intuitivo ribalta le certezze consolidate, regalando soluzioni inaspettate. Quest’idea del genio  è stata problematizzata da più parti: i timori di venerare falsi maestri, la constatazione che i cosiddetti “grandi uomini” della storia spesso venissero sopravvalutati grazie al proprio contesto privilegiato, o che non fossero esenti da comportamenti distruttivi, hanno minato la fiducia in questa nozione. Più di recente, la scena pubblica ha esaltato personaggi come Bill Gates, Steve Jobs o Elon Musk, definendoli “geni” perché capaci di trasformare intuizioni tecnologiche in imperi economici, un’equazione che sovrappone in modo ambiguo l’idea di successo finanziario a quella di autentica innovazione. L’effetto collaterale è un ulteriore svuotamento del termine “genio”, perché lo si identifica con abilità manageriali o con forme esasperate di competitività economica. Il punto critico, però, non è l’uso disinvolto della parola, ma piuttosto la perdita di fiducia nella possibilità che qualcuno, a volte, vada oltre lo schema, superando la mera somma di nozioni già consolidate per realizzare creazioni inedite. Qui si inserisce perfettamente la questione dell’ intelligenza artificiale . Nel timore che le reti neurali superino le capacità umane, emerge una percezione di sconfitta condivisa: se siamo semplicemente sistemi che elaborano e combinano informazioni, allora non vi sarebbe alcuna distinzione tra esseri umani e macchine, le quali potrebbero addirittura prevalere in ogni ambito. È però fondamentale ribaltare questa visione, considerando che i modelli di apprendimento automatico non rappresentano una realtà astratta o indipendente, ma costituiscono il risultato concreto di un processo ingegneristico costruito grazie a un lungo percorso di impegno e lavoro umano. Quando ci domandiamo se le macchine potranno davvero imitare la qualità più profonda dell’ umanità , dovremmo recuperare la consapevolezza che gli algoritmi non sviluppano autentica ispirazione, ma eseguono schemi probabilistici. La potenza del calcolo consente variazioni e combinazioni molto ampie, e può produrre testi, immagini e suoni sorprendenti, ma il motore di queste combinazioni resta ancorato alle informazioni che forniamo. Nessuna rete neurale si è mai svegliata con la consapevolezza di porre domande esistenziali o di individuare un valore etico assoluto al di là di ciò che è stato programmato. Questa considerazione non mira a sminuire l’AI, ma a ridefinire la scala dei ruoli. Pensare all’ intelligenza artificiale  come a un “nemico” della creatività è una contraddizione, perché la tecnologia incarna l’opera di generazioni di ricercatori, artisti e pensatori che hanno dedicato la vita a progettare e perfezionare meccanismi capaci di elaborare informazione. Se la paura si affaccia all’orizzonte, è perché intravediamo in questi sistemi la possibilità di competere con noi in settori che riteniamo “sacri” o comunque tipicamente umani, come la scrittura di romanzi o la composizione musicale. In realtà, quello che risuona è il timore ancestrale dell’uomo verso sé stesso: la riflessione ricade su come impieghiamo le nostre invenzioni, quali responsabilità abbiamo nel programmarle e quali obiettivi perseguiamo. Al tempo stesso, l’AI mostra come l’essere umano, con la propria capacità di astrazione e immaginazione, possa realizzare “creature” digitali capaci di spaziare su moltissimi ambiti del sapere. Simili risultati erano esclusiva di poche figure straordinarie, come appunto Leonardo da Vinci, che tenevano insieme la matematica e l’arte, la riflessione filosofica e la capacità di creare macchine. Oggi, quell’aspirazione a unificare i saperi si manifesta nel costruire modelli generativi che attingono a ogni segmento della conoscenza disponibile. È una prospettiva che dovrebbe suscitare fascinazione più che angoscia, perché ci fa vedere quanto la mente umana, anche in modalità collettiva, riesca a concepire strutture così versatili. Se la storia ci insegna qualcosa, è che i salti in avanti della tecnologia diventano occasioni per riflettere sul nostro ruolo nell’universo. Quindi, il reale “competitor” potrebbe non essere la macchina, bensì la nostra pigrizia mentale, la nostra paura di riprendere un discorso sull’ ispirazione  e sullo slancio creativo che non si riduca a conti economici o semplificazioni scientifiche. Conclusioni Le informazioni raccolte suggeriscono una prospettiva più distesa di quanto i toni più catastrofici possano far credere. Il vero rischio non è che l’ intelligenza artificiale  spazzi via la nostra creatività, ma che noi rinunciamo a riconoscere la portata generativa della mente umana, finendo per delegare a macchine sofisticate anche l’ultimo barlume di curiosità. Nel quadro attuale, molte tecnologie esistono già con funzioni simili a quelle dei grandi modelli linguistici, pur senza clamore: dai sistemi di data analysis in ambito aziendale ai software di simulazione in ingegneria. Il salto evolutivo dei modelli di deep learning, se confrontato con quelli già presenti, rivela un impatto importante, ma collocabile in una lunga tradizione di conquiste tecniche. L’aspetto cruciale sta nell’individuare le implicazioni per il mondo delle imprese e per la società: comprendere che l’AI non è né un semplificante sostituto del pensiero, né un mostro autonomo, consente a manager e imprenditori di valutare con maggior lucidità l’introduzione di certi strumenti. Ogni innovazione va governata con normative chiare, con formazione adeguata del personale e con una riflessione strategica che includa aspetti etici e culturali. Il panorama in cui ci muoviamo è ricco di tecnologie similari che affiancano le organizzazioni da anni, ma il dibattito odierno permette di raggiungere una visione più ampia e coinvolgente: chi investe in AI scopre gradualmente che dietro a un software c’è una catena ininterrotta di competenze, frutto di un’antica fusione tra matematica e spirito creativo. In un tempo in cui si cerca di risparmiare su tutto, dal personale alla ricerca di base, diventa strategico preservare la fiamma di quell’ ispirazione  che ha sempre fatto la differenza fra una tecnologia soltanto replicativa e una che sia veramente utile all’umanità. Il progresso di questi modelli non chiude nessuna porta alla collaborazione tra le idee, non invalida l’arte o la letteratura, ma allarga le potenzialità di ciò che possiamo realizzare se riprendiamo a credere nella capacità di fare domande radicali. Negli scenari futuri, il confronto tra l’AI e i sistemi analoghi già in uso mostrerà forme di integrazione sempre più sofisticate, ma lascerà aperti anche nuovi dilemmi sulla natura dell’apprendimento e sul significato di “pensare”. È probabile che molte imprese si troveranno a riconsiderare i propri processi decisionali, scoprendo di avere bisogno di figure capaci di connettere i dati con la sensibilità per l’umano. Forse, in un certo senso, si tratterà di recuperare qualcosa di molto antico: un ascolto attento dell’interiorità e del contesto, per percepire quando un’intuizione merita di essere coltivata fino a diventare un’idea dirompente sul mercato. Non si tratta di idolatrare l’AI, ma di inserirla in un quadro più ampio di creatività  condivisa. A ben vedere, l’autentico valore aggiunto di questi sistemi non risiede nella perfezione dell’algoritmo, ma nella nostra volontà di riflettere, sperimentare e aprirci a quella dimensione della mente in cui l’intuizione può farsi lampo di novità. È un invito a combinare cultura scientifica e umanistica in modo non superficiale, a guardare i computer come estensioni del nostro slancio conoscitivo, non come rivali. In un mercato dove la concorrenza spinge a adottare soluzioni sempre più sofisticate, la differenza strategica potrebbe nascondersi proprio nella consapevolezza che dietro ogni riga di codice c’è la storia plurale dell’ umanità che scorre, e che per compiere i prossimi passi occorre tanto rigore tecnico quanto coraggio creativo. Podcast: https://creators.spotify.com/pod/show/andrea-viliotti/episodes/Creativit-umana-e-intelligenza-artificiale-confini-e-nuove-prospettive-e2spjs1 Fonte: https://www.nytimes.com/2024/12/26/opinion/ai-genius-art.html

  • Artificial Intelligence in Defense: Ethical Dynamics, Strategic Challenges, and Future Perspectives

    “JSP 936 V1.1 Dependable Artificial Intelligence (AI) in Defence Part 1: Directive” is the title of the most recent Defense directive developed by Alison Stevenson (Director General Delivery & Strategy, Ministry of Defence) together with the Defence AI and Autonomy Unit (DAU) and Defence AI Centre (DAIC), in collaboration with the UK Ministry of Defence. The document focuses on the implementation of Artificial Intelligence in the military sphere, aiming for the safe and responsible use of innovative technologies. Its main objective is to provide clear directives on how to develop innovative algorithms and models, ensuring transparency, regulatory compliance, and ethical standards. Artificial Intelligence in Defense: Ethical Dynamics, Strategic Challenges, and Future Perspectives Artificial Intelligence in Defense: Opportunities and Responsibilities The Artificial Intelligence in Defense  directive highlights its role as a transformative force, impacting every facet of modern military operations. The theoretical foundations of the document suggest that adopting AI in different Defense segments—from logistics to decision-making support in complex operational environments—can increase both effectiveness and speed of action. At the same time, it is explicitly highlighted that the widespread diffusion of the technology must be balanced with a high level of control and accountability, in order to protect not only military personnel but also civilians and the integrity of the systems themselves. The importance of a strategic vision for AI also stems from experiences gained in recent years. The evolution of AI clearly shows the speed of development achieved by Machine Learning and Deep Learning algorithms, especially in areas such as computer vision and natural language processing. On the other hand, Defense has realized that the possibilities offered by AI are not limited to computing power but extend to the entire international security scenario, considering the potential vulnerabilities introduced by targeted cyberattack techniques, such as data poisoning or manipulation of models trained on unreliable datasets. Precisely for this reason, the concept of the Operating Design Domain (ODD) in the Artificial Intelligence in Defense  directive outlines specific requirements for safe AI deployment. Defining the scope of use for an algorithm or model is not merely a technical exercise; it becomes the foundation for understanding risks and planning appropriate protective measures. If a system for the automatic recognition and tracking of vehicles or people is trained in simplified environments, it may fail in hostile contexts that differ significantly from the reference dataset, producing erroneous decisions that jeopardize the safety of personnel. The initial section of the document insists on the importance of not viewing ethical and regulatory factors as a brake on innovation but rather as a lever to consolidate trust among all stakeholders, from individual operators to Parliament and public opinion. Framing AI within a defined perimeter of responsibility—clarifying who controls the algorithm, who is accountable for the outcomes, and how review processes are structured—makes wider and, above all, more sustainable long-term adoption possible. The presence of active human oversight, with tracking and auditing mechanisms, is one of the key conditions for maintaining the so-called human-centricity expressed by the Directive. This is exactly one of the points on which the methodological framework focuses: the ASR principles (Ambitious, Safe, Responsible) aim to manage the adoption of tools that can have a major impact on operational decisions in a balanced way. In parallel, AI’s strategic relevance also extends to more “behind the scenes” aspects, which are no less critical, such as the analysis of large volumes of data for predictive maintenance of weapons systems or logistical fleets and the reduction of response times in back-office administrative procedures. AI, when properly trained and integrated into reliable architectures, can speed up essential information flows and relieve staff of more repetitive tasks, leaving room for strategic planning or supervision duties. The danger, however, lies in possible data misinterpretation errors or in excessive trust in the algorithm when real conditions differ from the training scenario. Hence the need for continuous monitoring of model performance, both before release and during deployment, thanks to testing and verification procedures designed to account for potential changes in the operating environment. The strategic analysis presented by the document further highlights the need to maintain a multidisciplinary approach, engaging legal, technical, and operational expertise that works together throughout the entire AI lifecycle. This involvement must begin in the embryonic stage, when functional requirements are defined and data collection is initiated, and it must continue through development, integration, and reliability assessment. It is not uncommon for Defense projects to make use of open source or commercial software solutions, and in any case, it is crucial to require a sufficient level of certification from external suppliers to avoid a lack of solid evidence regarding data and testing processes. The British Ministry of Defence, in this regard, underscores the need for contractual guarantees that allow all necessary checks to be carried out, including those relating to the source of the dataset. Reliable AI in Defense: Ethical and Regulatory Principles The document clearly states that Artificial Intelligence should not be treated as a mere digital aid, but as a technology destined to interface with vital decision-making processes. Hence the centrality of regulatory references and ethical principles: any AI system must comply with international laws and conventions, particularly within the framework of International Humanitarian Law. In Defense applications, this entails a thorough review of norms concerning the use of force, the protection of human rights, and the accountability of military leadership. “JSP 936” cautions technicians and project managers about the risks of any lack of legal oversight: failing to do so could result in violations for which the entire military organization would be liable, causing extremely serious repercussions in terms of credibility and political responsibility. The approach codified in the five ASR principles—human-centricity, responsibility, understanding, bias and harm mitigation, reliability—suggests that every action should be evaluated with a view toward its potentially extensive impact, because AI solutions have an adaptive nature. A model trained on specific datasets can change its performance and outcomes if exposed to new conditions or alternative data sets. The principle of human-centricity reaffirms the need to keep the person (operator, analyst, citizen) at the center of the decision-making chain, both to prevent possible harm to civilian communities and to ensure that the decisions made in operational contexts are appropriate. Responsibility then implies defining, without ambiguity, who is accountable for the AI system’s actions during development, training, operational deployment, and ongoing maintenance. The document introduces specific reference roles, such as the Responsible AI Senior Officer (RAISO), designed to ensure that no gray areas arise in which the algorithm operates without human control. In this scenario, understanding also becomes a key factor: if a team cannot explain the basic criteria by which a given model generates its outputs and is unable to understand the limits of its training data, the very foundations for an intelligent and informed use of AI collapse. Merely implementing machine learning mechanisms and hoping they yield reliable results is not enough: organizations must structure comprehensive documentation, conduct validation tests, and ensure that end users understand the system outputs, at least at a level sufficient to guide the necessary trust or caution. The analysis of bias and harm mitigation draws attention to the problem of discrimination and potential unintended consequences. A facial recognition algorithm, for example, could have higher error rates for certain population groups if it is trained on unbalanced datasets. In a Defense context, unjustified discrimination or underestimation of certain risk profiles could result in operations that fail to comply with proportionality principles and the protection of civilians. Therefore, data collection must be handled rigorously, certifying the source, quality, and relevance of the information to the expected scenarios. The same applies to the secure management of data and models, as any cybersecurity vulnerabilities could compromise the entire system, opening the door to manipulation or theft of sensitive information. Another relevant aspect is reliability—the need to ensure that the AI system operates robustly, safely, and according to requirements even in adverse circumstances. Defense recalls the typical verification and validation procedures for software, which must be extended with large-scale tests and ongoing reviews, because learning algorithms may degrade over time or become unpredictable under extreme conditions. A security-by-design approach is proposed, integrating safety evaluations and mechanisms from the outset, along with continuous monitoring in real-world scenarios. This consideration carries even greater weight in the case of Robotic and Autonomous Systems (RAS), where human intervention can be limited, and an algorithmic malfunction could lead to errors in critical operational theaters. In the legal and ethical sections of the document, it is emphasized that compliance is not solely about what the technology does but also about how it is implemented and managed. It is in this “how” that potential violations or compliance become apparent: the same AI could be employed or configured in very different ways, and the Directive reiterates that every step must align with national and international regulations. Clarity of roles thus becomes decisive. The internal legal team, in contact with the Ministry’s legal advisors, must periodically review the development and use of the technology, flagging at-risk areas or regulatory gaps. Final decisions will be made by higher levels, such as the TLB Executive Boards, which, in turn, send compliance declarations and risk reports to top-level figures such as the Second Permanent Under Secretary (2PUS) or the relevant ministers, if risk levels are deemed critical. AI Security and Testing in Defense: Toward Reliable Implementation One of the most detailed sections of the document concerns the process of creating, testing, and integrating AI solutions. It describes methodologies akin to DevOps and MLOps principles—workflows intended for the continuous refinement of algorithms. The official text stresses how Machine Learning models or Deep Learning techniques require suitable training and validation datasets, to avoid overfitting (when the algorithm learns the dataset too closely and loses its ability to generalize) or underfitting (when the algorithm fails to capture the complexity of the problem). There is also the risk of catastrophic forgetting, in which a model, upon being updated with new data, “forgets” previously acquired knowledge. The text reflects on a crucial point: every AI solution must be integrated into a broader system with specific security features, hardware configurations, and defined interfaces. If the surrounding components change substantially, it must be verified that the algorithm still functions correctly by re-running integration and validation tests. Verification concerns both code integrity and compliance with requirements as well as the management of vulnerabilities. In the military context, this need is particularly stringent, as a small error in data interpretation can have enormous consequences on the ground, jeopardizing missions or endangering human lives. Within this reflection on model robustness, the Directive reiterates the need to constantly monitor the operational environment in which the AI is deployed. The so-called Operating Design Domain thus becomes a fundamental criterion to define the model’s scope of validity and to understand when incoming data falls outside the expected range. If a system has been trained to operate in urban scenarios, it may not be suitable for electronic warfare in desert areas. Periodic updates of neural networks, based on new data, are essential but must be carried out through a quality process that does not compromise previously acquired performance. Also relevant here is the issue of data configuration, which must be protected from tampering and responsibly managed concerning provenance, as specified by the configuration policy defined by the Ministry of Defence. Key points regarding development connect to the importance of choosing performance metrics that best match military and security objectives. High accuracy in the lab may not translate into satisfactory accuracy in the field, especially if the training dataset does not reflect real conditions. Consequently, it is mandatory to protect test data and separate validation datasets to independently verify system performance. An integrated security approach is also required from the design stage to prevent poisoning attacks or modifications during the inference phase. The directive acknowledges that traditional methods are not always sufficient, especially in the rapidly evolving field of machine learning, and therefore recommends ongoing integration of risk analysis procedures throughout the entire lifecycle. An interesting perspective is offered on model reusability. The Directive specifies that in many contexts, it might be preferable to use an already trained model, modifying certain parts or retraining it on more specific datasets. In such circumstances, it is necessary to ensure the availability of transparent documentation on how the model was initially developed and verified, on any licensing constraints, and on the guarantees of compatibility with operational requirements. Here again, the supplier contracts play a role, clarifying who owns the algorithm, who holds the intellectual property for the data, and whether internal validation tests may be conducted. Only when these elements are in place can the same model be safely integrated into new systems or operational contexts. On the other hand, the contractual dimension also takes on an international profile, since collaboration with foreign industries and universities must consider export controls, potential restrictions, and the fact that in multinational cooperation scenarios (e.g., with NATO or other allied forces), the rules might vary. The Directive also suggests not overlooking the factor of obsolescence: software systems evolve rapidly, and today’s cutting-edge AI solutions may become outdated in a short span of time. It is crucial to plan updates and maintenance procedures that keep pace with emerging security threats and technological advancements, assessing how far a model can be extended or updated without risking negative impacts on performance. Risk Management, Security, and Accountability in Experimentation One of the core themes of JSP 936 pertains to risk management throughout the entire process of AI development and deployment. The classification system proposed suggests defining a level of risk based on impact and probability, identifying possible scenarios in which improper use or an algorithmic flaw could cause tangible harm. AI projects that exceed certain critical thresholds require extremely high-level oversight, undergoing review by bodies like the Joint Requirements Oversight Committee or the Investments Approvals Committee, and in extreme cases, even ministerial supervision. This is not mere bureaucracy, but a mechanism designed to ensure maximum alertness when activities with strong ethical or operational implications are involved. The text clarifies that security extends beyond protection from cyberattacks—though that is a core focus, given the growth of advanced hacking techniques and the possibility of manipulating training data to produce adverse effects. Security also includes the physical safety of scenarios where AI is employed in autonomous aerial, ground, or naval systems. In such cases, an algorithmic failure or a malfunction due to hostile electronic countermeasures could lead to dangerous maneuvering errors. That is why the Directive stresses rigorous testing procedures, simulated under realistic or near-real conditions, with the ability to quickly isolate the system in the event of abnormal behavior. Setting safety standards and coordinating with regulations such as Def Stan 00-055 and 00-056 are mandatory, as is adopting proven Safety Management Systems (JSP 815, JSP 375, and JSP 376). The theme of responsibility, linked to AI governance, involves multiple professional roles and spans the entire project lifecycle, from initial development to subsequent updates, including real-world mission operations. The suggested approach aims to avoid redundant structures while updating existing control processes to integrate AI-specific features. The top authorities intend for teams not to duplicate unnecessary procedures but to adapt protocols so they can recognize and manage the risks inherent in machine learning systems. A responsible approach also implies the awareness that AI is fallible and may have error margins that are not always predictable. In the context of Research & Development projects, the Directive emphasizes the need for controlled testing, preferably in safe environments, where any undesirable behavior can be studied and corrected. When research on human subjects is required to validate the effectiveness of certain algorithms (e.g., for the analysis of human-machine interactions), it must strictly adhere to the guidelines of JSP 536, addressing issues of safety and informed consent. Unintended effects on unaware individuals must be avoided, such as the use of sensitive personal data in contexts not clearly authorized. Also regarding experimentation, the Directive indicates the production of templates and support materials (model cards, ethical risk labels, AI assurance questionnaires) to assist personnel. The objective is to create a library of best practices so that various departments can share information on successful solutions, lessons learned and identified vulnerabilities. This exchange is deemed essential for interoperability with allies, both within and beyond NATO, because AI does not respect national borders and requires international cooperation to be effectively managed. In particular, the British Defense approach, consistent with NATO trends, is grounded in building AI that is transparent, analyzable, and aligned with shared democratic principles. Risk management is further strengthened by consideration of issues such as confidentiality, integrity, and availability of data (the classic pillars of cybersecurity). For a system trained with classified data, the Directive specifies that the resulting model inherits the same or even a higher level of classification if aggregating sensitive data creates a high-risk scenario. This entails an obligation to maintain strict control over information flows, with auditing procedures and a clear trace of data movement from the initial source through training to final deployment in the field. Human-AI Teaming in Defense: Integration and Innovation “JSP 936” devotes particular attention to the integration of humans and intelligent machines. This topic does not concern only drone pilots or soldiers using automatic targeting systems but extends to administrative and logistical sectors as well. Human-AI teaming is considered a hallmark of the ongoing digital transformation: operator and machine must work in synergy, leveraging their respective strengths. The human role remains crucial in ensuring meaningful control and intervening with the required flexibility, while the machine can quickly analyze complex data, offering scenarios and reducing operators’ cognitive load. However, for this collaboration to produce the desired outcomes, personnel training becomes indispensable. The document outlines the need to provide training not only in using new systems but also to develop a deep understanding of their vulnerabilities and the associated risks. If an operator places blind trust in the outcome of an image recognition system, for instance, they might miss false positives or false negatives in unforeseen conditions, with potentially disastrous consequences. The Directive recommends planning training programs that expose personnel to edge cases, anomalies, and typical AI model errors, providing clear guidelines on when and how to manually intervene. Human-centricity is fully evident in this context, too, as personnel are not merely cogs in a machine but are instead protagonists in the integration of Artificial Intelligence into Defense. In some operational scenarios, robots and autonomous systems must function without continuous oversight, but a central command should always be able to resume control at any time. This form of “meaningful control” is at the core of military ethics and satisfies specific legal requirements. The Directive thus stresses defining clear roles and specific responsibilities: who trains the AI, who evaluates it, who approves it, who monitors its performance in missions, and who manages emergencies. Each person involved should have the requisite training to fulfill their role, and where internal competencies fall short, collaboration with universities and specialized firms is encouraged to fill any knowledge gaps. The document illustrates that the challenge of operating across multiple domains—air, land, sea, space, and cyberspace—necessitates unified standards: an AI system controlling an autonomous ground vehicle might need to communicate with a naval platform or an observation satellite. From this perspective, human-AI teaming becomes a large-scale team effort where multiple algorithms operate in parallel and various groups of operators simultaneously interact with the technology. Complexity increases, as does the need for integrated testing procedures, joint simulation scenarios, and a regulatory framework that defines collective responsibilities. It is precisely in this integration that the British Defense sees an opportunity to maintain a military advantage, provided a trust-based ecosystem is created among Allies and sufficient guarantees of correct system behavior are offered. In its final chapters, “JSP 936” explicitly mentions the need to update personnel career paths so that AI is not viewed merely as a tool but as an integral part of a soldier’s or Defense official’s job. Achieving this cultural shift requires constant investment: from e-learning platforms to the creation of multidisciplinary analyst teams, from enhancing simulation laboratories to introducing specific security protocols for AI scenarios. Ultimately, the Directive promotes an organizational model capable of evolving at the same pace as technology, avoiding rigidity in frameworks that are no longer adequate for the contemporary context. Conclusions The information presented in “JSP 936 V1.1 Dependable Artificial Intelligence (AI) in Defence Part 1: Directive” provides a realistic and detailed picture of how Artificial Intelligence is entering the mechanisms of Defense, influencing operational choices, logistical processes, and ethical assessments. Security, robustness, and system transparency are no longer mere technical details; they are actual enablers of a potential competitive advantage on which armed forces are investing. From the current state of the art, it is clear that many similar technologies—ranging from large neural networks used by commercial enterprises to predictive analysis software in the financial sector—already offer comparable functionalities. The real challenge lies in the specific integration of these tools into operational theaters, alongside the strict legal accountability standards required by both national and international defense. A key factor lies in ensuring ongoing dialogue between scientific research and the military domain, promoting opportunities for reflection that allow for predicting and understanding the future impacts of algorithms. Often, those who develop a Deep Learning model do not fully realize the operational complexities of a battlefield, just as those who plan missions may be unfamiliar with the potential pitfalls of a partially trained model. Hence the necessity for permanent interfaces between areas of expertise to ensure that solutions, while ambitious, do not exceed acceptable risk levels. In an increasingly rich landscape of AI solutions—from open-source platforms to offerings by major multinationals—Defense must evaluate how external systems can be integrated into proprietary architectures. The interoperability question, especially in international alliances and with NATO, goes far beyond choosing file formats. It concerns ensuring that ethical principles, testing methodologies, and security standards are aligned, so as to build mutual trust and a solid framework for information sharing. Comparing with competing or parallel technologies, developed in other countries or the private sector, provides an opportunity for continuous improvement, provided one remains firmly rooted in reliability and transparency criteria. The need for strict protocols, detailed risk analysis, and continuous ethical oversight makes the sector of Artificial Intelligence in Defense a laboratory for ideas where synergy between industry and military institutions can produce solid innovations. In practical terms, this means exploring business models in which public-private collaboration goes beyond the mere supply of technological solutions, fostering an ongoing exchange of legal, scientific, and operational competencies. “JSP 936” is not just a rulebook but an incentive to understand how far Artificial Intelligence can go without losing sight of democratic values and collective security. While the rapid pace of technological evolution encourages the experimental adoption of increasingly complex systems, it also calls for calm reflection on strategic impacts and on the possibility that, in the near future, models may become even more capable of learning and adapting. Ultimately, the effectiveness of these tools will hinge on organizations’ abilities to anticipate and govern ethical and operational implications, as well as to train personnel for critical and informed use, striving for a balance that enables them to reap the benefits without subjecting defense structures to unnecessary risks. The key message is that the real strength of Artificial Intelligence lies in the collaboration between humans and machines, provided it is supported by solid processes and an ever-updated ethical and regulatory vision. Podcast: https://spotifycreators-web.app.link/e/O7DX382BEPb Source:   https://assets.publishing.service.gov.uk/media/6735fc89f6920bfb5abc7b62/JSP936_Part1.pdf

  • Intelligenza Artificiale nella Difesa: dinamiche, sfide e prospettive

    “ JSP 936 V1.1 Dependable Artificial Intelligence (AI) in Defence Part 1: Directive ” è il titolo della più recente direttiva per la Difesa sviluppata da Alison Stevenson (Director General Delivery & Strategy, Ministry of Defence)  insieme a Defence AI and Autonomy Unit (DAU) e Defence AI Centre (DAIC) , in collaborazione con il Ministero della Difesa del Regno Unito . Il documento si concentra sull’implementazione dell’Intelligenza Artificiale in ambito militare, puntando a un uso sicuro e responsabile  delle nuove tecnologie. L’obiettivo principale è fornire direttive chiare su come sviluppare algoritmi e modelli d’avanguardia, garantendo trasparenza, adeguatezza normativa ed etica. Intelligenza Artificiale nella Difesa: dinamiche, sfide e prospettive L’Intelligenza Artificiale nella Difesa globale: opportunità e responsabilità La direttiva inquadra l’Intelligenza Artificiale nella Difesa del Regno Unito come elemento trasversale, destinato a permeare ogni aspetto dell’apparato militare contemporaneo. Le basi teoriche del documento suggeriscono che adottare forme di AI in diversi segmenti della Difesa  – dalla logistica fino al supporto decisionale in ambienti operativi complessi – può favorire un incremento dell’efficacia e della rapidità di azione. Al contempo, viene esplicitamente sottolineato che l’ampia diffusione della tecnologia va bilanciata con un livello elevato di controllo e responsabilità, in modo da proteggere non solo gli operatori, ma anche la popolazione civile e l’integrità dei sistemi stessi. L’importanza di una visione strategica dell’AI deriva anche dalle esperienze maturate negli ultimi anni. L’evoluzione dell’AI evidenzia con chiarezza la velocità di sviluppo raggiunta dagli algoritmi di Machine Learning e Deep Learning, soprattutto in aree quali la computer vision e l’elaborazione del linguaggio naturale. D’altro canto, la Difesa ha compreso che le possibilità offerte dall’AI non si limitano alle capacità di calcolo, ma si estendono all’intero scenario di sicurezza internazionale, tenendo conto delle potenziali vulnerabilità aperte da tecniche di attacco informatico mirate, come l’avvelenamento dei dati o la manipolazione di modelli addestrati su dataset non affidabili. Proprio per questo, il documento sottolinea il concetto di contesto operativo (Operating Design Domain, ODD) , ovvero l’insieme di condizioni, requisiti e vincoli in cui un determinato sistema AI dovrebbe operare. Definire con precisione l’ambito di utilizzo di un algoritmo o di un modello non è soltanto un esercizio tecnico, ma diventa la base per comprendere i rischi e pianificare le adeguate misure di protezione. Se un sistema di riconoscimento e tracciamento automatico di veicoli o persone viene addestrato in ambienti semplificati, potrebbe fallire in contesti ostili o molto diversi dal dataset di riferimento, generando decisioni errate che mettono a repentaglio la sicurezza del personale. La sezione iniziale del documento insiste sull’importanza di non vedere il fattore etico e normativo come un freno all’innovazione, bensì come una leva per consolidare la fiducia di tutte le parti in causa, dal singolo operatore al Parlamento e all’opinione pubblica. Inquadrare l’AI in un perimetro di responsabilità definita  – in cui si chiarisce chi controlla l’algoritmo, chi risponde dei risultati e come sono strutturati i processi di revisione – rende possibile un’adozione più ampia e soprattutto sostenibile nel lungo periodo. La presenza di una supervisione umana attiva, con meccanismi di tracciamento e auditing, rappresenta una delle condizioni chiave per mantenere salda la cosiddetta human-centricity  espressa dalla Direttiva. È esattamente questo uno dei punti su cui si concentra il quadro metodologico: i principi ASR (Ambitious, Safe, Responsible) puntano a gestire con equilibrio l’adozione di strumenti che potranno avere un impatto marcato sulle decisioni operative. In parallelo, la rilevanza strategica dell’AI si estende anche ad aspetti più di retrovia, ma non per questo meno cruciali, quali l’analisi di grandi volumi di dati per la manutenzione predittiva di sistemi d’arma o di flotte logistiche, e la riduzione dei tempi di risposta in procedure amministrative di back-office. L’AI, se opportunamente addestrata e inserita in architetture affidabili, può accelerare il flusso di informazioni essenziali e alleggerire il personale da compiti più ripetitivi, lasciando spazio a mansioni di pianificazione strategica o supervisione. Il pericolo, però, risiede in eventuali errori di interpretazione dei dati o in eccessiva fiducia nell’algoritmo quando le condizioni reali differiscono dallo scenario di addestramento. Da qui discende la necessità di un monitoraggio continuo della performance dei modelli, sia prima del rilascio sia durante l’impiego sul campo, grazie a procedure di test e verifica pensate in modo da tenere conto di eventuali mutamenti nel panorama operativo. L’analisi strategica del documento evidenzia inoltre l’esigenza di mantenere un approccio multidisciplinare , con competenze legali, tecniche e operative che cooperino in tutte le fasi del ciclo di vita dell’AI. Questo coinvolgimento deve cominciare in fase embrionale, quando si stabiliscono i requisiti funzionali e si avvia la raccolta dati, e proseguire durante lo sviluppo, l’integrazione e la valutazione dell’affidabilità. Non è raro che progetti di difesa facciano uso di soluzioni open source o di software commerciali, e in ogni caso è cruciale esigere dai fornitori esterni un livello di certificazione adeguato, per evitare che manchino evidenze solide sui dati e sui processi di test. Il Ministero della Difesa britannico, a tal proposito, rimarca la necessità di garanzie contrattuali che consentano di effettuare tutte le verifiche del caso, incluse quelle sulla provenienza del dataset . AI affidabile nella Difesa: principi etici e normativi Il documento evidenzia con chiarezza che l’Intelligenza Artificiale non va trattata come un semplice supporto digitale, bensì come una tecnologia destinata a dialogare con processi decisionali vitali. Da qui deriva la centralità di riferimenti normativi e principi etici, poiché qualsiasi sistema AI deve conformarsi alle leggi e alle convenzioni internazionali , in particolare nel quadro del Diritto Internazionale Umanitario. Negli usi di difesa, ciò implica uno studio approfondito delle norme relative all’impiego della forza, alla tutela dei diritti umani e all’accountability dei vertici militari. La “JSP 936” mette dunque in guardia i tecnici e i responsabili di progetto dai rischi di un’eventuale mancanza di supervisione legale: si rischierebbe di cadere in violazioni di cui l’intero ente militare dovrebbe poi rispondere, con ricadute gravissime in termini di credibilità e responsabilità politica. L’approccio codificato nei cinque principi ASR – human-centricity, responsibility, understanding, bias and harm mitigation, reliability  – suggerisce che ogni azione debba essere valutata in un’ottica di impatto potenzialmente ampio, perché le soluzioni AI hanno una vocazione adattiva: un modello addestrato su specifici dataset può mutare prestazioni e risultati se esposto a nuove condizioni o set di dati alternativi. Il principio della human-centricity ribadisce l’esigenza di mantenere la persona (operatore, analista, cittadino) al centro della filiera decisionale, sia prevenendo possibili danni alle comunità civili sia garantendo l’adeguatezza delle scelte che si compiono in ambito operativo. Responsibility  significa poi definire, senza ambiguità, chi risponde delle azioni del sistema AI in fase di sviluppo, addestramento, impiego operativo e manutenzione continua. Il documento inserisce figure di riferimento, come il Responsible AI Senior Officer (RAISO), concepite per accertarsi che non si creino zone grigie dove l’algoritmo agisce senza controllo umano. In questo scenario, anche la comprensione (understanding) diventa un fattore chiave: se un team non sa spiegare i criteri di base con cui un determinato modello genera output e non è in grado di comprendere i limiti dei dati di addestramento, vengono meno le premesse stesse di un uso intelligente e consapevole dell’AI. Non basta implementare meccanismi di machine learning e sperare che diano risultati affidabili: occorre strutturare una documentazione articolata, condurre test di validazione e rendere comprensibili, per gli utenti finali, gli esiti dell’elaborazione, almeno a un livello sufficiente a guidare la fiducia o la cautela necessaria. L’analisi della bias and harm mitigation  porta all’attenzione il problema della discriminazione e dei potenziali effetti indesiderati. Un algoritmo di riconoscimento facciale, ad esempio, potrebbe avere tassi di errore più elevati su determinate fasce di popolazione se addestrato con dataset non bilanciati. In un contesto di Difesa, la discriminazione indebita o la sottovalutazione di determinati profili di rischio potrebbe dar luogo a operazioni non conformi ai principi di proporzionalità e di protezione dei civili. Per questo, la fase di raccolta dati va curata in maniera rigorosa, certificando l’origine delle informazioni, la loro qualità e la pertinenza rispetto agli scenari previsti. Lo stesso discorso vale per la gestione in sicurezza dei dati e dei modelli, poiché eventuali vulnerabilità informatiche rischiano di compromettere l’intero sistema, spalancando le porte a manipolazioni o furti di informazioni sensibili. Altro aspetto rilevante è quello della reliability , la necessità di garantire che il sistema AI operi in modo robusto, sicuro e rispondente alle richieste anche in circostanze avverse. La Difesa richiama le procedure di verifica e convalida  tipiche del software, che vanno però ampliate con test su larga scala e revisioni continue, perché gli algoritmi di apprendimento potrebbero degradare nel tempo o risultare imprevedibili in condizioni estreme. Viene proposto un approccio di sicurezza by design, integrando valutazioni e meccanismi di sicurezza fin dall’inizio, insieme a un monitoraggio costante in scenari reali. Questo richiamo assume ancora maggior peso nel caso dei sistemi di Robotic and Autonomous Systems (RAS), dove l’intervento umano può essere limitato, e un malfunzionamento algoritmico rischia di condurre a errori in teatri di operazione critici. Nella parte legale ed etica del documento si sottolinea che la compliance non è semplicemente legata a ciò che la tecnologia fa, ma a come viene implementata e gestita. È in questo “come” che si manifestano potenziali violazioni o ottemperanze: la stessa AI potrebbe essere impiegata o impostata in modi molto differenti, e la Direttiva ribadisce che ogni passaggio deve essere in linea con le normative nazionali e internazionali. La chiarezza di ruoli si rivela allora decisiva. Il team legale interno, in contatto con i riferimenti giuridici del Ministero, deve esaminare periodicamente lo sviluppo e l’impiego della tecnologia, segnalando zone a rischio o lacune normative. Le decisioni finali spetteranno a livelli superiori, come i TLB Executive Boards, che a loro volta invieranno dichiarazioni di conformità e report di rischio a figure di vertice quali il 2PUS (Second Permanent Under Secretary) o i ministri competenti, se il livello di rischio si attesta su soglie critiche. Sicurezza e test dell’AI nella Difesa: verso un'implementazione affidabile Uno dei punti più dettagliati del documento riguarda il processo di creazione, test e integrazione delle soluzioni AI. Vengono descritte metodologie che richiamano i princìpi DevOps e MLOps, ossia flussi di lavoro pensati per un continuo perfezionamento degli algoritmi. Il testo ufficiale pone l’accento su come modelli di Machine Learning o tecniche di Deep Learning abbiano bisogno di set di dati di addestramento e validazione adeguati, per evitare fenomeni di overfitting (quando l’algoritmo impara troppo fedelmente il dataset perdendo capacità di generalizzazione) o underfitting (quando l’algoritmo non riesce a cogliere la complessità del problema). Esiste poi il rischio di catastrofic forgetting, dove un modello, aggiornandosi con dati nuovi, “dimentica” competenze precedentemente acquisite. Il testo riflette su un aspetto cruciale: ogni soluzione AI va integrata in un sistema più ampio , con precise caratteristiche di sicurezza, configurazioni hardware e interfacce definite. Se i componenti circostanti cambiano in modo sostanziale, ci si deve accertare che l’algoritmo continui a funzionare correttamente, ripetendo test di integrazione e validazione. La verifica  riguarda sia la bontà del codice, sia la rispondenza ai requisiti e la gestione delle vulnerabilità. Nel contesto militare, questa esigenza si fa particolarmente stringente, poiché un piccolo errore di interpretazione dei dati può generare conseguenze enormi sul campo, compromettendo missioni o mettendo in pericolo vite umane. All’interno di questa riflessione sulla robustezza dei modelli, la Direttiva ribadisce la necessità di monitorare con costanza l’ ambiente operativo  in cui l’AI è schierata. Il cosiddetto Operating Design Domain diventa così un criterio fondamentale per definire i confini di validità del modello e capire quando i dati in arrivo esulano dalla casistica prevista. Se un sistema fosse addestrato per operare in scenari urbani, potrebbe non essere adatto a situazioni di guerra elettronica in aree desertiche. L’ aggiornamento periodico  delle reti neurali, sulla base di nuovi dati, diventa essenziale, ma dev’essere effettuato con un processo di qualità che non infici prestazioni già acquisite. Rientra qui anche la questione della configurazione dei dati, che devono essere protetti da manomissioni e adeguatamente gestiti in termini di provenienza, come specificato dalla politica di configurazione definita dal Ministero della Difesa. I punti salienti relativi allo sviluppo si collegano all’importanza di scegliere le metriche di performance  che più si adattano all’obiettivo militare e di sicurezza. Una precisione elevata in laboratorio potrebbe non tradursi in accuratezza soddisfacente in un’operazione sul campo, specie se il dataset di addestramento non riflette condizioni reali. Da qui emerge l’obbligo di salvaguardare dati di test e set di dati di verifica separati, per controllare in maniera indipendente la performance del sistema. È inoltre richiesto un approccio alla sicurezza integrato fin dalla fase di design, per prevenire attacchi di avvelenamento del dataset (poisoning) o alterazioni in fase di inferenza. La direttiva riconosce che le metodologie tradizionali non sempre risultano sufficienti, soprattutto in un campo in rapida evoluzione come l’apprendimento automatico, per cui si auspica un’integrazione continua delle procedure di analisi del rischio lungo l’intero ciclo di vita. Interessante è la prospettiva dedicata alla riutilizzabilità dei modelli. La Direttiva specifica che in molti contesti si potrebbe preferire un modello già addestrato, modificando alcune parti o riaddestrandolo su dataset più specifici. In tali circostanze, occorre assicurarsi di avere documentazione trasparente su come il modello è stato inizialmente sviluppato e verificato, sugli eventuali vincoli di licenza e sulle garanzie di compatibilità con i requisiti operativi. Ritorna quindi il ruolo dei contratti di fornitura con soggetti esterni, che devono chiarire la titolarità dell’algoritmo, la proprietà intellettuale dei dati e la possibilità di effettuare test interni di validazione. Solo in presenza di questi elementi, si potrà procedere in sicurezza a integrare lo stesso modello in nuovi sistemi o contesti operativi. D’altro canto, la dimensione contrattuale assume anche un profilo internazionale, visto che la collaborazione con industrie e Università straniere deve tenere conto dei controlli all’esportazione , di possibili regimi di restrizione e del fatto che in scenari di cooperazione con alleati come la NATO o altre forze multinazionali, i set di regole potrebbero variare. La Direttiva suggerisce poi di non trascurare il fattore obsolescenza : i sistemi software evolvono rapidamente, e le soluzioni di AI che oggi appaiono all’avanguardia potrebbero rivelarsi superate in tempi brevi. È fondamentale pianificare aggiornamenti e procedure di manutenzione che tengano il passo con le minacce di sicurezza emergenti e con i progressi tecnologici, valutando in che misura un modello possa essere esteso o aggiornato senza rischiare alterazioni negative delle prestazioni. Gestione del rischio, sicurezza e responsabilità nella sperimentazione Uno dei punti centrali della JSP 936 riguarda la gestione del rischio in tutte le fasi di sviluppo e impiego dell’AI. Il sistema di classificazione proposto suggerisce di definire un livello di rischio in base a impatto e probabilità, identificando possibili scenari in cui un uso improprio o una falla nell’algoritmo potrebbero generare danni concreti. I progetti di AI che superano determinate soglie di criticità richiedono un’attenzione gerarchica molto elevata, passando per la valutazione da parte del Joint Requirements Oversight Committee o dell’Investments Approvals Committee, e in casi estremi persino la supervisione ministeriale. Non si tratta di mera burocrazia, ma di un meccanismo pensato per assicurare la massima allerta quando sono in gioco attività con forti implicazioni etiche o operative. Il testo puntualizza che la sicurezza non si limita alla protezione da attacchi informatici, benché sia un aspetto focale vista la crescita di tecniche di hacking avanzato e la possibilità di manipolare i dati di addestramento per generare effetti avversi. La sicurezza comprende anche la tutela dell’incolumità fisica  negli scenari in cui l’AI viene utilizzata a bordo di sistemi aeronautici, terrestri o navali autonomi. In tali situazioni, un guasto dell’algoritmo, oppure un malfunzionamento dovuto a contromisure elettroniche ostili, potrebbe determinare errori di manovra pericolosi. Ecco perché la Direttiva insiste su procedure di test molto rigorose, simulate in condizioni operative realistiche o quasi reali, con la possibilità di isolare rapidamente il sistema in caso di comportamento anomalo. È chiaro che la definizione di standard di sicurezza e il coordinamento con normative quali le Def Stan 00-055 e 00-056 diventano obbligatori, così come il ricorso a Safety Management Systems collaudati (JSP 815, JSP 375 e JSP 376). Il tema della responsabilità, correlato al concetto di governance dell’AI, coinvolge diversi ruoli professionali e copre l’intero arco di vita del progetto, dallo sviluppo iniziale ai successivi aggiornamenti, passando per l’esecuzione concreta in missione. L’ottica suggerita è di evitare strutture ridondanti, ma di aggiornare i processi di controllo già esistenti  in modo che integrino le peculiarità dell’AI. Le autorità di vertice vogliono fare in modo che le squadre non si ritrovino a duplicare procedure inutili, ma piuttosto adattino i protocolli, rendendoli capaci di riconoscere e gestire i rischi tipici dei sistemi di apprendimento automatico. Un approccio responsabile comprende anche la consapevolezza che l’AI non è infallibile e può avere margini d’errore non sempre prevedibili. Nel contesto delle sperimentazioni (progetti Research & Development), la Direttiva enfatizza la necessità di condurre test controllati, preferibilmente in ambienti sicuri, dove eventuali comportamenti indesiderati possano essere studiati e corretti. La ricerca su esseri umani , se necessaria per validare l’efficacia di certi algoritmi (ad esempio, per l’analisi delle interazioni uomo-macchina), deve rispettare scrupolosamente le linee guida di JSP 536, in cui si affrontano i temi di sicurezza e consenso informato dei partecipanti. Soprattutto, occorre evitare effetti indesiderati su individui ignari, come l’uso di dati personali sensibili in contesti non chiaramente autorizzati. Sempre sul fronte sperimentale, la Direttiva indica la produzione di template e materiali di supporto (model card, etichette di rischio etico, questionari di AI assurance) che dovrebbero agevolare il personale. L’obiettivo è creare una biblioteca di buone pratiche, per permettere ai vari reparti di scambiarsi informazioni su soluzioni di successo, lezioni apprese e vulnerabilità individuate. Questa condivisione è considerata fondamentale anche nell’ottica dell’ interoperabilità  con gli alleati, dentro e fuori la NATO, perché l’AI non rispetta confini nazionali e richiede una collaborazione a livello internazionale per essere gestita con efficacia. In particolare, la linea di pensiero della Difesa britannica, in consonanza con le tendenze NATO, si fonda sulla costruzione di un’AI che risulti trasparente, analizzabile e coerente con i principi democratici condivisi. La gestione del rischio viene ulteriormente rafforzata dal richiamo a questioni come la confidenzialità, l’integrità e la disponibilità dei dati (i classici pillar di sicurezza cibernetica). Per un sistema addestrato con dati classificati, la Direttiva specifica che il modello prodotto assume lo stesso livello di classificazione o persino un livello più alto, se l’aggregazione di dati sensibili genera uno scenario di rischio elevato. Da ciò discende l’obbligo di tenere sotto stretto controllo ogni passaggio di informazioni, con procedure di auditing e tracciamento chiaro del flusso di dati dall’origine alla fase di addestramento e poi al rilascio sul campo. Human-AI Teaming nella Difesa: integrazione e innovazione Il documento “JSP 936” affronta con particolare cura il tema dell’integrazione fra esseri umani e macchine intelligenti. È un argomento che non coinvolge solo i piloti di droni o i soldati che impiegano sistemi di puntamento automatico, ma si estende anche ai settori amministrativi e logistici. L’ human-AI teaming  è considerato un tratto distintivo della trasformazione digitale in atto: operatore e macchina devono operare in sinergia, facendo leva sui rispettivi punti di forza. Il ruolo umano resta cruciale per assicurare un controllo significativo e per intervenire con la necessaria flessibilità, mentre la macchina può fornire analisi rapide di dati complessi, suggerendo scenari e riducendo la fatica cognitiva dell’operatore. Tuttavia, perché questa collaborazione produca i risultati attesi, la formazione  del personale diventa un requisito imprescindibile. Il documento descrive la necessità di erogare training non soltanto per istruire all’uso dei nuovi sistemi, ma anche per sviluppare una comprensione approfondita dei loro punti deboli e dei rischi associati. Se un operatore credesse ciecamente all’esito di un sistema di riconoscimento di immagini, potrebbe non notare falsi positivi o falsi negativi in condizioni impreviste, con conseguenze disastrose. La Direttiva raccomanda di pianificare programmi di addestramento che mostrino al personale casi limite, situazioni anomale ed esempi di errore tipici dei modelli AI, fornendo indicazioni chiare su quando e come intervenire manualmente. Il concetto di human-centricity si rivela pienamente anche qui, poiché il personale non è soltanto un ingranaggio della catena, ma un protagonista nell’integrazione dell’ Intelligenza Artificiale nella Difesa . In alcuni scenari operativi, i robot e i sistemi autonomi devono potersi muovere senza intervento continuo, ma ciò non toglie che un comando centrale debba essere in grado di riprendere il controllo in qualunque momento. Questa forma di “controllo significativo” è alla base dell’etica militare e risponde a specifici requisiti legali. La Direttiva insiste quindi sulla definizione di ruoli chiari e competenze specifiche: chi addestra l’AI, chi la testa, chi l’approva, chi ne monitora le prestazioni durante le missioni e chi gestisce le eventuali emergenze. Ogni persona coinvolta dovrebbe avere una formazione adeguata a ricoprire il proprio ruolo e, dove le competenze interne non bastano, si auspica il ricorso ad accordi di collaborazione con università e imprese specializzate, così da colmare i gap di conoscenza. Il documento illustra che la sfida del multidominio  – aria, terra, mare, spazio e cyberspazio – comporta l’esigenza di standard unificati: un sistema AI che controlla un veicolo autonomo terrestre potrebbe dover operare in rete con una piattaforma navale o con un satellite di osservazione. L’uman-AI teaming, in quest’ottica, diventa un lavoro di squadra esteso, dove più algoritmi operano in parallelo e diversi gruppi di operatori interagiscono simultaneamente con la tecnologia. La complessità cresce, e con essa la necessità di procedure di test integrate, scenari di simulazione congiunti e un quadro normativo che definisca responsabilità comuni. È proprio in questa integrazione che la Difesa britannica vede la possibilità di manutenere un vantaggio militare , purché si crei un ecosistema di fiducia tra gli Alleati e si offrano sufficienti garanzie di comportamento corretto dei sistemi. Nei capitoli finali, la JSP 936 menziona esplicitamente il bisogno di aggiornare le carriere del personale affinché l’AI non venga vista come mero strumento, ma come parte integrante del mestiere del soldato e del funzionario di Difesa. Questa trasformazione culturale esige un investimento costante: dalle piattaforme di e-learning alla creazione di gruppi multidisciplinari di analisti, dal potenziamento dei laboratori di simulazione all’introduzione di protocolli di sicurezza specifici per scenari di intelligence artificiale. In definitiva, la Direttiva promuove un modello di organizzazione che sappia evolvere con la stessa rapidità con cui la tecnologia si trasforma, evitando di irrigidirsi in schemi non più adeguati al contesto contemporaneo. Conclusioni Le informazioni emerse dal documento “JSP 936 V1.1 Dependable Artificial Intelligence (AI) in Defence Part 1: Directive” tracciano un quadro realistico e articolato di come l’Intelligenza Artificiale si stia insinuando nei meccanismi della Difesa, influenzando scelte operative, processi logistici e valutazioni etiche. La sicurezza, la robustezza e la trasparenza dei sistemi non rappresentano più dettagli tecnici, ma veri fattori abilitanti di un potenziale vantaggio competitivo su cui le forze armate stanno investendo. Se ci si limita a osservare lo stato dell’arte, è evidente che numerose tecnologie similari – dalle grandi reti neurali usate nelle aziende commerciali fino ai software di analisi predittiva in ambito finanziario – offrono già funzionalità paragonabili. Il vero nodo sta nella specifica integrazione di questi strumenti con le esigenze dei teatri di operazione e con i rigorosi standard di responsabilità giuridica che la difesa nazionale e internazionale richiedono. Un elemento fondamentale consiste nel garantire un dialogo continuo tra la ricerca scientifica e l'ambito militare, promuovendo momenti di riflessione che permettano di prevedere e comprendere gli impatti futuri degli algoritmi. Non sempre chi sviluppa un modello di Deep Learning ha la piena consapevolezza delle complessità operative di un campo di battaglia, né chi pianifica missioni ha familiarità con le potenziali derive di un modello addestrato in modo parziale. Da ciò scaturisce la necessità di interfacce permanenti tra le competenze, per garantire che le soluzioni, pur essendo ambiziose, non superino il limite di tolleranza al rischio. In un panorama sempre più ricco di soluzioni di AI, dalle piattaforme open source alle proposte di grandi multinazionali, la Difesa è chiamata a valutare in che misura sistemi esterni possano essere integrati in architetture proprietarie. La questione dell’interoperabilità, soprattutto in alleanze internazionali e con la NATO, va ben oltre la scelta dei formati di file. Riguarda la garanzia che i principi etici, le metodologie di test e i livelli di sicurezza siano allineati, così da costruire un rapporto di fiducia reciproca  e una solidale condivisione di informazioni. Il confronto con tecnologie concorrenti o parallele, che agiscono in altri Paesi o nel settore privato, fornisce l’occasione di cogliere spunti di miglioramento continuo, purché si rimanga ancorati a criteri di affidabilità e trasparenza. La necessità di protocolli severi, di un’analisi del rischio dettagliata e di un monitoraggio etico costante rende il settore dell’ Intelligenza Artificiale nella Difesa  un laboratorio di idee in cui la sinergia tra industria e istituzioni militari può produrre innovazioni di grande solidità. Sotto il profilo pratico, significa studiare modelli di business in cui la collaborazione pubblico-privato non si limita alla fornitura di soluzioni tecnologiche, ma include un continuo interscambio di competenze legali, scientifiche e operative. La “JSP 936” non è soltanto un manuale di regole, ma uno stimolo a capire fin dove l’Intelligenza Artificiale possa spingersi senza perdere di vista i valori democratici e la sicurezza collettiva. Se da un lato la velocità di evoluzione tecnologica spinge verso l’adozione sperimentale di sistemi sempre più complessi, dall’altro è indispensabile una riflessione pacata sugli impatti strategici e sull’eventualità che i modelli, in un futuro prossimo, diventino ancor più capaci di apprendere e adattarsi. In conclusione, l’efficacia di questi strumenti si giocherà sulla capacità delle organizzazioni di prevedere e governare le implicazioni etiche e operative, nonché di formare il personale a un uso critico e consapevole, ricercando un equilibrio che consenta di cogliere i benefici senza esporre le strutture di difesa a rischi immotivati. Il messaggio chiave è che la vera forza dell’Intelligenza Artificiale risiede nella collaborazione tra uomini e macchine, purché sostenuta da processi solidi e da una visione etica e normativa sempre aggiornata.   Podcast: https://spotifycreators-web.app.link/e/mWiY692BEPb Fonte: https://assets.publishing.service.gov.uk/media/6735fc89f6920bfb5abc7b62/JSP936_Part1.pdf

  • Generative Artificial Intelligence: evolution, techniques, and strategies for businesses

    Artificial Intelligence has become a widely discussed topic, both due to the momentum coming from technological and market sectors and for the fascination it holds for the public. The current focus on Artificial Intelligence is not only due to the performance achieved by modern algorithms, but also to the growing possibilities offered by data processing and the specialized architectures now available. The goal of this contribution is to highlight some fundamental steps and delve into the methods and technologies that have made AI a key field for companies, managers, and citizens, showing how research has met the demand for concrete solutions. Generative Artificial Intelligence: evolution, techniques, and strategies for businesses The role of data in artificial intelligence and specialized models The increasingly widespread adoption of AI systems is closely tied to the availability of large quantities of data and processing techniques able to leverage them. For a long time, artificial intelligence remained a niche discipline entrusted to a few research labs, drawn to what was considered an abstract and complex subject. However, three factors converged to encourage its diffusion: the rise in computing power, the availability of cloud infrastructures, and the maturity of computational models. For a company seeking to integrate AI algorithms, it is crucial to have relevant datasets in a structured format and of sufficient quality, so that networks can be trained to carry out tasks that are useful for the business. Traditional machine learning techniques, such as regression methods, have progressively shown limitations in effectively handling complex data from heterogeneous sources. This has sparked interest in approaches that offer greater flexibility and performance, with particular attention to so-called deep neural networks. However, there is a risk of creating excessive expectations, sometimes fueled by scenarios inspired by science fiction. A more measured view points out that many of today’s AI technologies are based on fairly specialized procedures, referred to as narrow AI, which are valid for narrowly defined tasks without possessing a general understanding comparable to that of humans. Alan Turing was among the first to envision the possibility of machines capable of emulating our intelligence. His question about computational thinking inspired decades of research, culminating in a series of tests aimed at verifying whether a computer can imitate a human in a textual dialogue. The theoretical foundations that Turing laid still influence today’s practical orientation and the need to empirically verify network performance. In competitive sectors, AI becomes a decisive tool, especially when companies possess huge data reserves; in these cases, the concept of AI-ready takes shape, referring to organizations with the resources and skills to fully exploit models based on neural networks and advanced algorithms. For many businesses, the challenge is no longer just acquiring algorithms, but building an ecosystem where AI becomes part of day-to-day operations, with processes and staff who understand the value of the generated results. Moving from prototypes to effective solutions requires integrating models with scalable software architectures and data update pipelines. If companies move beyond the exploratory phase, the possibility of gaining a competitive edge becomes real, because a well-designed AI system reduces decision-making times and improves the quality of analysis.   Deep Learning and innovations in neural networks Early neural networks were characterized by a few layers with simple connections. Their evolution has followed a path marked by early enthusiasm, phases of skepticism, and subsequently the refinement of more complex models capable of tackling problems once considered unsolvable. As computational power increased—enabled especially by the introduction of GPUs—these networks gained greater depth, maintaining a layered structure but reaching millions of parameters. This advancement is known as Deep Learning. Deep Learning combines data matrices with convolutional steps, recurrent connections, and nonlinear activation functions. In specific areas, such as image classification, the growing complexity of layers has led to surpassing human precision, as demonstrated by results on reference datasets. Training these systems involves optimization algorithms, including Gradient Descent and its variants, such as Adam and Adadelta. These are combined with techniques like backpropagation, which enables the systematic updating of weights during the learning process. The integration of deep neural networks with cloud resources has created a synergy that fosters rapid, large-scale experimentation. Widely used software libraries such as TensorFlow and PyTorch offer intuitive interfaces for parallel computing, along with visualization and diagnostic tools, simplifying the adoption of Deep Learning in practical applications. Thanks to these platforms, developers can test complex models without manually implementing the fundamental calculations. Moreover, preconfigured environments like Docker containers reduce technical hurdles during prototyping, making access to these technologies more immediate. The growth in research projects and information sharing via online platforms has accelerated the adoption of methodologies and frameworks. Companies that previously viewed artificial intelligence with skepticism now explore its potential in fields such as speech recognition, the analysis of medical images, and route optimization in transportation. However, a Deep Learning system’s ability to generalize largely depends on the quality of its training set. Having large volumes of data is not enough: it is vital to ensure that this data is both high-quality and representative, in order to achieve reliable and robust performance.   Advanced applications: CNN and RNN Within Deep Learning, two architectures have proven highly effective in very different areas. Convolutional Neural Networks (CNN) are based on the concept of convolution, used to systematically extract spatial features from images or signals. Each filter scans the data searching for local patterns, which are subsequently processed by additional layers. Through pooling operations, models reduce the dimensionality of the input, focusing on the most relevant information. Generally, a CNN ends with fully connected layers, used to classify the objects recognized. Models of this type, trained on sets of images, have even surpassed human capabilities in classifying certain test datasets. CNNs also find significant applications in the automotive sector, where they are integrated into self-driving systems to detect obstacles. In a different context, many natural language processing techniques use convolutional networks, since specific word combinations can be analyzed in sequence, similarly to fragments of an image. Recurrent Neural Networks (RNN), along with variants like LSTM (Long Short-Term Memory) and GRU (Gated Recurrent Unit), are designed to interpret sequential data. Unlike feedforward networks, recurrent neurons retain a trace of previously processed information, so that the output at each step is influenced by preceding results. These models are essential for applications like machine translation and sentiment analysis. Through gating mechanisms, RNNs manage long-term temporal relationships, analyzing text or audio signals that require complex temporal processing. Combinations of CNN and RNN have also been developed, particularly for the automatic creation of visual descriptions. In this case, the CNN handles image analysis, while the RNN generates the corresponding descriptive sentences.   Fuzzy Systems: An interpretable approach to artificial intelligence Deep neural networks are highly effective at processing complex data and learning complex patterns, but their opaque structure makes it difficult to understand how they work. In contrast, fuzzy systems offer a different method, based on fuzzy logic, which allows for representing and managing ambiguous and imprecise concepts, emulating human reasoning in a more natural way. Introduced by Lotfi Zadeh in the 1960s, fuzzy logic extends classical Boolean logic—which only allows for "true" or "false" values—by permitting intermediate degrees of truth represented by values between 0 and 1. This makes it possible to model the uncertainty and ambiguity intrinsic to natural language and to many real-world problems. A fuzzy system is based on rules of the form “IF THEN ,” where conditions and consequences are expressed using linguistic variables and fuzzy sets. For instance, one rule might be formulated as “IF the temperature is HIGH THEN the fan speed is ELEVATED.” Fuzzy sets, in turn, represent linguistic concepts such as “hot,” “cold,” “high,” “low,” through membership functions. These functions associate each element of a reference universe with a degree of membership in the set, ranging from 0 (no membership) to 1 (full membership). At the heart of a fuzzy system lies the inference engine, which uses rules and fuzzy sets to derive conclusions from numerical or linguistic input. To connect the numerical world with the fuzzy world—and vice versa—fuzzification and defuzzification processes are used, which convert numerical inputs into fuzzy values and fuzzy outputs into numerical values, respectively. Fuzzy systems offer some significant advantages. Chief among these is their interpretability: because fuzzy rules are expressed in natural language, the system is understandable and transparent, making it easier to analyze and validate the model. Moreover, fuzzy logic can effectively model and manage the uncertainty and imprecision present in data. Finally, fuzzy systems are generally robust to variations in input data and to noise. However, fuzzy systems also have drawbacks, especially when compared to neural networks. Managing high-dimensional data can become complex and computationally burdensome when the number of variables and fuzzy rules is large, neural networks, particularly deep ones, handle datasets with many variables more efficiently. Additionally, while there are machine learning techniques for fuzzy systems, such as the Adaptive Neuro-Fuzzy Inference System (ANFIS), they are less developed and less powerful than the learning algorithms used for neural networks. Despite these limitations, fuzzy systems are used in several areas, including process control, where they regulate complex systems such as industrial plants, household appliances, and vehicles. They are also employed in decision support systems to assist in decision-making processes in the medical, financial, and management fields, and in pattern recognition for identifying patterns in images, signals, and textual data.   Optimization methods and AI model design The development of artificial intelligence systems goes beyond simply building deep neural networks. A portion of the research focuses on methodologies designed to optimize the internal parameters of models. Some algorithms, inspired by biological or physical principles, have been successfully used to tackle complex optimization problems. For example, Particle Swarm Optimization, inspired by the collaborative behavior of swarms, involves a set of solutions exploring the search domain while following the particle that represents the best solution according to an evaluation function. Cooperation among the particles enables faster achievement of satisfactory results. A similar approach is offered by genetic algorithms, which simulate the evolution of solutions through operations like mutations and combinations, aiming to maximize or minimize a specific function. Another interesting method is Simulated Annealing, inspired by material cooling processes. This method starts the search in a wide solution space, with a high initial “temperature” that allows for significant variations in candidate solutions. As the temperature decreases, the system focuses on more refined solutions, approaching an optimal result. These approaches find application by integrating with data analysis techniques for activities such as selecting the most relevant features, optimizing architectures, or defining hyperparameters, offering broader exploration compared to direct, linear methods. On the front of innovative architectures, Capsule Networks introduce the use of specialized capsules, connected by a dynamic routing mechanism. This structure captures the hierarchies present in objects within an image, yielding remarkable results in tasks such as three-dimensional recognition. Extreme Learning Machines, on the other hand, focus on training efficiency by assigning random weights to hidden layers and restricting optimization to the weights of the output layer only. These examples demonstrate how research into faster, less resource-intensive algorithms are an active and promising path for enhancing artificial intelligence applications.   Generative Artificial Intelligence: beyond imitation, creation While artificial intelligence is profoundly changing data analysis and automation, an emerging area deserves particular attention: Generative Artificial Intelligence. Unlike traditional applications designed for tasks such as classification or prediction, generative AI stands out for its ability to create new and original content. This includes images, texts, music, videos, and even code, demonstrating a surprising ability to generate design concepts, scripts, or melodies starting from simple inputs. Supporting this innovation are advanced models like Generative Adversarial Networks (GAN) and Variational Autoencoders (VAE). GANs exploit the interaction between two networks: a generator that produces content and a discriminator that evaluates how realistic the content is compared to authentic data. This competitive dynamic allows the generator to progressively improve, creating increasingly realistic output. VAEs, on the other hand, adopt a probabilistic approach by mapping data into a latent space and using it to generate new instances. This method is particularly effective for producing refined variations of existing data, such as creating new artistic styles starting from an image. Generative AI is not limited to technological aspects but is also profoundly influencing fields such as art, design, entertainment, and scientific research. The development to generate design variants, create complex virtual worlds for video games and films, or support the development of new materials underscores the breadth and potential of this technology. The impact of generative AI, which continues to evolve, suggests a future in which automation is not limited to replication but becomes a tool for expanding human creative capabilities.   Transformers and Generative AI: a decisive combination In addition to GAN (Generative Adversarial Networks) and VAE (Variational Autoencoders) architectures, another computational structure has deeply changed the landscape of generative AI, particularly in the realm of Natural Language Processing (NLP): Transformers. Introduced in 2017, they quickly became the standard for numerous tasks, including machine translation and text generation. Their effectiveness is based on the mechanism of attention, which allows the model to precisely assess the importance of each word in a sentence when analyzing its meaning. Unlike Recurrent Neural Networks (RNN), which process words in a sequential manner, Transformers handle the entire sentence in parallel. This capability, combined with the attention mechanism, allows the model to capture long-range relationships between words, significantly improving comprehension of the overall meaning. Models like BERT (Bidirectional Encoder Representations from Transformers) and GPT (Generative Pre-trained Transformer), based on this architecture, have achieved outstanding results in both understanding and generating natural language. For example, GPT-3, with its 175 billion parameters, can generate coherent, grammatically correct texts on a wide variety of topics, starting from simple instructions. The influence of Transformers extends far beyond written text. Variants such as the Vision Transformer (ViT) have shown remarkable effectiveness in image processing as well, achieving performance comparable to Convolutional Neural Networks (CNN) in classification tasks. The ability to adapt to different types of data makes Transformers an extremely versatile tool in the field of generative AI. Research in this domain continues to expand, aiming to make models ever more efficient, scalable, and capable of generating and understanding multimodal content, integrating text, images, and other data types in a synergistic way.   Diffusion Models and Stable Diffusion: a new paradigm for Generative AI Alongside the generative models discussed so far, another family of algorithms is emerging with impressive results in the field of image generation: Diffusion Models. Inspired by nonequilibrium thermodynamic diffusion processes, these models learn to generate data through a gradual process of noise removal. Imagine progressively adding noise to an image, until it becomes indistinguishable from pure random noise. A Diffusion Model learns to reverse this process, starting from a random image and gradually removing noise until it obtains a coherent, realistic image. Among the various Diffusion Models, Stable Diffusion has quickly established itself as one of the most powerful and versatile. Released as open source in August 2022, it has captured the attention of researchers, artists, and enthusiasts, democratizing access to high-quality image generation. Its strength lies in the combination of several innovative techniques. First, it operates in a compressed latent space obtained through a Variational Autoencoder (VAE), which significantly reduces computational complexity compared to models working directly in pixel space. This makes it possible to generate high-resolution images with relatively low resource consumption. Moreover, Stable Diffusion introduces a conditioning mechanism that allows image generation to be guided by text inputs or other modes of interaction. This means you can provide the model with a text prompt such as “a cat astronaut riding a unicorn in space” and obtain an image that closely reflects that description. This precise control over generation, combined with the ability to produce photorealistic images, has opened new creative frontiers, enabling anyone to visualize their ideas with unprecedented ease. Unlike OpenAI’s DALL-E 2, Stable Diffusion is an open-source model: this has fostered rapid adoption and the emergence of a vast community contributing to its development, with numerous tools and interfaces that make it easier to use. Its architecture is based on a particular type of Diffusion Model called a Latent Diffusion Model (LDM). The generation process takes place in two main phases: a “forward diffusion” phase in which noise is gradually added to the input image, and a “reverse diffusion” phase in which the model, via a U-Net neural network, learns to remove noise step by step, guided by the text prompt. The U-Net network, commonly used in image segmentation, has been adapted to predict the noise to be subtracted at each step. The impact of Stable Diffusion and, more broadly, Diffusion Models is poised to grow further. Their ability to generate high-quality images, accessibility, and the flexibility offered by text-based conditioning are reshaping the way we create and interact with visual content. Although it is not based on Transformer architectures, Stable Diffusion stands alongside them as one of the pillars of today’s generative AI boom, helping redefine the boundaries between human and artificial creativity and opening new scenarios in art, design, visual communication, and beyond. However, as with other generative models, ethical considerations apply to Stable Diffusion as well, particularly regarding the potential for misuse, the generation of false or misleading content, and the impact on the job market for certain creative professions. A thorough reflection on these issues will be crucial for responsibly governing this emerging technology’s potential.   Applications, challenges, and future horizons of Generative AI Generative AI is not just a promise for the future; it is already finding applications in several areas, changing how we work and create. In marketing, for example, it can generate personalized advertising copy or images for social media campaigns. In fashion, experiments are underway with algorithms to design new clothing items. In medicine, generative AI is used to design new molecules, speeding up the discovery of new drugs. However, generative AI also poses challenges, particularly regarding the control and reliability of generated content. Ensuring that AI-generated text does not contain false information or that a model does not produce inappropriate images is paramount. The “deepfake” phenomenon highlights these concerns, showing how it is possible to create fake yet realistic videos or audio. Another critical aspect is ethics. The question of copyright for works created by AI and the impact on the job market for creative professions are highly relevant issues. These questions require a thorough reflection by legislators, companies, and society at large. Looking to the future, generative AI is set to evolve rapidly. We can expect the development of increasingly sophisticated models capable of generating even more complex content. Synergies with other technologies, such as virtual and augmented reality, will open unprecedented scenarios with dynamically generated immersive experiences. The challenge will be to guide this development responsibly, maximizing the benefits and mitigating the risks, to ensure that generative AI serves as a tool of progress for humanity.   Corporate strategies and opportunities with Generative Artificial Intelligence Companies that want to harness the full potential of Artificial Intelligence must think strategically about how to integrate it into their processes, going beyond automation and embracing the creative and generative capabilities offered by the most advanced models. It is not enough to acquire algorithmic systems; one must also identify data flows, analytical needs, and long-term maintenance capacity. This also involves being able to update and adapt models based on new technologies—like Transformers—that are redefining what is possible in fields such as NLP and content generation. Defining roles and skill sets is essential, balancing the contributions of specialized personnel with multidisciplinary profiles who can interface with various corporate functions. It will become increasingly important to train staff capable of understanding not only the technical aspects of AI but also the strategic and creative implications of generative AI. This includes the ability to manage projects that use models like GAN, VAE, and Transformers to develop new products, services, and processes. From a managerial perspective, the decision to adopt AI solutions involves considerations of cost and sustainability, particularly when initiatives require dedicated computing infrastructures or cloud services that can scale according to demand spikes. Additionally, the adoption of complex generative models, such as GPT-3 or similar technologies, requires a careful evaluation of training and inference costs, along with the need for suitable hardware or specialized cloud providers. AI also involves ethical issues related to data usage, algorithmic transparency, and potential bias. For example, a recognition system trained on an unbalanced dataset could produce discriminatory assessments. This risk is heightened when using generative models, which might inadvertently perpetuate stereotypes or generate inappropriate content if not properly supervised. Companies must carefully assess the source and quality of data and schedule periodic checks on model performance. Furthermore, for generative AI, implementing mechanisms for output control and validation is essential to ensure that the generated content aligns with company values and current regulations. Transparency and explainability of models become even more critical to understand the decision-making process that leads to generating a specific piece of content. In some industries, such as healthcare or finance, rigorous validation is a prerequisite before any production deployment. Future perspectives include AI systems that continuously learn, adapting to unforeseen changes and incorporating feedback mechanisms. The true key term of the coming decade might be computational creativity, with networks—particularly those based on Transformer architectures—capable of generating text, images, video, and other types of content with ever-increasing realism and coherence. For managers, the opportunity to develop integrated platforms and anticipate market trends makes the synergy among data, models (including powerful generative models based on Transformers), and people a crucial competitive factor. Leveraging generative AI to innovate products, services, and marketing strategies will become a key element in maintaining competitiveness. For example, companies will be able to create highly personalized advertising campaigns in real time, quickly and cost-effectively produce design prototypes, or develop virtual assistants capable of interacting naturally and creatively with customers. A company that understands how to steer research and experimentation in AI solutions, including the transformative potential of generative AI, can gain a long-term advantage without having to passively chase the innovations introduced by competitors. Investing in research and development of applications based on these emerging technologies will allow companies to lead innovation rather than be subject to it.   Conclusions Artificial Intelligence—and in particular its generative dimension—is no longer a futuristic frontier but a reality with which every company must contend. As we have seen, its applications range from process optimization to the creation of original content, opening previously unimaginable innovation scenarios. Models based on Transformers, together with techniques such as Diffusion Models, are redefining the boundaries of what is possible, offering powerful tools to those who know how to seize their opportunities. However, the rush to adopt Generative AI must not be blind. For you, managers and entrepreneurs, the challenge is twofold: on the one hand, to fully understand the transformative potential of these technologies and integrate them into a long-term strategic vision; on the other, to govern the risks and ethical implications that arise. In the next three to five years, Generative AI will become a key factor of competitive differentiation. Companies that manage to adopt it strategically can not only streamline processes and reduce costs but also radically innovate products and services, create new business models, and reach customers in ways previously unthinkable. Consider, for example, the ability to generate hyper-personalized marketing campaigns in real time, to design products tailored to individual customer needs, or to develop new materials with groundbreaking properties. The adoption path will require targeted investments, not only in technology but also in skills and corporate culture. Training personnel, attracting talent with specialized AI competencies, and fostering an environment open to innovation and experimentation will be essential. Leadership will play a crucial role in guiding this transformation, inspiring a clear vision and promoting the responsible adoption of Generative AI. Not all companies will start from the same point. Large enterprises, with greater resources and data at their disposal, can aim for ambitious, large-scale projects. SMEs, on the other hand, should focus on high-impact, specific use cases, collaborating with startups or specialized providers. Regardless of size, the key to success lies in identifying the most promising application areas, defining clear success metrics, and continuously measuring the impact of Generative AI initiatives. Risk management will be crucial. Beyond ethical issues related to data usage and algorithm transparency, you will need to consider cybersecurity risks, intellectual property concerns, and the potential generation of inappropriate or misleading content. Implementing robust control and validation mechanisms, along with a “human-in-the-loop” approach that maintains human oversight—especially in the early stages of implementation—will be paramount. In conclusion, Generative AI represents a unique opportunity for companies to redefine their future and gain a lasting competitive edge. The challenge for you, corporate leaders, is not just to adopt this technology but to do so strategically, responsibly, and with foresight. Those who manage to meet this challenge—investing in skills, innovation, and solid AI governance—will guide their companies toward a future of growth and success in the era of generative artificial intelligence. Those who fall behind, merely observing or passively following competitors’ moves, risk missing an unrepeatable opportunity for transformation and growth in a market that does not wait but rewards those who first understand and implement its new rules. Podcast: https://spotifycreators-web.app.link/e/xZMO4myDCPb

  • Intelligenza Artificiale Generativa: evoluzione, tecniche e strategie per le imprese

    L’Intelligenza Artificiale è divenuta un tema molto discusso, sia per l’impulso proveniente da settori tecnologici e di mercato sia per il fascino che suscita nell’opinione pubblica. L’attenzione attuale sull’Intelligenza Artificiale non deriva solo dalle prestazioni raggiunte dai moderni algoritmi, ma anche dalle crescenti possibilità offerte dall’elaborazione dei dati e dalle architetture specializzate disponibili. L’obiettivo di questo contributo è illustrare alcuni passaggi fondamentali e approfondire i metodi e le tecnologie che hanno reso l’AI un ambito chiave per aziende, dirigenti e cittadini, mettendo in luce come la ricerca abbia incontrato la domanda di soluzioni concrete. Intelligenza Artificiale Generativa: evoluzione, tecniche e strategie per le imprese Il ruolo dei dati nell’intelligenza artificiale e nei modelli specializzati L’adozione sempre più ampia di sistemi AI è strettamente legata alla disponibilità di dati in grandi quantità e a tecniche di elaborazione capaci di sfruttarli. Per molto tempo l’intelligenza artificiale è rimasta una disciplina di nicchia appannaggio di pochi laboratori di ricerca, interessati a una materia considerata astratta e complessa, ma la convergenza di tre fattori ne ha favorito la diffusione: l’incremento di potenza di calcolo, la presenza di infrastrutture cloud e la maturità dei modelli computazionali. Per un’azienda che vuole integrare algoritmi di AI, è fondamentale disporre di dataset pertinenti, in forma strutturata e di sufficiente qualità, in modo da addestrare reti che possano compiere task utili al business.Le tecniche di machine learning tradizionali, come i metodi di regressione, hanno progressivamente mostrato limiti nel gestire in modo efficace i dati complessi provenienti da fonti eterogenee. Da qui l’interesse per approcci che offrono maggiore flessibilità e prestazioni, con particolare attenzione alle cosiddette reti neurali profonde. È però emerso il rischio di creare aspettative eccessive, talvolta alimentate da scenari ispirati alla fantascienza. La riflessione più attenta sottolinea che molte tecnologie AI odierne si basano su procedure piuttosto specializzate, definite narrow AI, valide per compiti circoscritti senza possedere una comprensione generale paragonabile a quella umana. Alan Turing fu tra i primi a intuire la prospettiva di macchine capaci di emulare la nostra intelligenza. La sua domanda sul pensiero computazionale ha ispirato decenni di ricerche, culminate in una serie di test mirati a verificare se un computer possa imitare un essere umano in un dialogo testuale. Le basi teoriche che Turing ha lasciato influenzano ancora l’orientamento pratico e la necessità di verificare concretamente le prestazioni delle reti. In settori competitivi, l’AI diventa uno strumento decisivo, soprattutto quando le aziende possiedono enormi riserve di dati; è qui che si afferma il concetto di AI-ready , riferito a realtà organizzative con risorse e competenze tali da sfruttare interamente i modelli basati su reti neurali e algoritmi avanzati.Per molte imprese, la sfida non consiste più soltanto nell’acquisire algoritmi, ma nel costruire un ecosistema in cui l’AI diventi parte dell’operatività quotidiana, con processi e personale che comprendano il valore dei risultati generati. Il passaggio dai prototipi a soluzioni efficaci richiede un’integrazione dei modelli con architetture software scalabili e con pipeline di aggiornamento dei dati. Se le imprese superano la fase esplorativa, la possibilità di un vantaggio competitivo risulta concreta, perché un sistema AI ben progettato riduce i tempi decisionali e migliora la qualità delle analisi. Deep Learning e innovazioni nelle reti neurali Le reti neurali iniziali erano caratterizzate da pochi livelli con connessioni elementari. La loro evoluzione segue un percorso che ha visto un entusiasmo iniziale, fasi di scetticismo, e successivamente l’affinamento di modelli più complessi, in grado di affrontare problemi precedentemente irrisolvibili. Con l’aumento della potenza di calcolo, reso possibile soprattutto dall’introduzione delle GPU, queste reti hanno acquisito maggiore profondità, mantenendo una struttura stratificata ma raggiungendo milioni di parametri. Questo avanzamento è conosciuto come Deep Learning . Il Deep Learning combina matrici di dati con passaggi di convoluzione, connessioni ricorsive e funzioni di attivazione non lineari. In specifici ambiti, come la classificazione di immagini, l’aumento della complessità dei livelli ha portato a superare la precisione umana, come dimostrano i risultati ottenuti su dataset di riferimento. L’addestramento di tali sistemi avviene mediante algoritmi di ottimizzazione, tra cui il Gradient Descent e le sue varianti, come Adam e Adadelta. Questi vengono integrati con tecniche come la backpropagation, che consente l’aggiornamento sistematico dei pesi durante il processo di apprendimento. L’integrazione delle reti neurali profonde con le risorse del cloud ha creato una sinergia capace di favorire sperimentazioni rapide e su larga scala. Librerie software diffuse, come TensorFlow e PyTorch, offrono interfacce intuitive per il calcolo parallelo, strumenti per la visualizzazione e diagnostica, semplificando l’adozione del Deep Learning in applicazioni pratiche. Grazie a queste piattaforme, gli sviluppatori possono testare modelli complessi senza dover implementare manualmente i calcoli fondamentali. Inoltre, ambienti preconfigurati, come i container Docker, riducono le difficoltà tecniche legate alla prototipazione, rendendo l’accesso alle tecnologie più immediato. La crescita dei progetti di ricerca e la condivisione tramite piattaforme online hanno accelerato l’adozione di metodologie e framework. Aziende che in passato guardavano con diffidenza all’intelligenza artificiale si trovano oggi a esplorarne il potenziale in ambiti come il riconoscimento vocale, l’analisi di immagini mediche e l’ottimizzazione dei percorsi nei trasporti. Tuttavia, la capacità di un sistema di Deep Learning di generalizzare dipende in gran parte dalla qualità del set di addestramento. Non basta disporre di grandi volumi di dati: è fondamentale garantirne la qualità e rappresentatività per ottenere prestazioni affidabili e robuste. Applicazioni avanzate: CNN e RNN Nel campo del Deep Learning, due architetture hanno dimostrato un’efficacia significativa in ambiti molto diversi. Le Convolutional Neural Network (CNN) si fondano sul concetto di convoluzione, utilizzato per estrarre in maniera sistematica le caratteristiche spaziali da immagini o segnali. Ogni filtro attraversa i dati alla ricerca di schemi locali, che vengono successivamente elaborati da strati aggiuntivi. Grazie alle operazioni di pooling, i modelli riducono la dimensionalità dell’input, concentrandosi sulle informazioni più rilevanti. Generalmente, una CNN si conclude con livelli fully connected, utili a classificare gli oggetti riconosciuti. Modelli di questo tipo, addestrati su insiemi di immagini, hanno persino superato le capacità umane nella classificazione di determinati dataset di test. Le CNN trovano applicazioni significative anche nel settore automobilistico, dove vengono integrate nei sistemi di guida autonoma per il riconoscimento di ostacoli. In un ambito diverso, numerose tecniche di elaborazione del linguaggio naturale sfruttano reti convoluzionali, poiché specifiche combinazioni di parole possono essere analizzate in sequenza, in modo simile a frammenti di un’immagine. Le Recurrent Neural Network  (RNN), insieme alle loro varianti come LSTM (Long Short-Term Memory) e GRU (Gated Recurrent Unit), sono progettate per interpretare dati sequenziali. A differenza delle reti feedforward, i neuroni ricorrenti conservano traccia delle informazioni elaborate in precedenza, rendendo l’output di ciascuno step influenzato dai risultati precedenti. Questi modelli risultano essenziali per applicazioni come la traduzione automatica e l’analisi del sentiment. Tramite meccanismi di gating, le RNN riescono a gestire relazioni temporali di lungo periodo, analizzando testi o segnali audio che richiedono un’elaborazione temporale complessa. Sono state inoltre sviluppate combinazioni tra CNN e RNN, in particolare per la creazione automatica di descrizioni visive. In questo caso, la CNN si occupa dell’analisi dell’immagine, mentre la RNN genera le frasi descrittive corrispondenti. Fuzzy Systems: Un approccio interpretabile all'intelligenza artificiale Le reti neurali profonde sono altamente performanti nell’elaborazione di dati complessi e nell’apprendimento di schemi complessi, ma la loro struttura opaca rende ardua la comprensione del loro funzionamento. In alternativa, i sistemi fuzzy  propongono un metodo differente, fondato sulla logica fuzzy , che permette di rappresentare e gestire concetti ambigui e imprecisi, emulando il ragionamento umano in maniera più naturale. Introdotta da Lotfi Zadeh negli anni '60, la logica fuzzy estende la logica booleana classica, che prevede solo i valori "vero" o "falso", permettendo gradi di verità intermedi, rappresentati da valori compresi tra 0 e 1. Questo consente di modellare l'incertezza e l'ambiguità intrinseche nel linguaggio naturale e in molti problemi del mondo reale. Un sistema fuzzy si basa su regole del tipo "SE ALLORA ", dove le condizioni e le conseguenze sono espresse in termini di variabili linguistiche e insiemi fuzzy. Ad esempio, una regola potrebbe essere formulata come "SE la temperatura è ALTA ALLORA la velocità della ventola è ELEVATA". Gli insiemi fuzzy, a loro volta, rappresentano concetti linguistici come "caldo", "freddo", "alto", "basso", mediante funzioni di appartenenza (membership functions). Queste funzioni associano a ogni elemento di un universo di riferimento un grado di appartenenza all'insieme, compreso tra 0 (nessuna appartenenza) e 1 (appartenenza completa). Il cuore di un sistema fuzzy è il motore di inferenza, che utilizza le regole e gli insiemi fuzzy per dedurre conclusioni a partire da input numerici o linguistici. Per connettere il mondo numerico a quello fuzzy, e viceversa, si utilizzano i processi di fuzzificazione e defuzzificazione, che convertono rispettivamente input numerici in valori fuzzy e output fuzzy in valori numerici. I fuzzy systems presentano alcuni vantaggi significativi. Primo fra tutti, la loro interpretabilità: le regole fuzzy, essendo espresse in linguaggio naturale, rendono il sistema comprensibile e trasparente, facilitando l'analisi e la validazione del modello. Inoltre, la logica fuzzy consente di modellare e gestire in modo efficace l'incertezza e l'imprecisione presenti nei dati. Infine, i sistemi fuzzy sono generalmente robusti a variazioni nei dati di input e a rumore. Tuttavia, i fuzzy systems hanno anche degli svantaggi, soprattutto se confrontati con le reti neurali. La loro gestione di dati ad alta dimensionalità può diventare complessa e computazionalmente onerosa quando il numero di variabili e di regole fuzzy è elevato; le reti neurali, in particolare quelle profonde, gestiscono meglio dataset con molte variabili. Inoltre, sebbene esistano tecniche di apprendimento automatico per fuzzy systems, come l'Adaptive Neuro-Fuzzy Inference System (ANFIS), queste sono generalmente meno sviluppate e potenti rispetto agli algoritmi di apprendimento utilizzati per le reti neurali. Nonostante questi limiti, i fuzzy systems trovano applicazione in diversi ambiti, tra cui il controllo di processi, dove vengono impiegati per la regolazione di sistemi complessi come impianti industriali, elettrodomestici e veicoli. Sono inoltre utilizzati nei sistemi di supporto alle decisioni per fornire aiuto in processi decisionali in ambito medico, finanziario e gestionale, e nel riconoscimento di pattern per l'identificazione di pattern in immagini, segnali e dati testuali.   Metodi di ottimizzazione e progettazione di modelli AI Lo sviluppo di sistemi di intelligenza artificiale va oltre la semplice costruzione di reti neurali profonde. Una parte della ricerca si focalizza sulle metodologie volte a ottimizzare i parametri interni dei modelli. Alcuni algoritmi, basati su principi biologici o fisici, sono stati utilizzati con successo per risolvere problemi complessi di ottimizzazione. Ad esempio, il Particle Swarm Optimization , ispirato al comportamento collaborativo degli sciami, prevede che un insieme di soluzioni esplori il dominio di ricerca seguendo la particella che rappresenta la migliore soluzione in base a una funzione di valutazione. La cooperazione tra le particelle consente di accelerare il raggiungimento di risultati soddisfacenti. Un approccio simile è offerto dagli algoritmi genetici , che simulano l’evoluzione delle soluzioni attraverso operazioni come mutazioni e combinazioni, con l’obiettivo di massimizzare o minimizzare una funzione specifica. Un'altra metodologia interessante è il Simulated Annealing , ispirato ai processi di raffreddamento dei materiali. Questo metodo inizia la ricerca in un ampio spazio di soluzioni, con una "temperatura" iniziale elevata che permette grandi variazioni nelle soluzioni candidate. Con il progressivo abbassamento della temperatura, il sistema si concentra su soluzioni più raffinate, avvicinandosi a un risultato ottimale. Questi approcci trovano applicazione integrandosi con tecniche di analisi dei dati per attività come la selezione delle caratteristiche più rilevanti, l’ottimizzazione delle architetture o la definizione degli iperparametri, offrendo un'esplorazione più ampia rispetto a metodi diretti e lineari. Sul fronte delle architetture innovative, le Capsule Networks  introducono l’uso di capsule specializzate, connesse da un meccanismo di instradamento dinamico. Questa struttura consente di catturare le gerarchie presenti negli oggetti di un’immagine, ottenendo risultati notevoli in attività come il riconoscimento tridimensionale. Gli Extreme Learning Machines , invece, si concentrano sull’efficienza nell’addestramento, assegnando pesi casuali ai livelli nascosti e limitando l’ottimizzazione ai soli pesi del livello di output. Questi esempi dimostrano come la ricerca di algoritmi più rapidi e meno onerosi dal punto di vista delle risorse rimanga un percorso attivo e promettente per migliorare le applicazioni dell’intelligenza artificiale. Intelligenza Artificiale Generativa: oltre l’imitazione, la creazione Mentre l’intelligenza artificiale sta rivoluzionando l’analisi dei dati e l’automazione, un’area emergente merita particolare attenzione: l’Intelligenza Artificiale Generativa. Diversamente dalle applicazioni tradizionali, orientate a compiti come classificazione o predizione, l’AI generativa si distingue per la capacità di creare contenuti nuovi e originali. Questo include immagini, testi, musica, video e persino codice, dimostrando una sorprendente abilità nel generare progetti di design, sceneggiature o melodie partendo da semplici input. A supporto di questa innovazione vi sono modelli avanzati come le Generative Adversarial Networks  (GAN) e i Variational Autoencoders  (VAE). Le GAN sfruttano l’interazione tra due reti: un generatore, che produce contenuti, e un discriminatore, che valuta quanto essi siano realistici rispetto a dati autentici. Questa dinamica competitiva permette al generatore di migliorare progressivamente, creando output sempre più realistici. I VAE adottano invece un approccio probabilistico, mappando i dati in uno spazio latente e utilizzandolo per generare nuove istanze. Questo metodo è particolarmente efficace per produrre variazioni raffinate di dati esistenti, come la creazione di nuovi stili artistici partendo da un’immagine. L’AI generativa non si limita agli aspetti tecnologici, ma sta trasformando profondamente settori come l’arte, il design, l’intrattenimento e la ricerca scientifica. La possibilità di generare varianti di design, progettare mondi virtuali complessi per videogiochi e film, o supportare lo sviluppo di nuovi materiali, evidenzia l’ampiezza e il potenziale di questa tecnologia. L’impatto dell’AI generativa, in continua evoluzione, suggerisce un futuro in cui l’automazione non si limita a replicare, ma diventa uno strumento per ampliare le capacità creative umane. Transformer e Intelligenza Artificiale Generativa: un binomio decisivo Oltre alle architetture GAN (Generative Adversarial Networks) e VAE (Variational Autoencoders), un'altra struttura computazionale ha profondamente cambiato il panorama dell'AI generativa, soprattutto nel campo dell'elaborazione del linguaggio naturale (Natural Language Processing, NLP): i Transformer. Introdotti nel 2017, si sono rapidamente affermati come standard per numerosi compiti, tra cui traduzione automatica e generazione di testo. La loro efficacia si basa sul meccanismo di attenzione (attention), che permette al modello di valutare con precisione il peso di ciascuna parola in una frase durante l'analisi del suo significato. A differenza delle reti ricorrenti (Recurrent Neural Networks, RNN), che elaborano le parole in modo sequenziale, i Transformer processano l'intera frase in parallelo. Questa capacità, combinata al meccanismo di attenzione, consente di catturare connessioni a lungo raggio tra le parole, migliorando significativamente la comprensione del significato complessivo. Modelli come BERT (Bidirectional Encoder Representations from Transformers) e GPT (Generative Pre-trained Transformer), basati su questa architettura, hanno raggiunto risultati eccezionali sia nella comprensione che nella generazione del linguaggio naturale. Ad esempio, GPT-3, con i suoi 175 miliardi di parametri, è in grado di generare testi coerenti e grammaticalmente corretti su un'ampia varietà di argomenti, partendo da semplici istruzioni. L'influenza dei Transformer si estende ben oltre il testo scritto. Varianti come il Vision Transformer (ViT) hanno mostrato una notevole efficacia anche nell'elaborazione delle immagini, raggiungendo prestazioni paragonabili a quelle delle reti neurali convoluzionali (Convolutional Neural Networks, CNN) in compiti di classificazione. La capacità di adattarsi a diversi tipi di dati rende i Transformer uno strumento estremamente versatile nell'ambito dell'AI generativa. La ricerca in questo settore è in continua espansione, puntando a rendere i modelli sempre più efficienti, scalabili e capaci di generare e comprendere contenuti multimodali, integrando testo, immagini e altri tipi di dati in modo sinergico. Diffusion Models e Stable Diffusion: un nuovo paradigma per l'Intelligenza Artificiale Generativa Accanto ai modelli generativi discussi finora, un'altra famiglia di algoritmi sta emergendo con risultati impressionanti nel campo della generazione di immagini: i Diffusion Models (modelli a diffusione). Ispirati ai processi di diffusione della termodinamica del non-equilibrio, questi modelli apprendono a generare dati attraverso un processo graduale di rimozione del rumore. Immaginiamo di aggiungere progressivamente del rumore a un'immagine, fino a renderla indistinguibile da puro rumore casuale. Un Diffusion Model impara a invertire questo processo, partendo da un'immagine casuale e rimuovendo gradualmente il rumore fino a ottenere un'immagine coerente e realistica. Tra i vari Diffusion Models, Stable Diffusion  si è rapidamente affermato come uno dei più potenti e versatili. Rilasciato in forma open-source nell'agosto 2022, ha catalizzato l'attenzione di ricercatori, artisti e appassionati, democratizzando l'accesso alla generazione di immagini di alta qualità. La sua forza risiede nella combinazione di diverse tecniche innovative. Innanzitutto, opera in uno spazio latente compresso, ottenuto tramite un autoencoder variazionale (VAE), che riduce significativamente la complessità computazionale rispetto ai modelli che operano direttamente nello spazio dei pixel. Questo permette di generare immagini ad alta risoluzione con un consumo di risorse relativamente contenuto. Inoltre, Stable Diffusion introduce un meccanismo di condizionamento che consente di guidare la generazione delle immagini tramite input testuali, o altre modalità. Questo significa che è possibile fornire al modello una descrizione testuale (prompt) come "un gatto astronauta che cavalca un unicorno nello spazio" e ottenere un'immagine che rispecchia fedelmente tale descrizione. Questo controllo preciso sulla generazione, unito alla capacità di generare immagini fotorealistiche, ha aperto nuove frontiere creative, permettendo a chiunque di visualizzare le proprie idee con una facilità senza precedenti. A differenza di DALL-E 2 di OpenAI, Stable Diffusion è un modello open-source: questo ne ha favorito una rapidissima diffusione e la nascita di una vasta comunità che contribuisce al suo sviluppo, con una moltitudine di strumenti e interfacce che ne semplificano l'utilizzo. La sua architettura si basa su un tipo particolare di Diffusion Model chiamato Latent Diffusion Model (LDM) . Il processo di generazione si articola in due fasi principali: una fase di "forward diffusion" in cui il rumore viene gradualmente aggiunto all'immagine in input, e una fase di "reverse diffusion" in cui il modello, tramite una rete neurale U-Net, impara a rimuovere il rumore passo dopo passo, guidato dal prompt testuale. La rete U-Net, comunemente utilizzata nella segmentazione di immagini, è stata adattata per prevedere il rumore da sottrarre ad ogni passaggio. L'impatto di Stable Diffusion, e più in generale dei Diffusion Models, è destinato a crescere ulteriormente. La sua capacità di generare immagini di alta qualità, la sua accessibilità e la flessibilità offerta dal condizionamento testuale, stanno rivoluzionando il modo in cui creiamo e interagiamo con i contenuti visivi. Sebbene non basato su architetture Transformer, Stable Diffusion si affianca a queste ultime come uno dei pilastri dell'attuale rivoluzione dell'AI generativa, contribuendo a ridefinire i confini tra creatività umana e artificiale e aprendo scenari inediti nel campo dell'arte, del design, della comunicazione visiva e oltre. Tuttavia, come per gli altri modelli generativi, anche per Stable Diffusion valgono le considerazioni etiche relative al potenziale uso improprio, alla generazione di contenuti falsi o fuorvianti e all'impatto sul mercato del lavoro di alcune professioni creative. Una riflessione approfondita su questi temi sarà fondamentale per governare al meglio le potenzialità di questa tecnologia emergente.   Applicazioni, sfide e orizzonti futuri dell’Intelligenza Artificiale Generativa L'AI generativa non è solo una promessa futuristica, ma trova già applicazione in diversi ambiti, cambiando il modo di lavorare e creare. Nel marketing, ad esempio, permette di generare testi pubblicitari personalizzati o immagini per campagne sui social media. Nella moda, si sperimentano algoritmi per ideare nuovi capi di abbigliamento. Nella medicina, l'AI generativa viene utilizzata per progettare nuove molecole, accelerando la scoperta di nuovi farmaci. Tuttavia, l'AI generativa presenta delle sfide, soprattutto per quanto riguarda il controllo e l'affidabilità dei contenuti generati. Assicurare che un testo generato da un'AI non contenga informazioni false o che un modello non produca immagini inappropriate è fondamentale. Il fenomeno del "deepfake" evidenzia queste preoccupazioni, mostrando come sia possibile creare video o audio falsi ma realistici. Un ulteriore aspetto critico è quello etico. La questione del diritto d'autore per opere create da un'AI e l'impatto sul mercato del lavoro di professioni creative sono temi di grande attualità. Queste domande richiedono una riflessione approfondita da parte di legislatori, aziende e società. Guardando al futuro, l'AI generativa è destinata a evolversi rapidamente. Si prevede lo sviluppo di modelli sempre più sofisticati, capaci di generare contenuti ancora più complessi. La sinergia con altre tecnologie, come la realtà virtuale e aumentata, aprirà scenari inediti, con esperienze immersive generate dinamicamente. La sfida sarà quella di guidare questo sviluppo in modo responsabile, massimizzando i benefici e mitigando i rischi, per un futuro in cui l'AI generativa sia uno strumento di progresso al servizio dell'umanità. Strategie aziendali e opportunità con l’Intelligenza Artificiale Generativa Le aziende che vogliono sfruttare il pieno potenziale dell'Intelligenza Artificiale devono pensare in modo strategico a come integrarla nei processi, andando oltre l'automazione e abbracciando anche le capacità creative e generative offerte dai modelli più avanzati. Non basta acquisire i sistemi algoritmici, occorre individuare i flussi di dati, i fabbisogni analitici e la capacità di manutenzione a lungo termine. Questo implica anche la capacità di aggiornare e adattare i modelli in base alle nuove tecnologie, come i Transformer, che stanno ridefinendo i limiti del possibile in campi come il NLP e la generazione di contenuti. È essenziale definire ruoli e competenze, bilanciando l'apporto di figure specializzate con profili trasversali capaci di interfacciarsi con le diverse funzioni aziendali. Sarà sempre più importante formare personale in grado di comprendere non solo gli aspetti tecnici dell'AI, ma anche le implicazioni strategiche e creative dell'AI generativa. Ciò include la capacità di gestire progetti che utilizzano modelli come i GAN, i VAE e i Transformer per sviluppare nuovi prodotti, servizi e processi. Per i dirigenti, la decisione di affidarsi a soluzioni AI comporta considerazioni di costo e di sostenibilità, soprattutto quando le iniziative richiedono infrastrutture di calcolo dedicate o servizi in cloud che possano scalare in base a picchi di domanda. Inoltre, l'adozione di modelli generativi complessi, come GPT-3 o simili, richiede un'attenta valutazione dei costi di addestramento e inferenza, oltre alla necessità di disporre di hardware adeguato o di affidarsi a fornitori cloud specializzati. L'AI coinvolge temi etici legati all'uso dei dati, alla trasparenza degli algoritmi e ai possibili bias. Un esempio è il rischio che un sistema di riconoscimento ereditato da un dataset sbilanciato produca valutazioni discriminatorie. Questo rischio si amplifica con l'uso di modelli generativi, che potrebbero inavvertitamente perpetuare stereotipi o generare contenuti inappropriati se non adeguatamente supervisionati. Le aziende devono valutare con attenzione la provenienza e la qualità dei dati, prevedendo controlli periodici sulle prestazioni dei modelli. Inoltre, per l'AI generativa, è fondamentale implementare meccanismi di controllo e validazione dell'output, per garantire che i contenuti generati siano allineati ai valori aziendali e alle normative vigenti. La trasparenza e la spiegabilità dei modelli diventano ancora più cruciali, per poter comprendere il processo decisionale che porta alla creazione di un determinato contenuto. In alcuni settori, come quello sanitario o finanziario, la validazione rigorosa è un prerequisito prima dell'eventuale messa in produzione. Le prospettive future includono sistemi di AI che apprendono in modo continuo, adattandosi a variazioni inattese e incorporando meccanismi di feedback. La vera parola chiave del prossimo decennio potrebbe essere proprio la creatività computazionale, con reti, in particolare basate su architetture Transformer, in grado di generare testi, immagini, video e altri tipi di contenuti con un livello di realismo e coerenza sempre maggiore. Per i manager, l'opportunità di sviluppare piattaforme integrate e di anticipare i trend di mercato fa della sinergia tra dati, modelli (inclusi i potenti modelli generativi basati su Transformer) e persone un fattore competitivo cruciale. Sfruttare l'AI generativa per innovare prodotti, servizi e strategie di marketing diventerà un elemento chiave per mantenere la competitività. Ad esempio, si potranno creare campagne pubblicitarie altamente personalizzate, generare prototipi di design in modo rapido ed economico, o sviluppare assistenti virtuali in grado di interagire in modo naturale e creativo con i clienti. Un'azienda che comprenda la direzione in cui spingere la ricerca e la sperimentazione di soluzioni AI, incluso il potenziale trasformativo dell'AI generativa, può dotarsi di un vantaggio di lungo periodo, senza dover inseguire passivamente le innovazioni provenienti da altri competitor. Investire nella ricerca e nello sviluppo di applicazioni basate su queste tecnologie emergenti permetterà alle aziende di guidare l'innovazione invece di subirla.   Conclusioni L'Intelligenza Artificiale, e in particolare la sua declinazione generativa, non è più una frontiera futuristica, ma una realtà con cui ogni azienda deve confrontarsi. Come abbiamo visto, le sue applicazioni spaziano dall'ottimizzazione dei processi alla creazione di contenuti originali, aprendo scenari di innovazione prima inimmaginabili. I modelli basati sui Transformer, insieme a tecniche come i Diffusion Models, stanno ridefinendo i limiti del possibile, offrendo strumenti potenti per chi saprà coglierne le opportunità. Tuttavia, la corsa all'adozione dell'AI Generativa non deve essere una corsa cieca. Per voi, dirigenti e imprenditori, la sfida è duplice: da un lato, comprendere a fondo il potenziale trasformativo di queste tecnologie e integrarle in una visione strategica di lungo termine; dall'altro, governare i rischi e le implicazioni etiche che ne derivano. Nei prossimi 3-5 anni, l'AI Generativa diventerà un fattore chiave di differenziazione competitiva.  Le aziende che sapranno adottarla in modo strategico potranno non solo efficientare i processi e ridurre i costi, ma anche innovare radicalmente prodotti e servizi, creare nuovi modelli di business e raggiungere i clienti in modi prima impensabili. Pensiamo, ad esempio, alla possibilità di generare campagne di marketing iper-personalizzate in tempo reale, di progettare prodotti su misura per le esigenze del singolo cliente, o di sviluppare nuovi materiali con proprietà rivoluzionarie. Il percorso di adozione richiederà investimenti mirati, non solo in tecnologia, ma anche in competenze e cultura aziendale.  Sarà fondamentale formare il personale, attrarre talenti con competenze specifiche in ambito AI, e creare un ambiente aperto all'innovazione e alla sperimentazione. La leadership avrà un ruolo cruciale nel guidare questa trasformazione, ispirando una visione chiara e promuovendo un'adozione responsabile dell'AI Generativa. Non tutte le aziende partiranno dallo stesso punto. Le grandi imprese, con maggiori risorse e dati a disposizione, potranno puntare a progetti ambiziosi e su larga scala. Le PMI, d'altro canto, dovranno focalizzarsi su casi d'uso specifici ad alto impatto, magari collaborando con startup o fornitori specializzati. Indipendentemente dalle dimensioni, la chiave del successo sarà la capacità di identificare le aree di applicazione più promettenti, definire metriche di successo chiare e misurare costantemente l'impatto delle iniziative di AI Generativa. La gestione del rischio sarà un aspetto cruciale. Oltre alle questioni etiche relative all'uso dei dati e alla trasparenza degli algoritmi, dovrete considerare i rischi legati alla sicurezza informatica, alla proprietà intellettuale e alla potenziale generazione di contenuti inappropriati o fuorvianti. Sarà fondamentale implementare meccanismi di controllo e validazione rigorosi, e adottare un approccio "human-in-the-loop" che preveda sempre la supervisione umana, soprattutto nelle fasi iniziali di implementazione. In conclusione, l'AI Generativa rappresenta un'opportunità unica per le aziende di ridefinire il proprio futuro e acquisire un vantaggio competitivo duraturo. La sfida per voi, leader aziendali, non è solo quella di adottare questa tecnologia, ma di farlo in modo strategico, responsabile e lungimirante.  Chi saprà cogliere questa sfida, investendo in competenze, innovazione e una solida governance dell'AI, potrà guidare la propria azienda verso un futuro di crescita e successo nell'era dell'intelligenza artificiale generativa. Chi resterà indietro, limitandosi a osservare o a inseguire passivamente le mosse dei concorrenti, rischierà di perdere un'occasione irripetibile di trasformazione e di crescita, in un mercato che non attende, ma premia chi per primo ne comprende ed esegue al meglio le nuove regole."   Podcast: https://spotifycreators-web.app.link/e/SwtXGPjBCPb

  • Copyright and Artificial Intelligence: Challenges and Opportunities for Creative and Technological Industries

    The document “Copyright and Artificial Intelligence,” conducted by the United Kingdom’s Intellectual Property Office in collaboration with the Department for Science, Innovation & Technology and the Department for Culture, Media & Sport, explores the complex relationship between Copyright and Artificial Intelligence. It addresses the delicate balance between protecting creative works and developing AI-based technologies. The document highlights the need for new rules to support rights in the realm of Copyright and Artificial Intelligence while promoting transparency and innovation. This topic involves businesses, governments, and users in a dialogue aimed at defining effective tools to protect human expression without hindering the growth of the tech sector, recognizing the importance of international cooperation and regulatory clarity. Copyright and Artificial Intelligence: Challenges and Opportunities for Creative and Technological Industries Copyright and Artificial Intelligence: The Urgency of Legislative Reform The consultation shows how Artificial Intelligence has become a potential engine for growth: in its “World Economic Outlook” for 2024, the International Monetary Fund maintains that the adoption of AI solutions could trigger productivity increases of up to 1.5 percentage points per year. At the same time, the document underlines the value of the creative industries in the United Kingdom, which generate £124.8 billion of added value and employ thousands of professionals in sectors ranging from publishing to film. To understand the need for copyright reform, it is first necessary to consider the technological context in which generative AIs operate, as they increasingly rely on enormous datasets—often consisting of protected works. In short, the debate focuses on the nature and scope of what copyright law should allow or prohibit during the “training” process, that is, the phase in which AI models learn rules, styles, and patterns from content available online or in databases. Many works hosted on the Internet—such as books, song lyrics, images, and illustrations—are retrieved by automated crawlers that gather resources to enrich the initial data lakes for AI training. On one hand, this process drives innovation by allowing developers to create more efficient and accurate algorithms, while on the other, it creates uncertainty for authors who do not know how their creations are being used, nor whether they will be entitled to proportional compensation. The government consultation highlights the difficulty of conceiving a rule that is effective without slowing down AI development. Developers, on one hand, complain about the risk of sanctions and lawsuits, to the point that they might opt to train their models in countries with regulations considered more permissive or, in any case, clearer. On the other hand, rights holders claim they lack adequate means to verify or block unauthorized use of their works, resulting in an inability to control or monetize the use of protected material through proper licensing. In this scenario, the British government proposes direct intervention through a series of measures that include dataset transparency, the adoption of targeted exceptions for text and data mining, and the option for creators to explicitly reserve their rights. The goal is to create a regulatory framework that fosters innovation while giving creators the tools to negotiate and manage the use of their works. The guiding idea centers on the introduction of a “rights reservation” mechanism, in which access to protected material for training is not automatic but subject to license clauses if the rights holders clearly indicate a desire for protection. The success of these measures, however, depends on inclusive involvement: beyond creative industry operators and AI providers, the participation of consumers, authorities, and standard-setting bodies is crucial. Without a shared technical protocol and harmonization with other legislative systems, the new framework risks remaining theoretical, leaving the actual issue of control unresolved. This initial reflection therefore underscores how essential it is to act quickly and clearly, so as not to hamper AI advances and, at the same time, not to deprive artists of the deserved economic and moral recognition. The danger of major tech companies relocating from the United Kingdom underscores the gravity of the situation and what is at stake: a balanced intervention could turn into an opportunity for all parties involved, provided that the issues of transparency, regulatory clarity, and rights protection are addressed with a constructive and informed attitude.   Rights Reservation and Technical Standards: New Tools for Copyright in the AI Era The core of the proposed measures lies in an exception to copyright law that would allow data mining of freely accessible works, but with the right of copyright holders to “reserve” their works and prevent their use without a license. Part of the inspiration comes from the European Union, which has already introduced the idea of an exception for text and data mining with an opt-out mechanism. However, the British document points out that the European model is still not without problems, partly because the system for reserving rights in many cases remains insufficiently standardized and difficult to implement on a large scale. The hypothesis under consultation is to apply a “reserved rights” approach through technical solutions that make the rights holder’s intent clearly machine-readable. An existing example is the robots.txt file used by various publishers to block the scanning of their content, though it is deemed inadequate for managing selective control over AI model training. Indeed, a robots.txt file applies to an entire domain and is intended for search engines, not for machine learning systems that may require more targeted constraints. There are private initiatives that let creators register their works in databases, indicating their desire for exclusion. Some platforms, such as Spawning.AI , offer “Do Not Train” options, though the adoption of these tools is still inconsistent and requires cooperation from AI developers. As a result, the British government is considering regulating transparency and respect for rights reservation, requiring AI companies to disclose data sources and comply with any metadata or technical signals that prohibit the use of specific content. The aim is to foster a licensing market—particularly for large catalogs of content—in which owners can freely negotiate terms with AI providers. This presupposes the adoption of universally accepted technical standards to avoid the current fragmentation, where different developers implement proprietary methods, forcing authors to block each platform manually. It is noteworthy that the proposal also considers the needs of small innovative companies, which would be unable to negotiate individually with every rights holder or handle overly burdensome compliance processes. A system of collective licensing and shared codes could facilitate access to large datasets, spurring the development of high-quality AI products while respecting creators’ legitimate expectations. Concretely, if an author (or a major publisher) wants to grant a license for the use of their works for training purposes, they can remain within the exception without objecting, receiving compensation from deals with parties that need high-value datasets. Otherwise, they can reserve their rights and block any copying of their creations. This mix of freedom and control should serve as an incentive both for creators—who can offer licenses more transparently—and for AI developers—who will operate within a more secure framework. Standardization and government support in developing technical solutions are critical: this ranges from the need for protocols to read and apply “rights reservation” signals to the promotion of metadata applicable to individual works. There is also talk of potential public funding for research on mass labeling tools to help less-structured creators manage the enormous flow of circulating data. Without such standards, the legislation could be rendered ineffective. Without an automated mechanism, rights holders would be forced to verify compliance on a case-by-case basis, and developers would lack certainty about meeting requirements. Clearly, then, rights reservation must be paired with a practical way to enforce it, without creating excessive burdens on industry operators. Achieving this balance will require additional dialogue and practical testing.   Transparency and Collaboration between Creators and AI Developers The document underlines that the effectiveness of any new exception for text and data mining will depend on transparency. A major obstacle to mutual trust lies in the scarcity of information about the sources used to train generative models. Many creators have complained that they cannot determine whether their online content—often posted for promotional purposes—has been secretly copied to build massive datasets. AI companies, for their part, argue that revealing in detail millions of specific sources can be complex, especially when operating with datasets managed by third parties or open source resources without a centralized archive. This has led to the proposal of at least a “sufficiently detailed” obligation of disclosure, akin to what is prescribed in the EU AI Act, which asks developers to publish a list of the main databases and sources used in training while allowing for a certain degree of conciseness. The United Kingdom appears keen to coordinate with these international rules to avoid barriers to interoperability and maintain the attractiveness of its market. When structuring these transparency requirements, there must be consideration of potential conflicts with trade secrets and confidential information protections. Some AI developers might treat their data collection methods as company know-how, seeing it as harmful to disclose every source. At the same time, creators have the right to verify any unlawful uses of their works. The consultation therefore opens space for proposals on how to balance transparency with industrial secrecy, through partial disclosure procedures or the creation of an independent oversight body that could verify data sources without making all the details public. Another particularly relevant aspect is the so-called “labelling” of AI-generated content. Some platforms are already experimenting with automated tagging so that end users know that a text, image, or video was produced by a generative algorithm. This is important not only for copyright protection but also for reasons of proper information. For instance, if a reader does not realize that an article has been written by a natural language system, they might wrongly attribute to a flesh-and-blood journalist opinions and reflections that are generated by an automated process, potentially impacting reputation. In the realm of copyright, labeling content as “AI-generated” would enable quicker assessment of whether a model may have reproduced protected works. Internal traceability could also boost transparency: some algorithms, during the generation process, could save a “history” of how the content was created, helping prove that the text or image does not contain copyrighted material without authorization. In the consultation, the government emphasizes that it does not wish to impose heavy burdens on small businesses that use or develop AI; it seeks a balanced solution where the requirement for disclosure is proportional to the type of model, the scale of its use, and its purposes. If an application only generates brief excerpts for educational, non-commercial use, it would be unfair to require the same obligations as a major company distributing content to millions of users. The debate remains open, and international coordination should not be overlooked, especially given that many AI services are trained outside the UK and then made globally available, underscoring the need for interjurisdictional cooperation.   AI-Generated Works: Legal Challenges and Human Creativity A central point often discussed in the consultation concerns the protection of so-called computer-generated works, where a genuine human creative contribution cannot be identified. Under Section 9(3) of the UK Copyright, Designs and Patents Act, there is a specific 50-year protection for original works without a human author. However, this mechanism collides with the evolving concept of “originality” in case law, which has traditionally required intellectual input and creative decisions from a human author. Nowadays, the rise of generative systems (texts, images, videos, music) questions the very notion of copyright protection. If an algorithm produces a musical composition without any human compositional input, does granting copyright protection make sense, and to whom should it be assigned? Some argue that such protection is unnecessary because automated creativity does not require the same incentives as copyright. Others believe a basic form of protection could encourage companies or individuals to invest in software, neural networks, and infrastructure that produce content, creating economic advantages. Critics, however, respond that aside from the standard copyright that covers the “footprint” of a sound, a video, or a text (for example, on a recording), it is not appropriate to treat AI programs as artists. Many countries, including the United States, do not recognize protection in the absence of a human author, and this does not appear to have slowed the spread of AI. If an artist “assisted” by AI remains protected because their creativity, even when mediated by algorithmic tools, is still safeguarded under traditional copyright, purely automated creation is a separate matter. The consultation thus invites opinions on whether to abolish or amend Section 9(3) of the UK law, leaving other forms of protection—entrepreneurial in nature, such as the role of a “publisher” for a sound recording—to cover the economic interests of those who invest in AI projects. Another issue arises from the possibility that some AI-generated content might inadvertently plagiarize or contain substantial portions of protected works. If an AI model, trained on famous songs, were to produce remarkably similar tracks, it could violate existing copyrights. Developers try to manage this risk by introducing filters and internal checks, though results are not always foolproof. It therefore remains essential to determine whether generated content directly and substantially derives from protected works. This fourth section illustrates the complexity of defining and regulating computer-generated works. The choice to maintain, modify, or repeal legal protection for these creations has significant economic, legal, and cultural consequences and calls for extensive engagement from all stakeholders, including big tech companies, individual artists, universities, and small entrepreneurs that view AI as a competitive tool.   Digital Replicas and Responsibility: Strategies for a Balanced Ecosystem Another emerging topic addressed by the official document is that of digital replicas, often called deepfakes, which are synthetic content reproducing voice or appearance of real people without authorization. This raises significant concerns in the creative sector, particularly among musicians and actors since an AI model trained on audio or video recordings can faithfully recreate vocal or visual performances extremely like the original. While certain aspects of copyright, such as performance rights, can limit the use of specific vocal tracks or footage, these protections do not always suffice to deter the proliferation of synthetic imitations. Some authors advocate stronger personality rights—like those in some parts of the United States—to block the unauthorized use of their image or voice. The consultation notes that introducing a new personality right in UK law would be a major shift, as it involves privacy, freedom of expression, and commercial strategies of record labels and film production companies. The UK does recognize certain protections—such as the tort of passing off or personal data protection—but many actors and singers fear these measures are insufficient in the face of AI capable of generating highly realistic vocal and visual “clones.” Moreover, technologies like voice synthesis or 3D body modeling can now create “replicas” for advertising or marketing purposes without the person’s knowledge. Internationally, the consultation notes growing interest in ad hoc regulations, like those in California, and suggests that any decision in this area must consider this trend. Another key point revolves around the inference process, i.e., when AI already trained on data—protected—uses it in real time to generate answers or new content. For example, a “retrieval-augmented generation” system might read online news behind a paywall or covered by copyright, integrating it into a synthesis offered to the end user. While copyright law clearly bans the substantial reproduction of protected portions, the complexity of these models—capable of swiftly analyzing and reproducing vast amounts of articles—cannot be overlooked. The consultation thus asks whether current regulations adequately protect creators and encourage healthy technological development. Meanwhile, there are already forward-looking discussions regarding the use of synthetic data, specifically generated so as not to infringe copyright, potentially solving many issues. However, the actual market impact and how it affects the quality of AI solutions remains unclear. In such a fast-changing landscape, the government document sets itself up as a starting point for ongoing dialogue. The intention is to adopt a legislative framework that, on one hand, gives creators better tools to control and monetize their works, and on the other, continues to encourage major tech companies to invest and conduct research in the UK. This entails a careful assessment of the needs of smaller businesses and the academic community, which often require flexible rules to keep pace with progress.   Conclusions The reflections presented provide a realistic view of how difficult it is to strike a balance between innovation in the field of Artificial Intelligence and long-established rights within the creative industry. The United Kingdom, home to leading high-tech companies and boasting a significant cultural contribution, feels the need to clarify its legal framework to avoid uncertainty. Comparing its approach with other legal systems, such as those of the EU and the US, suggests that a text and data mining exception with the possibility of “rights reservation” is a feasible route—provided that technical tools and standardization protocols are implemented. Such measures could align creators’ interests, granting them the chance to opt for remunerative licenses, and AI developers’ interests, looking for secure access to vast amounts of data. However, a strong commitment to transparency remains indispensable so that training datasets and generated content can be more easily understood and monitored, especially regarding sensitive issues such as plagiarism or unlawful use of protected works. It is also necessary to consider existing technologies for disclosing the automated nature of content (e.g., labeling systems), enabling business leaders and entrepreneurs to make informed decisions about their strategies. While synthetic data use may offer an alternative, a decisive intervention on licensing mechanisms and limits to digital replicas—which risk devaluing creative performances and escalating tensions in the entertainment world—appears crucial. From a strategic perspective for businesses, it is essential to understand how this consultation and the related regulatory developments could affect investments. Clear rules and an effective licensing system might attract new AI enterprises, creating opportunities in publishing, music, and film. At the same time, creators need protections that reflect the value of their work and provide a balance between technological experimentation and economic return. The challenge lies in avoiding overly complex standards that would hamper smaller players, as well as overly simplified mechanisms that fail to provide solid rights protection. The scenario thus makes clear that doing nothing is no longer an option, given the speed of AI’s expansion and the growing frustration of those who fear losing control over their content. The British government’s current direction seeks to promote an environment of mutual trust, where every stakeholder—from startups to major technology conglomerates, all the way to individual authors—understands how to contribute to building an ecosystem in which innovation does not conflict with fair remuneration for creative works. The questions raised in the consultation invite all parties to participate with constructive proposals, because the outcome will affect the resilience of both the industrial and cultural sectors, as well as the broader need to imagine a future in which AI and human creativity can collaborate in a positive way, governed by clear rules. Podcast:   https://creators.spotify.com/pod/show/andrea-viliotti/episodes/Copyright-and-Artificial-Intelligence-Challenges-and-Opportunities-for-Creative-and-Technological-Industries-e2sn596 Source:   https://www.gov.uk/government/consultations/copyright-and-artificial-intelligence

  • Copyright e intelligenza artificiale: sfide e opportunità per le industrie creative e tecnologiche

    Il documento “ Copyright and Artificial Intelligence ” esplora le complesse relazioni tra Copyright e Intelligenza Artificiale, condotta dall’Intellectual Property Office del Regno Unito insieme al Department for Science, Innovation & Technology  e al Department for Culture, Media & Sport , affrontando il delicato equilibrio tra tutela delle opere creative e sviluppo di tecnologie basate sull’AI. Il documento evidenzia la necessità di nuove regole per supportare i diritti nel campo del Copyright e dell’Intelligenza Artificiale, favorendo trasparenza e innovazione. Questo tema coinvolge imprese, governi e utenti in un dialogo che punta a definire strumenti efficaci per proteggere l’espressione umana senza ostacolare la crescita del settore tecnologico, riconoscendo l’importanza della cooperazione internazionale e della chiarezza normativa. Copyright e intelligenza artificiale: sfide e opportunità per le industrie creative e tecnologiche Copyright e intelligenza artificiale: l’urgenza di una riforma normativa La consultazione evidenzia come l’Intelligenza Artificiale sia diventata un motore di crescita potenziale: il Fondo Monetario Internazionale, nel suo “World Economic Outlook” del 2024, sostiene che l’adozione di soluzioni AI potrebbe innescare incrementi di produttività fino a 1,5 punti percentuali l’anno. Allo stesso tempo, si sottolinea il valore delle industrie creative nel Regno Unito, capaci di generare 124,8 miliardi di sterline di valore aggiunto e di dare lavoro a migliaia di professionisti in settori che spaziano dall’editoria al cinema. Per comprendere la necessità di una riforma nel copyright, si deve prima inquadrare il contesto tecnologico nel quale operano le intelligenze artificiali di tipo generativo, sempre più dipendenti da enormi dataset costituiti, in molti casi, da opere protette. Il dibattito, in breve, si concentra sulla natura e sulla portata di ciò che la legge sul diritto d’autore dovrebbe consentire o impedire durante il processo di “training”, ovvero la fase in cui i modelli AI apprendono regole, stili e pattern dai contenuti disponibili in rete o in banche dati. Molte opere ospitate su Internet, come libri, testi di canzoni, immagini e illustrazioni, vengono estratte da crawler automatizzati che raccolgono risorse per arricchire i data lake di partenza per l’addestramento dell’AI. Questo processo, da un lato, spinge l’innovazione consentendo agli sviluppatori di ottenere algoritmi più performanti e accurati, ma dall’altro crea incertezza per gli autori che non sanno in che modo le proprie creazioni vengono usate, né se avranno diritto a compensi proporzionati. La consultazione governativa mette in luce la difficoltà di concepire una norma che sia efficace senza frenare lo sviluppo dell’AI. Da un lato, gli sviluppatori lamentano i rischi di sanzioni e cause legali, al punto da preferire l’addestramento dei loro modelli in Paesi con regole considerate più permissive o comunque più chiare. Dall’altro, i titolari di diritti affermano di non disporre di mezzi adeguati a verificare o bloccare l’uso non autorizzato delle proprie opere, con il risultato che non riescono a controllare l’impiego di materiale protetto, né a monetizzarlo attraverso licenze opportune. In questo scenario, il governo britannico propone di intervenire in modo diretto, ipotizzando una serie di misure che comprendano la trasparenza dei dataset, l’adozione di eccezioni mirate per il text e data mining, e la possibilità per i creatori di decidere in modo esplicito se riservare i propri diritti. Lo scopo è creare una struttura normativa che favorisca l’innovazione e, allo stesso tempo, metta i creatori nelle condizioni di negoziare e gestire l’uso delle loro opere. L’idea guida ruota attorno all’introduzione di un meccanismo di “riserva dei diritti” in cui l’accesso a materiale protetto per l’addestramento non sia automatico ma soggetto a clausole di licenza, nel caso in cui i detentori esprimano chiaramente una volontà di protezione. Il successo di tali misure dipende però da un coinvolgimento plurale: oltre agli operatori dell’industria creativa e ai fornitori di AI, occorre la partecipazione dei consumatori, delle autorità e degli organi di standardizzazione. Senza un protocollo tecnico condiviso e un’armonizzazione con gli altri sistemi legislativi, la nuova cornice rischia di restare teorica, lasciando irrisolto il nodo del controllo effettivo. Questa prima riflessione, dunque, evidenzia quanto sia indispensabile agire in tempi rapidi e in modo chiaro per non frenare i progressi dell’AI e, al contempo, non privare gli artisti del meritato riconoscimento economico e morale. Il pericolo di una fuga dei colossi tecnologici dal Regno Unito evidenzia la gravità della situazione e la posta in gioco: un intervento equilibrato potrebbe trasformarsi in un’opportunità per tutti i soggetti coinvolti, purché si affrontino i temi della trasparenza, della chiarezza normativa e della tutela dei diritti con un atteggiamento costruttivo e informato. Riserva dei diritti e standard tecnici: nuovi strumenti per il copyright nell’era AI Il cuore delle misure proposte risiede in un’eccezione al diritto d’autore che consenta il data mining sulle opere liberamente accessibili, ma con la facoltà per i titolari dei diritti di “riservare” le proprie opere e impedirne l’uso senza licenza. L’ispirazione proviene in parte dall’Unione Europea, dove si è già introdotta l’idea di un’eccezione per text e data mining con un meccanismo opt-out. Tuttavia, il documento britannico rileva che questo modello europeo non è ancora privo di problemi, perché in molti casi il sistema per riservare i diritti risulta poco standardizzato e di difficile applicazione su larga scala. L’ipotesi oggetto di consultazione è applicare un criterio di “diritti riservati” attraverso soluzioni tecniche che rendano la volontà del titolare chiaramente leggibile dalle macchine. Un esempio di strumento esistente è il file robots.txt, utilizzato da diversi editori per bloccare la scansione dei propri contenuti, ma ritenuto inadeguato a gestire il controllo selettivo sul training di modelli AI. In effetti, un file robots.txt vale per l’intero dominio ed è concepito per i motori di ricerca, non per sistemi di machine learning che potrebbero necessitare di vincoli più mirati. Esistono iniziative private che consentono ai creatori di registrare le proprie opere in database, indicando la volontà di esclusione. Alcune piattaforme, come Spawning.AI , forniscono opzioni denominate “Do Not Train”, ma la diffusione di questi strumenti non è ancora omogenea e richiede la collaborazione da parte degli sviluppatori di AI. Il governo britannico, dunque, valuta la possibilità di regolamentare i requisiti di trasparenza e di rispetto delle riserve, imponendo alle aziende che sviluppano AI di rivelare la provenienza dei dati e di rispettare eventuali metadata o segnali tecnici che negano l’autorizzazione all’uso del contenuto. L’obiettivo è rendere possibile un mercato delle licenze, specialmente su grandi cataloghi di contenuti, in cui i proprietari possano pattuire liberamente i termini con i fornitori di AI. Questo presuppone l’adozione di standard tecnici universalmente accettati, al fine di evitare la frammentazione attuale in cui diversi sviluppatori implementano metodi proprietari, costringendo gli autori a dover bloccare manualmente ogni piattaforma. È interessante notare che la proposta tiene in considerazione anche le esigenze di imprese innovative di piccole dimensioni, che non potrebbero permettersi di contrattare singolarmente con tutti i detentori di diritti o di sviluppare processi di conformità troppo onerosi. Un sistema di licenze collettive e di codici condivisi potrebbe facilitare l’accesso a dataset ampi, favorendo lo sviluppo di prodotti AI di alta qualità, con il rispetto delle legittime aspettative dei creatori. Nel concreto, se un autore (o un grande editore) desidera concedere la licenza per l’uso delle opere a scopi di training, potrà rimanere all’interno dell’eccezione senza opporsi, ricevendo compensi contrattati con i soggetti che fanno leva su dataset di pregio. In caso contrario, potrà riservare i diritti e impedire la copia delle sue creazioni. Questa combinazione di libertà e controllo dovrebbe rappresentare un incentivo sia per i creatori, che potranno offrire licenze in modo più trasparente, sia per gli sviluppatori di AI, che avranno un quadro più sicuro in cui operare. Il tema della standardizzazione e del sostegno governativo allo sviluppo di soluzioni tecniche è cruciale: si va dalla necessità di protocolli per leggere e applicare i segnali di “riserva dei diritti” alla promozione di metadati applicabili a singole opere. Si parla anche di forme di finanziamento pubblico per la ricerca di strumenti di etichettatura di massa, con l’obiettivo di aiutare specialmente i creatori meno strutturati a gestire l’enorme flusso di dati che circolano. L’assenza di questi standard rischia di vanificare la norma. Senza un meccanismo automatico, i titolari di diritti si troverebbero a dover verificare manualmente, caso per caso, e gli sviluppatori non avrebbero la certezza di essere conformi. È dunque evidente che la riserva dei diritti deve accompagnarsi alla possibilità concreta di esercitarli, senza gravare eccessivamente sugli operatori di settore, in un equilibrio che richiederà ulteriori confronti e sperimentazioni pratiche. Trasparenza e collaborazione tra creatori e sviluppatori di AI Il documento sottolinea che l’efficacia di qualsiasi nuova eccezione sul text e data mining dipenderà in larga misura dalla trasparenza . Un ostacolo alla fiducia reciproca risiede infatti nella scarsità di informazioni in merito alle fonti utilizzate per addestrare i modelli generativi. Molti creatori si sono lamentati dell’impossibilità di sapere se i propri contenuti, spesso pubblicati online a fini promozionali, siano stati copiati in segreto per costruire dataset enormi. Le imprese dell’AI, dal canto loro, affermano che rivelare in dettaglio milioni di fonti specifiche potrebbe essere complesso, soprattutto quando si opera con dataset gestiti da terzi o si utilizzano risorse open source prive di un archivio centralizzato. Da qui nasce la proposta di stabilire un obbligo di comunicazione perlomeno “sufficientemente dettagliato”, come avviene nel regolamento europeo sull’Intelligenza Artificiale (EU AI Act), in cui si chiede agli sviluppatori di divulgare la lista dei principali database e le fonti usate nell’addestramento, ammettendo un certo margine di sintesi. Il Regno Unito sembra intenzionato a coordinarsi con queste norme internazionali, per evitare ostacoli all’interoperabilità e mantenere l’attrattività del proprio mercato. Nell’articolare queste richieste di trasparenza, occorre valutare anche l’eventuale conflitto con i segreti commerciali e la protezione delle informazioni riservate. Alcuni sviluppatori di AI potrebbero tutelare le proprie metodologie di raccolta dati come know-how aziendale, ritenendo dannoso dover divulgare ogni fonte. D’altra parte, i creatori hanno diritto di verificare eventuali usi illeciti delle proprie opere. La consultazione apre dunque uno spazio per proposte su come equilibrare trasparenza e tutela dei segreti industriali, magari prevedendo meccanismi di disclosure parziale o la creazione di un ente di controllo indipendente che possa accertare la provenienza dei dati senza rendere pubblici tutti i dettagli. Un altro aspetto di particolare rilevanza è la cosiddetta “labelling” o etichettatura dei contenuti generati da AI. Alcune piattaforme sperimentano già soluzioni di marcatura automatica, affinché l’utente finale sappia che un testo, un’immagine o un video sono stati prodotti da un algoritmo generativo. Questo è importante non solo per questioni di tutela del diritto d’autore, ma anche per motivi di correttezza informativa. Se, per esempio, un lettore non sa di trovarsi di fronte a un articolo steso da un sistema di linguaggio naturale, potrebbe attribuire a un giornalista in carne e ossa opinioni e riflessioni che invece sono uscite da un processo automatizzato, con possibili implicazioni in termini di reputazione. Nel caso del diritto d’autore, etichettare i contenuti come “AI-generated” consentirebbe di verificare con maggiore immediatezza se un modello abbia, eventualmente, replicato in modo sostanziale opere protette. Un aiuto alla trasparenza potrebbe anche provenire dalla tracciabilità interna: alcuni algoritmi, durante la generazione, potrebbero salvare una “storia” del processo creativo, facilitando la dimostrazione che il testo o l’immagine non contengono porzioni coperte da copyright senza autorizzazione. Il governo, nella consultazione, sottolinea che non intende appesantire troppo l’attività di piccole realtà imprenditoriali che usano o sviluppano AI: ciò che si cerca è una soluzione equilibrata, in cui esista un onere di disclosure proporzionale al tipo di modello, alla scala di utilizzo e alle finalità. Se un’applicazione generasse solo brevi estratti per uso educativo e senza finalità commerciali, potrebbe essere ingiusto imporre gli stessi obblighi di una grande azienda che produce contenuti destinati a milioni di utenti. Il dibattito rimane aperto, e anche la dimensione internazionale non va sottovalutata, soprattutto perché molti servizi AI vengono addestrati fuori dal Regno Unito e poi resi disponibili globalmente, rendendo cruciale una cooperazione tra diverse giurisdizioni. Opere generate da AI: sfide legali e creatività umana Un punto nevralgico, spesso discusso nella consultazione, riguarda la protezione delle cosiddette computer-generated works  in cui non si riesce a identificare un autentico contributo creativo umano. La legge britannica, in base alla sezione 9(3) del Copyright, Designs and Patents Act, prevede una tutela specifica con durata di 50 anni per le opere originali prive di autore umano. Questo meccanismo, però, si scontra con l’evoluzione del concetto di “originalità” nella giurisprudenza, che tradizionalmente richiede un apporto intellettuale e scelte creative di un autore in carne e ossa. Oggi, la crescita dei sistemi generativi (testi, immagini, video, musica) interroga il senso stesso della tutela. Se l’algoritmo produce un brano musicale senza alcun intervento compositivo umano, ci si domanda se abbia senso garantire un diritto d’autore, e a chi eventualmente riconoscerlo. Alcuni sostengono che questa protezione non serva, perché la creatività automatica non necessita di incentivi come il copyright. Altri reputano che una tutela di base possa spingere le aziende o i singoli a investire in software, reti neurali e infrastrutture che producano contenuti, creando un vantaggio economico. I critici, però, obiettano che, al di là del regolare copyright che copre il suono, il video o il testo come “impronta” (ad esempio su un disco), non è opportuno attribuire uno status assimilabile a quello degli artisti ai programmi di AI. Molti Paesi, come gli Stati Uniti, non riconoscono la protezione in assenza di un autore umano, e ciò non sembra aver rallentato la diffusione dell’AI. Se un’artista “assistito” dall’AI rimane comunque protetto, dal momento che la sua creatività, anche mediata da strumenti algoritmici, è tutelata dal diritto d’autore tradizionale, è la creazione puramente automatica a essere discussa. La consultazione invita quindi a pronunciarsi sull’ipotesi di rimuovere o riformare la sezione 9(3) della legge britannica, lasciando ad altre forme di tutela – per esempio imprenditoriale, come accade per il “publisher” di una registrazione sonora – il compito di coprire gli interessi economici di chi investe in progetti di AI. Un ulteriore problema riguarda la possibilità che alcuni contenuti generati dalle macchine contengano plagio involontario o porzioni sostanziali di opere protette. Se una AI fosse addestrata con canzoni famose e ne producesse brani simili, potrebbe violare i diritti d’autore esistenti. Gli sviluppatori tentano di arginare questo rischio introducendo filtri e controlli interni, ma non sempre con risultati perfetti. Rimane dunque essenziale poter stabilire con certezza se un contenuto generato derivi in modo diretto e sostanziale da un’opera protetta. In definitiva, questa quarta sezione mette in luce la complessità di definire e regolare le computer-generated works. La scelta tra mantenere, modificare o abrogare la protezione legale a tali creazioni ha conseguenze non trascurabili sul piano economico, giuridico e culturale, e richiede un confronto allargato con tutti i soggetti interessati, dai giganti tecnologici ai singoli artisti, dalle università ai piccoli imprenditori che vedono nell’AI uno strumento di competitività. Digital replicas e responsabilità: strategie per un ecosistema equilibrato Un tema emergente che il documento ufficiale affronta è quello delle digital replicas , spesso chiamate deepfake, ovvero contenuti sintetici che riproducono fedelmente voce o aspetto di persone reali senza autorizzazione. Ciò suscita preoccupazioni notevoli nel settore creativo, in particolare tra musicisti e attori, poiché un modello di AI addestrato su registrazioni audio o video può ricreare interpretazioni vocali e visive molto simili alle performance originali. È vero che diversi elementi di diritto d’autore, come i diritti sulle esecuzioni, potrebbero limitare l’uso di tracce vocali o filmati specifici, ma non sempre queste forme di protezione bastano a evitare il proliferare di imitazioni sintetiche. Alcuni autori invocano “personality rights” più forti, sul modello di certi ordinamenti statunitensi, per poter bloccare l’impiego non autorizzato della propria immagine o voce. La consultazione osserva che introdurre un nuovo diritto di personalità costituirebbe un notevole cambiamento per la legge britannica, poiché coinvolge aspetti di privacy, libertà di espressione e strategie commerciali di etichette discografiche e case di produzione cinematografiche. Il Regno Unito riconosce forme di tutela come il tort di passing off o la protezione dei dati personali, ma molti attori e cantanti temono che queste non siano abbastanza efficaci dinanzi a un’AI in grado di generare “cloni” vocali e visivi di grande realismo. Vi è poi il tema delle tecnologie emergenti come la sintesi vocale o la generazione di modelli corporei tridimensionali che possono creare “repliche” persino per scopi pubblicitari o di marketing, senza che la persona ne sia a conoscenza. Sul piano internazionale, la consultazione registra un interesse crescente verso normative ad hoc, come quella californiana, e suggerisce che qualsiasi decisione in materia dovrà tener conto di questo trend. Un ulteriore nodo riguarda il processo di “inference”, ossia la fase in cui l’AI già addestrata utilizza dati, anche protetti, per generare risposte o nuovi contenuti in tempo reale. Ad esempio, un sistema di “retrieval-augmented generation” può leggere online news coperte da paywall o da diritti, integrandole in un testo di sintesi offerto all’utente finale. Se la legge sul diritto d’autore è chiara sul divieto di riproduzione sostanziale di parti protette, non si può ignorare la complessità di questi modelli, che potrebbero analizzare e riprodurre rapidamente una grande quantità di articoli. La consultazione chiede quindi di valutare se l’attuale quadro normativo sia adeguato a tutelare i creatori e a promuovere uno sviluppo sano della tecnologia. Nel frattempo, si guarda già al futuro: l’utilizzo di dati sintetici, generati apposta per addestrare un modello senza violare i diritti d’autore, potrebbe risolvere gran parte dei problemi, ma è ancora incerto quanto ciò incida effettivamente sul mercato e sulla qualità delle soluzioni AI. In un panorama così in evoluzione, il documento governativo si propone come punto di partenza per un processo di confronto continuo. L’intento è procedere con un intervento legislativo che, da un lato, dia ai creatori maggiori strumenti di controllo e di monetizzazione e, dall’altro, continui a invogliare le grandi imprese del settore a investire e a fare ricerca in territorio britannico. Ciò implica un’accorta valutazione delle esigenze delle imprese di dimensioni ridotte e della comunità accademica, che spesso necessitano di regole flessibili per non rimanere escluse dal progresso. Conclusioni Le riflessioni emerse mostrano in modo piuttosto realistico quanto sia difficile trovare un punto di equilibrio tra l’innovazione nel settore dell’Intelligenza Artificiale e i diritti consolidati dell’industria creativa. Il Regno Unito, ospitando importanti aziende hi-tech e vantando un contributo culturale considerevole, sente l’esigenza di chiarire le regole in modo da non generare incertezza giuridica. Il confronto con altre normative, come quelle europee e statunitensi, suggerisce che un modello di eccezione per il text e data mining con la possibilità di “riserva dei diritti” sia una strada percorribile, a patto che siano introdotti strumenti tecnici e protocolli di standardizzazione. Questo potrebbe allineare gli interessi dei creatori, dando loro la possibilità di optare per licenze remunerative, e degli sviluppatori di AI, che desiderano un accesso sicuro a grandi quantità di dati. Rimane però indispensabile un impegno sul fronte della trasparenza , affinché i dataset di addestramento e i contenuti generati siano più comprensibili e monitorabili, in particolare quando si parla di aspetti sensibili come plagio o violazione di opere protette. Occorre altresì riflettere sulle tecnologie già disponibili per rivelare la natura automatica di un contenuto (come sistemi di etichettatura), in modo che dirigenti aziendali e imprenditori possano decidere in maniera informata sulle strategie da adottare. Se è vero che soluzioni come l’impiego di dati sintetici offrono possibili alternative, appare comunque decisivo l’intervento su meccanismi chiari di licensing e sui limiti alle cosiddette digital replicas, che rischiano di indebolire il valore delle performance creative e di acuire tensioni con il mondo dello spettacolo. Da un punto di vista strategico per le imprese, è cruciale capire come questa consultazione e i relativi sviluppi normativi possano impattare sugli investimenti. La presenza di regole certe e di un sistema di licenze efficace potrebbe attrarre nuove realtà AI, generando opportunità nei settori editoriale, musicale e cinematografico. Al contempo, i creatori necessitano di tutele che riconoscano il valore della loro produzione e assicurino un equilibrio tra sperimentazione tecnologica e ritorno economico. La sfida sta nell’evitare standard troppo complessi, che penalizzerebbero i più piccoli, e meccanismi troppo semplificati, che non difenderebbero in modo concreto i diritti. Questo quadro rende evidente che il “fare nulla” non è più un’opzione praticabile, data la velocità con cui l’AI si sta diffondendo e la crescente irritazione di chi teme di perdere il controllo sui propri contenuti. La direzione intrapresa dal governo britannico mira a promuovere un clima di fiducia reciproca, in cui ogni attore, dalla startup ai grandi conglomerati tecnologici, fino al singolo autore, comprenda come contribuire alla costruzione di un ecosistema in cui l’innovazione non contrasti con la giusta remunerazione delle opere creative. Le domande poste nella consultazione invitano tutti i soggetti a partecipare con proposte costruttive, perché la partita si gioca sia sulla tenuta del sistema industriale e culturale, sia sull’esigenza di immaginare un futuro in cui AI e creatività umana possano collaborare in modo virtuoso e regolato da norme chiare.   Podcast: https://creators.spotify.com/pod/show/andrea-viliotti/episodes/Copyright-e-intelligenza-artificiale-sfide-e-opportunit-per-le-industrie-creative-e-tecnologiche-e2sn58v Fonte:   https://www.gov.uk/government/consultations/copyright-and-artificial-intelligence

  • Generative AI Ethics: Implications, Risks, and Opportunities for Businesses

    “ Mapping the Ethics of Generative AI: A Comprehensive Scoping Review ” is a work carried out by Thilo Hagendorff at the Interchange Forum for Reflecting on Intelligent Systems at the University of Stuttgart. Published in Minds and Machines  (2024), the research focuses on the ethical analysis of generative artificial intelligence, with particular attention to large language models and text-to-image systems. The main goal was to systematically map the most significant regulatory and ethical aspects, identifying 19 thematic areas and 378 key issues. This review is of particular interest to anyone looking to understand the impact of these tools in business, institutional, and societal contexts. Generative AI Ethics: Implications, Risks, and Opportunities for Businesses Methodology of the Scoping Review and Implications for Generative AI Ethics The foundations of the research originated from the need to organize the growing body of studies on the ethics of generative AI. In 2021, there was a large-scale spread of models like DALL-E and, later, ChatGPT, drawing the attention of companies, experts, and enthusiasts eager to leverage their advantages or better understand their side effects. To avoid fragmentary assessments, the researchers adopted a methodology centered on the scoping review, which aims to survey many texts to identify trends, gaps, and potential biases. Initially, 29 keywords were used across various databases—including Google Scholar and arXiv—selecting the top relevant results for each search. A meticulous process of eliminating duplicates followed, reducing an initial total of 1,674 results to 1,120 actual documents. This group was then filtered based on specific relevance criteria, leaving 162 papers for full reading. To complete the picture, the technique known as “citation chaining” was employed, adding a further 17 documents, thus arriving at 179 texts deemed suitable for the final analysis. Using qualitative analysis software, the content of these publications was subdivided into hundreds of textual segments, classified, and recombined to form a comprehensive taxonomy. Thanks to this process, a wide-ranging map of generative AI ethics emerged, encompassing not only the well-known themes—such as privacy and bias—but also less explored issues, including security from the perspective of potential misuse and the potential for large-scale disinformation. One of the most relevant outcomes was the identification of 378 regulatory questions organized into 19 thematic areas, ranging from fairness to the impact on art, as well as concepts like AI alignment or the analysis of the so-called “hallucination” in language models. Despite the systematic structure, the researchers also noted an asymmetry: many publications focus on negative aspects, overlooking beneficial scenarios or opportunities for sustainable development. This not only entails a risk of duplication and amplification of the same concerns but also a potential distortion effect, fueled by a tendency to highlight rare or not yet confirmed risks. From the outset, therefore, there is a clear need for a more balanced approach that includes empirical analyses and open dialogue about the various facets of these systems, providing entrepreneurs and managers with useful elements for informed decision-making.   Generative AI Ethics: Fairness, Security, and Harmful Content Impacts The scoping review indicates that fairness  is one of the central issues in the ethics of generative AI. Language models and image generators rely on large datasets, and if those datasets are tainted by stereotypes or imbalances, the technology perpetuates or magnifies existing discrimination. Some of the cited studies highlight cases of racism, sexism, or marginalization of minorities, particularly when the initial data came from culturally limited contexts. In a scenario where big players develop high-cost platforms and concentrate significant resources, there is growing concern about economic polarization and uneven accessibility, leaving developing countries at risk of being excluded from progress. A second core topic, following fairness, is security . Many reflections revolve around the fear that generative models might reach—or pretend to reach—human-like or superior capacities, creating scenarios of existential risk. Although these hypotheses are based on future developments, some authors stress the importance of adopting “safe design” strategies and fostering a culture of caution within research environments, in order to avoid an unconditional race for innovation. Proposed tools include independent monitoring, robustness testing, and the creation of emergency procedures. At the same time, concerns arise about the malicious use of AI, with hostile groups ready to exploit models to automate the planning of biological attacks or hacking activities. The issue of harmful content  covers various phenomena, ranging from toxic or violent texts to the creation of disinformation and deepfakes. The review shows that generating false news, propaganda, or highly realistic but fabricated images could undermine the public’s trust in media and digital platforms, creating both social and economic problems. Concrete examples include the design of online scams, voice cloning, and the manipulation of user opinions. From a corporate perspective, the spread of harmful content could trigger reputational damage and lead to new forms of unfair competition, as well as prompt stricter moderation policies. A separate section should be dedicated to the hallucinations  of language models, which occasionally produce blatantly incorrect or unconsciously fabricated information while presenting it as factual. This problem can lead to incorrect medical or legal suggestions, with potentially harmful outcomes. Some studies highlight that, while the systems provide answers with apparent absolute certainty, they lack the capability to “understand” the truthfulness of what they assert. This has led to calls from the business sector for continuous validation procedures, integrating these models into workflows supervised by human expertise. Regarding privacy , it emerged that training models on large volumes of data gathered from the web may facilitate information leaks or, in more serious cases, true violations of sensitive data. However, various proposals aim to mitigate this risk, for instance, through pseudonymization methods or synthetic training sets that reduce the direct collection of personal data. These issues require global attention, as national borders are insufficient to contain a phenomenon that is inherently transnational.   Alignment and Governance in Generative AI Ethics In addition to the more immediately visible themes, the research delves into areas that often do not receive comparable attention but could significantly influence corporate strategies and public policy. One such area is AI alignment , understood as the set of methodologies to ensure that generative models adhere to human values and intentions. While there is broad agreement that systems should be reliable, useful, and non-harmful, a crucial question emerges: how exactly do we determine the “right” set of values? There is a risk that controlling the technology will reflect the preferences of those who develop it, potentially resulting in cultural colonialism on a global scale. The issue of governance  intertwines with the problem of alignment. Parts of the debate advocate stricter regulations, such as mandatory safety standards or third-party audits of training techniques. Among the prominent ideas is that legislators should acquire a detailed understanding of development processes in major AI labs, avoiding both regulatory voids and bureaucratic overreach that could stifle innovation. Additionally, some call for the establishment of international partnerships wherein technical and ethical expertise is shared to define common guidelines. For businesses, the ethics of generative AI involves reflections on economic impact and shifts in the labor market. Several studies envision scenarios of technological unemployment, where advances in generative AI replace repetitive or partially automatable jobs in fields ranging from customer service to software engineering. Yet there is also consideration of new professional avenues, such as the “prompt engineer,”  who specializes in interacting with the model to obtain customized results. For executives and entrepreneurs, this topic is complex: on one hand, introducing these systems can reduce costs, boost productivity, and spawn new industries; on the other, it poses a social management challenge, because acquiring the necessary skills is not always straightforward. Sometimes, the literature highlights risks of excessive anthropocentrism : for instance, potential implications for animals or the environment may be overlooked if these systems lead to increased resource consumption or drastic changes in the production chain. Consequently, it appears necessary to go beyond the human perspective and measure sustainability across multiple levels. Sustainability itself is another relevant aspect, given the energy required to train large models, which can conflict with corporate emission-reduction policies.   Generative AI Ethics: Research, Art, and Education A lesser-explored aspect of the scoping review concerns the repercussions of generative AI on the academic and creative worlds. In scientific research , many scholars worry that the unrestrained use of text generation systems might flood editorial channels with superficial or automatically drafted articles. Moreover, there is concern about the loss of writing and critical analysis skills, especially among new generations of researchers who may rely on AI to rework or summarize content without fully developing scientific competencies. Some journals have begun introducing restrictions on the use of generative models for manuscript drafting, occasionally going so far as to formally prohibit AI co-authorship. In education , contrasting scenarios emerge. On one hand, some see in these tools the possibility of personalizing learning paths, providing students with tailor-made resources and explanations. On the other, fears arise about an increase in cheating, that is, the practice of having AI write papers or essays. Distinguishing between AI-generated text and human-generated text becomes increasingly difficult, and academic institutions question how to accurately assess student preparation. Some experts suggest investing in “advanced digital literacy,” so that teachers and learners understand the mechanisms behind these models, learning to employ them responsibly and constructively. On the artistic front, the generation of images and sounds via AI models prompts profound reflections on the essence of creativity and copyright. The fact that a digital work can mimic recognizable styles has already led to legal disputes, with artists complaining about the lack of consent for using their work as training data. Others debate how to assign authorship value to an output produced by an algorithm. At the same time, there are analyses highlighting innovative perspectives: AI can facilitate stylistic experimentation, new combinations, and even help non-professional creators approach the art world. Finally, copyright issues also surface: by memorizing and reworking portions of protected text or images, AI may infringe on intellectual property rights. Proposed solutions range from watermarking mechanisms, which make synthetic content identifiable, to economic compensation initiatives for artists and authors whose works have been used as training data. Although the regulatory framework is still evolving, awareness of these dilemmas emerges forcefully from recent literature.   Generative AI Ethics: Critical Perspective and Future Scenarios Another prominent element in the scientific review is the negativity bias : much of the research concentrates on possible harmful consequences, emphasizing them through chains of citations that, in the authors’ view, may at times provoke excessive alarm. Consider the repeated references to creating pathogens or employing models for terrorist activities: hypotheses that, although mentioned by multiple sources, do not always find solid empirical confirmation. Similarly, the issue of privacy violations is frequently reiterated, but questions arise about whether models can truly retrieve precise personal information related to specific individuals or if this possibility has been overstated. Some urge caution, pointing out the need for empirical research : many fears remain anecdotal or based on limited evidence. The study’s authors argue it would be advisable to invest in controlled research, for example, examining whether and how generative AI worsens cybersecurity or genuinely facilitates mass manipulation. Without concrete data, the risk of polarized debate remains, failing to identify the real priorities for the private and public sectors. Along these lines, there is also a recommendation to evaluate each risk in a cost-benefit scenario, recognizing the technology’s positive aspects, such as reduced consumption for certain repetitive tasks or increased speed in testing digital prototypes. Another critical issue lies in the tendency to link every development to the hypothetical “superintelligence.” This shifts the discussion to a frequently speculative level, where risks like systematic model disobedience or a power takeover are emphasized. While literature agrees on the need to consider adverse scenarios, some scholars recommend focusing urgently on more immediate problems, such as moderating generated content and defining large-scale safety standards. Ultimately, the scoping review points out the cumulative effect of medium-to-small risks. Instead of waiting for a single catastrophe, there may be a series of smaller problems that, if unmanaged, lead to significant social and economic repercussions. Companies and executives are encouraged to take preventive action that includes staff training, periodic audits, the use of detection tools, and interfaces that facilitate human content verification. The most farsighted strategy seems to be integrating generative AI into well-designed processes, adopting continuous monitoring and a set of parameters and protocols to balance the benefits against potential drawbacks.   Conclusions The research highlights a scenario in which generative artificial intelligence emerges as a complex and constantly evolving phenomenon. Although the analysis is thorough and backed by solid methodology, it appears weighted toward emphasizing risks, leaving in-depth discussion of the positive opportunities and numerous beneficial applications somewhat in the background. A comparison with related technologies—such as traditional machine learning systems—reveals that issues like fairness, security, and bias had already drawn attention in the past, but now they take on new dimensions. The increase in generative capabilities and broader public accessibility amplifies both the positive effects and the potential for misuse. For businesses, a realistic interpretation of these findings suggests the importance of strategic caution. On one hand, the prospect of improvements in automation, customer relations, and data analysis drives many sectors to invest in such systems. On the other hand, the lack of effective alignment and control measures could lead to economic, legal, or reputational repercussions. Compared to similar technologies, generative AI stands out in its ability to produce highly credible text and multimedia content, lowering the barrier for large-scale manipulation. However, the emergence of watermarking and automatic detection solutions for synthetic content creates opportunities for greater accountability. From an executive perspective, the data calls for interpreting the research and constructing governance models aimed at a balanced integration of these new technologies. Measures such as transparency, traceability, and maintaining human expertise at critical points in decision-making processes represent long-term investments. Unlike other existing solutions, generative AI operates on a linguistic and creative scale, influencing a vast array of possible applications—from chatbots to marketing campaign design—and carrying deeper implications for information and culture. The future challenge is not limited to pondering how much this technology will advance, but rather how to weave together business growth objectives and value-based dimensions. In a context where science struggles to precisely quantify risks, pragmatic approaches are emerging, suggesting a phased process of testing and continuously adjusting safety guidelines and impact assessments. All of this must be done without being trapped by generalized alarmism: the key lies in constant awareness, with companies and managers employing documented data and evaluation criteria, avoiding decisions based solely on fleeting trends. A constructive convergence of regulation, innovation, and ethical sensitivity could yield significant results, if dialogue remains open and that connections with scientific, legislative, and social communities are nurtured. This way, the full potential of generative AI can be harnessed without overlooking its complex implications. Podcast: https://creators.spotify.com/pod/show/andrea-viliotti/episodes/Generative-AI-Ethics-Implications--Risks--and-Opportunities-for-Businesses-e2smfri Source:   https://arxiv.org/abs/2402.08323

  • Etica dell’AI generativa: implicazioni, rischi e opportunità per le aziende

    “ Mapping the Ethics of Generative AI: A Comprehensive Scoping Review ” rappresenta un lavoro condotto da Thilo Hagendorff  e realizzato presso l’ Interchange Forum for Reflecting On Intelligent Systems dell’Università di Stoccarda. La ricerca, pubblicata su Minds and Machines (2024) , si focalizza sull’analisi etica dell’intelligenza artificiale generativa, con particolare riguardo a modelli di linguaggio di grandi dimensioni e sistemi text-to-image. L’obiettivo è stato creare una mappatura sistematica dei principali aspetti normativi ed etici, individuando 19 aree tematiche e 378 questioni chiave. La rassegna risulta di particolare interesse per chiunque desideri comprendere l’impatto di tali strumenti nel contesto di imprese, istituzioni e società. Etica dell’AI generativa: implicazioni, rischi e opportunità per le aziende Metodologia della scoping review e implicazioni sull’etica dell’AI generativa Le premesse della ricerca hanno avuto origine dall’esigenza di organizzare la crescente mole di studi sull’etica dell’AI generativa. Nel 2021 si è assistito a una diffusione su larga scala di modelli come DALL-E e, più avanti, ChatGPT, soluzioni che hanno richiamato l’attenzione di aziende, esperti e appassionati desiderosi di sfruttarne i vantaggi o di comprenderne meglio gli effetti collaterali. Con l’obiettivo di evitare valutazioni frammentarie, gli studiosi hanno adottato una metodologia incentrata sulla scoping review , ossia un metodo che punta a scandagliare un vasto numero di testi per individuarne tendenze, lacune e potenziali bias. In primo luogo, sono state impiegate 29 parole chiave  in diverse banche dati, tra cui Google Scholar e arXiv, selezionando i primi risultati rilevanti per ciascuna ricerca. In un secondo momento è avvenuto un meticoloso lavoro di eliminazione di duplicati, riducendo un totale iniziale di 1.674 risultati a 1.120 documenti  effettivi. Quest’ultimo gruppo è stato poi filtrato in base a criteri di pertinenza specifici, lasciando 162 paper  sottoposti a lettura integrale. Per completare il quadro, si è proceduto con la cosiddetta tecnica del “citation chaining”, che ha aggiunto ulteriori 17 documenti , raggiungendo così la cifra di 179  testi ritenuti idonei alla disamina finale. Con l’ausilio di un software di analisi qualitativa, i contenuti di queste pubblicazioni sono stati suddivisi in centinaia di porzioni testuali, classificate e ricombinate per formare una tassonomia completa. Grazie a questa procedura, è stata delineata una mappa piuttosto variegata dell’ etica dell’AI generativa , che abbraccia non solo i temi già noti, come privacy e bias, ma anche questioni meno esplorate, tra cui la sicurezza in un’ottica di possibili abusi e il potenziale di disinformazione ad ampio raggio. Uno dei traguardi più rilevanti emersi riguarda l’identificazione di 378 questioni normative organizzate in 19 aree tematiche , dalla fairness all’impatto sull’arte, fino a concetti come l’AI alignment o l’analisi della cosiddetta “hallucination” dei modelli linguistici. Nonostante la struttura sistematica, i ricercatori hanno altresì notato un’asimmetria: molte pubblicazioni si concentrano sugli aspetti negativi, trascurando scenari benefici o opportunità di sviluppo sostenibile. Questo comporta non solo un rischio di duplicazione e amplificazione delle stesse preoccupazioni, ma anche un potenziale effetto di distorsione, alimentato dalla tendenza a riportare rischi rari o non ancora confermati. Emerge dunque, fin dall’inizio, l’esigenza di un approccio più bilanciato che includa analisi empiriche e un dialogo aperto sulle diverse sfaccettature di questi sistemi, in modo da fornire a imprenditori e dirigenti elementi utili per prendere decisioni informate. Etica dell’AI generativa: equità, sicurezza e impatti dei contenuti dannosi La scoping review segnala che la fairness, ovvero l’equità, è una delle questioni centrali nell’etica dell’AI generativa. I modelli di linguaggio e i generatori di immagini attingono a grandi dataset e, se tali dati sono viziati da stereotipi o squilibri, la tecnologia perpetua o amplifica discriminazioni esistenti. Alcuni studi menzionati mettono in rilievo casi di razzismo, sessismo o marginalizzazione  di minoranze, soprattutto se i dati di partenza provenivano da contesti culturalmente limitati. In una dinamica dove i big player sviluppano piattaforme ad alto costo e concentrano risorse significative, si fa strada il timore di una polarizzazione economica e di un’accessibilità disomogenea, con Paesi in via di sviluppo che rischiano di restare esclusi dal progresso. Un altro nucleo tematico, secondo solo alla fairness, è quello della sicurezza . Molte riflessioni riguardano il timore che i modelli generativi possano raggiungere, o fingere di raggiungere, capacità simili o superiori all’uomo, configurando scenari di rischio esistenziale. Sebbene queste ipotesi si basino su sviluppi futuribili, alcuni autori evidenziano l’importanza di adottare strategie di “safe design” e di coltivare una cultura della prudenza negli ambienti di ricerca, per evitare la spinta a una corsa incondizionata all’innovazione. Vengono così proposti strumenti come il monitoraggio indipendente, i test di robustezza e la creazione di procedure di emergenza. In parallelo, si segnalano preoccupazioni sull’eventuale impiego doloso dell’AI, con gruppi ostili pronti a sfruttare i modelli per automatizzare la pianificazione di attacchi biologici o di hacking. La questione dei contenuti dannosi  racchiude diversi fenomeni: da testi tossici o violenti, fino all’elaborazione di disinformazione e deepfake. La review mostra che la generazione di false notizie, propaganda o immagini realistiche ma inventate potrebbe minare la fiducia del pubblico verso media e piattaforme digitali, creando un problema di ordine sia sociale sia economico. Alcuni esempi concreti includono la progettazione di truffe online, la clonazione vocale e la manipolazione delle opinioni degli utenti. Nella prospettiva del mondo aziendale, la diffusione di contenuti nocivi potrebbe innescare danni reputazionali e generare nuove forme di concorrenza sleale, oltre a richiedere politiche di moderazione più stringenti.Un capitolo a sé merita il fenomeno delle hallucinations  dei modelli linguistici, i quali talvolta producono informazioni palesemente errate o inconsapevolmente inventate, ma presentate come vere. Questo problema può tradursi in suggerimenti medici o legali sbagliati, con conseguenze potenzialmente dannose. Alcune ricerche sottolineano che i sistemi, pur formulando risposte con assoluta sicurezza apparente, non possiedono la capacità di “comprendere” la veridicità di quanto affermano. Ne deriva un invito rivolto al mondo imprenditoriale affinché predisponga procedure di convalida continua, in modo da integrare i modelli in flussi di lavoro supervisionati da competenze umane. Sul fronte della privacy , infine, è emerso come l’addestramento di modelli su grandi quantità di dati raccolti dal web possa favorire fughe di informazioni o, nei casi più gravi, vere e proprie violazioni di dati sensibili. È vero però che diverse proposte cercano di mitigare questo rischio, per esempio con metodi di pseudonimizzazione o con set di addestramento sintetici, riducendo la raccolta diretta di dati personali. Si tratta di questioni che richiedono un’attenzione globale, poiché i confini nazionali non bastano a contenere un fenomeno intrinsecamente transnazionale. Allineamento e governance nell’etica dell’AI generativa Oltre alle tematiche più immediatamente visibili, la ricerca analizza filoni che spesso non ricevono un’attenzione paragonabile, ma potrebbero incidere in modo rilevante sulle strategie aziendali e sulle politiche pubbliche. Uno di questi riguarda l’ AI alignment , inteso come l’insieme di metodologie per rendere i modelli generativi aderenti ai valori e alle intenzioni umane. Se da un lato vi è consenso sul fatto che i sistemi debbano risultare affidabili, utili e non lesivi, dall’altro emerge un interrogativo cruciale: come stabilire con esattezza la “giusta” griglia di valori? Il rischio è che il controllo della tecnologia finisca per riflettere le preferenze di chi la progetta, con potenziali forme di colonialismo culturale su scala globale. La questione della governance  si intreccia con il problema dell’allineamento. Alcune parti del dibattito propongono regolamentazioni più rigide, come standard di sicurezza obbligatori o verifiche terze sulle tecniche di addestramento. Spicca l’idea che i legislatori dovrebbero acquisire una conoscenza dettagliata dei processi di sviluppo dei grandi laboratori di AI, evitando sia vuoti normativi sia eccessi di burocrazia che rischierebbero di soffocare l’innovazione. Inoltre, alcuni invitano alla creazione di partnership internazionali, in cui competenze tecniche ed etiche vengano condivise per definire linee guida comuni.Per le aziende, l’etica dell’AI generativa include riflessioni sull’impatto economico e sulla trasformazione del mercato del lavoro. Svariati studi prospettano scenari di disoccupazione tecnologica, dove gli avanzamenti dell’AI generativa sostituiscono lavori ripetitivi o parzialmente automatizzabili, in campi che spaziano dal customer service fino al software engineering. Non mancano però riflessioni sugli sbocchi emergenti, tra cui la professione di “prompt engineer”, il cui compito consiste nell’interagire in modo specializzato con il modello per ottenere risultati personalizzati. Per i dirigenti e gli imprenditori, il tema è spinoso: da un lato l’introduzione di questi sistemi può favorire il calo dei costi, l’aumento di produttività e la nascita di nuovi settori; dall’altro si pone un problema di gestione sociale, perché l’acquisizione di competenze adeguate non è sempre immediata. Talvolta, la letteratura enfatizza aspetti come il rischio di un eccessivo antropocentrismo : vengono trascurate, per esempio, potenziali implicazioni sugli animali o sull’ambiente se i sistemi comportano un aumento del consumo di risorse o modifiche drastiche nella catena di produzione. Emerge quindi la necessità di andare oltre la prospettiva umana e di misurare la sostenibilità su molteplici livelli. Proprio la sostenibilità costituisce un altro tassello rilevante, data la mole di energia richiesta per addestrare i grandi modelli, spesso in contrapposizione con le politiche di riduzione delle emissioni aziendali. Etica dell’AI generativa: ricerca, arte ed educazione Un aspetto inedito della scoping review riguarda le ripercussioni dell’AI generativa nel mondo accademico e creativo. Sul fronte della ricerca scientifica , molti studiosi temono che l’utilizzo indiscriminato di sistemi di generazione del testo possa saturare i circuiti editoriali con articoli superficiali o redatti in modo automatizzato. Inoltre, si paventa la perdita di competenze nella scrittura e nell’analisi critica, soprattutto per le nuove generazioni di ricercatori, che rischiano di affidarsi a un’intelligenza artificiale per rielaborare o sintetizzare contenuti senza sviluppare piena padronanza degli strumenti scientifici. Alcune riviste cominciano a introdurre restrizioni sull’uso di modelli generativi per la stesura dei manoscritti, talvolta spingendosi a vietare formalmente la co-paternità all’AI. Nell’ istruzione , emergono scenari contrastanti. Da un lato, c’è chi vede in questi strumenti la possibilità di personalizzare percorsi di apprendimento, fornendo agli studenti risorse e spiegazioni su misura. Dall’altro, si alza il timore di un incremento del cheating, ossia la pratica di farsi scrivere compiti e tesine dall’AI. La distinzione tra testo generato e testo umano diventa sempre più difficile, e gli istituti accademici si interrogano su come valutare correttamente la preparazione degli studenti. Alcuni esperti propongono di investire in “alfabetizzazione digitale avanzata”, affinché docenti e alunni comprendano le dinamiche alla base di questi modelli, imparando a sfruttarli consapevolmente e in modo costruttivo. Sul versante artistico , la generazione di immagini e suoni attraverso modelli AI apre riflessioni profonde sull’essenza della creatività e sui diritti d’autore. Il fatto che un’opera digitale possa imitare stili riconoscibili ha già prodotto casi di contenzioso legale, con artisti che lamentano la mancanza di consenso all’uso delle proprie opere come dati di addestramento. Altri discutono se e come attribuire valore autoriale a un output scaturito da un algoritmo. Al contempo, vi sono analisi che evidenziano gli spunti innovativi: l’AI può agevolare sperimentazioni stilistiche, combinazioni inedite e persino aiutare creativi non professionisti ad avvicinarsi al mondo dell’arte. Si registra infine il tema dei copyright : memorizzando e rielaborando porzioni di testi o immagini protette, l’AI potrebbe violare diritti di proprietà intellettuale. Le soluzioni proposte spaziano da meccanismi di watermarking, che rendono riconoscibili i contenuti sintetici, a iniziative di compensazione economica per artisti e autori i cui lavori vengano utilizzati come addestramento. Benché la cornice normativa resti in evoluzione, la consapevolezza di questi dilemmi emerge con forza dall’analisi della letteratura recente. Etica dell’AI Generativa: Visione Critica e Futuri Scenari Un altro elemento di spicco che traspare dalla rassegna scientifica è il bias di negatività : gran parte degli studi si focalizza sulle possibili conseguenze dannose, enfatizzandole attraverso catene di citazioni che a volte, secondo gli autori, potrebbero alimentare allarmi eccessivi. Si pensi al ripetuto accenno alla creazione di patogeni o all’utilizzo di modelli in chiave terroristica: ipotesi che, pur menzionate da più fonti, non sempre trovano riscontri empirici solidi. Alla stessa maniera, la questione delle violazioni di privacy è riproposta di frequente, ma ci si chiede se davvero i modelli siano in grado di recuperare con precisione informazioni personali riferite a specifici individui oppure se quest’eventualità sia stata ingigantita. Un invito alla prudenza arriva da chi sottolinea il bisogno di ricerca empirica : molti timori restano aneddotici o basati su evidenze limitate. Gli autori dello studio sostengono che sarebbe auspicabile investire in studi controllati, per esempio analizzando se e come l’AI generativa peggiori la sicurezza informatica o se realmente favorisca manipolazioni di massa. Senza dati concreti, sussiste il rischio di un dibattito polarizzato che non coglie le effettive priorità per il settore privato e pubblico. A ciò si aggiunge la raccomandazione di valutare ogni rischio in uno scenario costi-benefici, riconoscendo anche gli aspetti virtuosi della tecnologia: si pensi alla riduzione dei consumi  in determinate attività ripetitive o alla maggiore rapidità nel testare prototipi digitali.Un ulteriore nodo critico sta nella tendenza a connettere ogni sviluppo all’ipotetica “superintelligenza”. Questo porta il discorso su un piano spesso speculativo, dove si enfatizzano rischi come la disobbedienza sistematica del modello o la conquista di potere. Sebbene la letteratura concordi sulla necessità di contemplare scenari avversi, alcuni studiosi raccomandano di concentrarsi con urgenza su problemi più imminenti, come la moderazione dei contenuti generati e la definizione di standard di sicurezza su larga scala. In definitiva, la scoping review invita anche a non sottovalutare l’ effetto cumulativo  di rischi medio-piccoli. Invece di attendere un’unica catastrofe, potrebbe manifestarsi una somma di problemi che, se non gestiti, determinano impatti rilevanti sia a livello sociale sia economico. Aziende e dirigenti sono chiamati a un’azione preventiva che includa formazione del personale, audit periodici, utilizzo di strumenti di detection e interfacce che facilitino la verifica umana dei contenuti. La strategia più lungimirante pare essere quella che integra l’AI generativa in processi ben progettati, ricorrendo a un monitoraggio continuo e a un set di parametri e protocolli capaci di equilibrare i benefici con i possibili contraccolpi. Conclusioni La ricerca evidenzia uno scenario in cui l’intelligenza artificiale generativa si presenta come un fenomeno complesso e in continua evoluzione. L’analisi, sebbene articolata e supportata da una solida metodologia, appare sbilanciata verso l’enfasi sui rischi, lasciando in secondo piano l’approfondimento delle opportunità positive e delle numerose applicazioni vantaggiose. Un confronto con tecnologie affini, come i tradizionali sistemi di apprendimento automatico, mette in luce che temi come equità, sicurezza e bias erano già stati oggetto di attenzione in passato, ma oggi assumono caratteristiche nuove. L’incremento delle capacità generative e la maggiore accessibilità al pubblico amplificano sia gli effetti positivi sia le possibilità di utilizzo improprio. Per le imprese, la comprensione realistica di questi risultati suggerisce un’attenzione strategica. Da un lato, la prospettiva di ottenere miglioramenti nell’automazione, nelle relazioni con i clienti e nell’analisi dei dati spinge molti settori a investire in tali sistemi. Dall’altro, l’assenza di misure efficaci di allineamento e controllo potrebbe produrre contraccolpi economici, legali o d’immagine. Di fronte ad altre tecnologie simili, l’AI generativa si distingue per la possibilità di creare testi e contenuti multimediali estremamente credibili, riducendo la soglia d’accesso a manipolazioni su larga scala. Eppure, la comparsa di watermarking e soluzioni per il rilevamento automatico del contenuto sintetico apre spazi per una maggiore responsabilità. Nella prospettiva del decisore aziendale, emerge la necessità di interpretare i dati della ricerca e di costruire modelli di governance che puntino a una integrazione bilanciata  delle nuove tecnologie. Accorgimenti come la trasparenza, la tracciabilità e la conservazione di competenze umane nei punti critici dei processi decisionali si configurano come investimenti di lungo periodo. A differenza di altre soluzioni già disponibili, l’AI generativa agisce su scala linguistica e creativa, toccando un numero elevato di possibili applicazioni, dai chatbot alla progettazione di campagne di marketing, senza dimenticare implicazioni più profonde per l’informazione e la cultura. La sfida futura non si limita a domandarsi quanto questa tecnologia progredirà, ma piuttosto come riuscire a intrecciare, all’interno delle imprese, obiettivi di crescita e dimensioni valoriali. In un contesto in cui la scienza fatica a quantificare con precisione i rischi, si fanno strada approcci pragmatici che suggeriscono di procedere per gradi, testando e adeguando costantemente linee guida di sicurezza e valutazioni d’impatto. Il tutto deve avvenire senza lasciarsi intrappolare da un allarmismo generalizzato: la chiave sta nella consapevolezza costante, con imprese e manager che sappiano usare dati e criteri di valutazione documentati, scongiurando scelte dettate solo dalle mode del momento. Un incontro costruttivo tra regolamentazione, innovazione e sensibilità etica potrebbe riservare risultati significativi, a patto di mantenere aperto il confronto, curando il legame con le comunità scientifiche, legislative e sociali, così da sfruttare appieno il potenziale dell’AI generativa senza ignorarne le complesse implicazioni. Podcast: https://creators.spotify.com/pod/show/andrea-viliotti/episodes/Etica-dellAI-generativa-implicazioni--rischi-e-opportunit-per-le-aziende-e2smfqr Fonte: https://arxiv.org/abs/2402.08323

bottom of page