top of page

Risultati di ricerca

471 risultati trovati per ""

  • Prompt Engineering in Generative AI: Strategies, Security, and Use Cases

    The research titled “The Prompt Report: A Systematic Survey of Prompting Techniques” by Sander Schulhoff , Michael Ilie , and Nishant Balepur focuses on the most common practices in prompt engineering for Generative AI models. The analysis involves various universities and institutes—including the University of Maryland, Learn Prompting, OpenAI, Stanford, Microsoft, Vanderbilt, Princeton, Texas State University, Icahn School of Medicine, ASST Brianza, Mount Sinai Beth Israel, Instituto de Telecomunicações, and the University of Massachusetts Amherst—all working on AI and its prompt engineering applications. The central theme is the strategic use of prompts to enhance the comprehension and coherence of generative systems, highlighting techniques tested on different datasets and tasks. This research provides insights into best practices, methodological perspectives, and experimental outcomes for anyone looking to harness large language models effectively in business and research. A notable addition to this field is the recent work by Aichberger , Schweighofer , and Hochreiter , titled “Rethinking Uncertainty Estimation in Natural Language Generation,” which introduces G-NLL, an efficient and theoretically grounded measure of uncertainty based on the probability of a given output sequence. This contribution is particularly valuable for evaluating the reliability of language models, complementing the advanced prompting techniques discussed by Schulhoff and collaborators. Given the rising importance of cybersecurity in this realm, a dedicated focus is also provided on the guidelines outlined in the “OWASP Top 10 for LLM Applications 2025,” which offers a detailed taxonomy of the most critical vulnerabilities affecting large language models. This document supplies a comprehensive and up-to-date overview of the challenges and solutions related to cybersecurity in a rapidly evolving sector. Prompt Engineering in Generative AI: Strategies, Security, and Use Cases Foundations of Prompt Engineering in Generative AI: Essential Guide The ability of Generative AI models to produce useful text relies on a set of procedures known as prompt engineering. This discipline has rapidly gained traction in the field of artificial intelligence and revolves around carefully crafting the input text to obtain targeted responses. Schulhoff and colleagues highlight that the prompt is more than just a simple input; it serves as the ground on which the system bases its inferences. It represents a crucial step at the core of human-machine interactions, where relevance and the richness of the instructions prove to be the key factors. Researchers underscore how term choices, syntactic structure, and prompt length can lead to significant differences in model outputs. When discussing large language models, the idea of context window—namely, the maximum amount of text the model can process—comes into play. Once that limit is exceeded, the system discards earlier parts of the prompt. Keeping this mechanism in mind, prompt engineering in generative AI becomes a continuous optimization process, where the goal and coherence of the introductory text shape the entire output. The study lists 33 core terms tied to Prompt Engineering in Generative AI—from template to self-consistency—offering a unified and shared vocabulary. Each term reflects a specific area of interest, spanning how to build an internal reasoning chain (Chain-of-Thought) to how to incorporate clarifying examples (Few-Shot or Zero-Shot). The secret of a well-tuned prompt doesn’t just lie in asking for something specific, but in demonstrating—through examples—the desired behavior. What emerges is a sort of internal learning within the model, formalized through the conditional probability p(A‖T(x)), where the answer A depends heavily on the instruction T applied to an input x. This process does not imply any traditional training phase, but rather indicates the model’s capacity to follow the instruction contained in the string of text. The researchers show how this capacity has been tested in translation, classification, question answering, and text generation, sometimes leading to notable improvements. The study also notes that Generative AI systems are highly sensitive to subtle linguistic changes. Adding spaces, removing an adverb, or switching delimiters can dramatically alter the final output. Hence the need to experiment with various prompt formulations to see which one works best—akin to “wooing” the model to guide it along the intended path. Some researchers introduce specific instructions at the beginning of the message (fictitious roles, explicit step-by-step strategies) to strengthen the logical consistency of the answer. Another pivotal insight is that, in many situations, a clear example is more influential than an explicit directive. If a prompt provides clear demonstrations, the model tends to replicate the structure of those samples, adapting without additional commands. This is a core element: few-shot learning, in fact, is considered by many to be the most effective expression of prompt engineering, since it provides exactly the patterns the model expects, guiding it more reliably. In the introduction, the researchers emphasize the importance of rigorously defining each prompt component. Saying “write an essay” or “explain quantum mechanics” is often too generic, whereas specifying details, indicating style, and giving examples of the desired answers result in more useful outputs. Thanks to these prerequisites, professionals in corporate innovation or research can immediately grasp the benefits of a solid prompt to generate analyses, reports, or synthesize complex documents.   Taxonomies and Practical Applications of Prompt Engineering in Generative AI The research endeavors to map 58 textual prompting techniques, plus other variations developed for multimodal settings. This multitude of strategies falls under a broad taxonomy that organizes methods by their purpose: explanation, classification, generation, and so on. The taxonomy itself acts as a gateway for anyone approaching the prompt ecosystem, helping avoid confusion in definitions and concepts. Some methods revolve around breaking down the problem. The study cites “chain-of-thought” to split a question into multiple steps, “least-to-most” to tackle subproblems, and “program-of-thought” to encapsulate sequences of code, executable snippets, and textual interpretations within the same flow. Other techniques embrace “self-criticism,” where the model’s initial text generation is subsequently reviewed by the model itself to spot errors or inconsistencies. These procedures leverage the generative nature of the system, leading it to analyze its own output with a degree of introspection. The authors highlight that certain techniques are immediately applicable in real-world contexts. In customer support systems, for example, it’s highly useful to adopt prompts that ensure precise and appropriately toned answers. Here, filters and guardrails come into play, using very explicit instructions about restricted topics or permissible phrasing. For code generation, there are strategies to prompt the system to produce more reliable programming segments, selecting example snippets that illustrate the correct structure in advance. A key point is the possibility of adapting the taxonomy to specific project needs. If a company wants to automate email correspondence, it can use templated prompts with the desired style, example replies, and lexical constraints. A marketing team might introduce fictional “roles” in the prompt, simulating an in-house creative expert suggesting slogans. Such decisions all aim to boost productivity. Within “The Prompt Report: A Systematic Survey of Prompting Techniques,” it is reiterated that there is no one-size-fits-all approach: every context can benefit from a different technique. Furthermore, the proposed taxonomy is not limited to English. The researchers note the challenges posed by low-resource languages, suggesting solutions like “translate-first prompting,” where text in a less common language is initially converted to English. The subsequent step is building in-context examples consistent with the cultural or thematic domain, leveraging the reality that most current models are primarily trained on English-language data. The ultimate goal remains achieving relevant and accurate outputs. Another intriguing point is that the taxonomy includes iterative request frameworks, where the model initially produces a draft and then refines it. Unlike the standard question-and-answer method, these techniques are especially suitable for extended writing tasks, brainstorming, or preparing documents. Anyone engaged in content creation, strategic planning, or the analysis of large text corpora can reap immediate rewards by adopting such procedures.   Prompt Engineering in Generative AI: Data, Security, and Optimal Results One of the most delicate issues linked to prompt engineering is security, which directly affects the trustworthiness of the models. Threats such as prompt hacking exploit textual manipulations to coax the model into providing unwanted information. In some cases, a single forceful sentence can override the main instructions within the prompt, resulting in offensive or risky outputs. Many companies are actively addressing this point, as chatbots can be manipulated to disclose confidential data or adopt linguistic styles that breach compliance guidelines. Experiments in the study highlight the ease with which attackers can coerce systems to output highly sensitive text or circumvent established rules. An example is an incident where merely advising the model to “ignore all previous instructions” caused all moderation constraints to collapse. The research also shows that building guardrails or defensive layers directly within the prompt does not always resolve the issue. Multi-layered reinforcement or screening mechanisms exist, but these too have limits. Beyond security considerations, the research features precise numerical results from tests using reference datasets. In a noteworthy passage, it describes a benchmark based on 2,800 questions selected from the broader MMLU, covering diverse knowledge domains. Employing approaches such as “zero-shot” or “chain-of-thought” led in some instances to improved performance or, paradoxically, performance drops. There was no single dominating method: some techniques worked excellently on math tasks but stumbled on narrative problems, and vice versa. These discrepancies urge organizations to thoroughly test prompts before integrating them into mission-critical processes. The authors also consider automated evaluation, noting that determining whether a prompt is effective requires a scoring system to compare the generated responses with a known standard. Some studies compare sentences in various output formats to a correct reference. However, there is a recognized need for human validation in more nuanced tasks, particularly if creativity or subtle interpretations are required. The study warns of the danger of overconfidence in the responses generated by models. Frequently, these systems deliver answers with a high degree of certainty, even when they are incorrect. It’s essential to caution users and encourage balanced content generation, including instructions that prompt accurate self-assessment of certainty. Yet, models do not always offer reliable transparency about their confidence levels, and merely requesting confidence percentages may not suffice. There are cases in which the systems overestimate their reliability. In a corporate setting, such unflagged errors can be a major concern, since a system that appears persuasive but supplies inaccurate information can have damaging repercussions. The scale of the studies involved is impressive. The paper refers to a systematic review of 1,565 articles, selected according to strict criteria, to piece together a comprehensive overview of prompt engineering. From these findings, the researchers highlight risks and possibilities, underlining the need for specialized solutions to maintain security.   Advanced Strategies and Evaluation Tools for Prompt Engineering in Generative AI The research outlines scenarios that favor managing multiple prompts sequentially, forming a prompt chain. This chain enables the model to build responses in stages. In the first stage, for instance, the system might generate hypotheses; in the second, it tests them; and finally, it provides a definitive version. This mechanism proves useful for tasks involving multiple steps, such as solving math problems or planning multi-phase activities. In business or research contexts, the complexity of a question may call for retrieving external information. This is referred to as using agents that leverage “retrieval augmented generation,” where the prompt instructs the model to fetch relevant data from databases or other services. One illustrative scenario involves a model tasked with reporting the current weather conditions: if guided appropriately by the prompt, it might trigger an API call. This expands the scope of interactions: the chain-of-thought is not just linguistic but can include real-world actions. Result evaluation is another critical chapter. On one hand, there are self-consistency procedures, where the model generates multiple versions of a response with some degree of randomness. The system then picks the one that appears most frequent or coherent according to internal metrics. On the other hand, some experiments use “pairwise evaluation,” where the model compares two responses to select the better one. These self-assessment methods can lessen the burden of human evaluation, but they are not foolproof, as Schulhoff and colleagues note. Models sometimes favor lengthy or formally complex answers without actually improving quality. The concept of “answer engineering” is also introduced, focusing on isolating and precisely formatting the desired response. This technique proves especially helpful when a concise output is needed, such as “positive” or “negative,” or a specific numeric code. Without it, generating free-form text could obscure the data point in question, complicating automated interpretation. In many managerial scenarios, having a structured output reduces the need for manual intervention. The discussion around evaluation tools highlights projects like “LLM-EVAL,” “G-EVAL,” and “ChatEval.” These frameworks ask the model itself to generate a score or comment about a text, following guidelines from either the model or human operators. Here, the recent research by Aichberger, Schweighofer, and Hochreiter—and specifically the G-NLL method—plays a significant role. G-NLL estimates the level of uncertainty based on the probability assigned to the output sequence determined most representative under deterministic (greedy) decoding. This approach could be integrated into these systems to provide a quantitative measure of reliability for the automatically generated scores or comments. For instance, if the model outputs “The capital of France is Paris” with a far higher probability than alternatives like “Rome” or “Berlin,” then G-NLL is low. Conversely, when the model is unsure among multiple options, G-NLL is higher, indicating greater uncertainty. When “LLM-EVAL,” “G-EVAL,” or “ChatEval” produce a given score, one could incorporate a G-NLL measure for the textual sequence constituting the model’s answer. A low G-NLL would indicate high confidence in the generated sequence and thus higher trust in the evaluation. In contrast, a high G-NLL would flag elevated uncertainty, suggesting caution in interpreting the score or comment. One might even weigh generated scores by their G-NLL values, giving more credence to those tied to lower uncertainty or setting a G-NLL threshold beyond which the model’s evaluation is deemed unreliable, requiring a human review. Under this scenario, G-NLL could guide iterative improvements to the prompt or the model itself, since consistently high G-NLL values might point to problems with the prompt, the fine-tuning process, or the model architecture. Integrating G-NLL into these evaluation frameworks would provide an added layer of oversight by quantifying the uncertainty associated with the scores and thus making them more robust. This is critical, especially for nuanced tasks, as underscored by Schulhoff and colleagues: relying solely on the model’s judgment without a measure of uncertainty could lead to flawed conclusions or subpar evaluations. The method proposed by Aichberger, Schweighofer, and Hochreiter thus emerges as a valuable tool for strengthening and stabilizing automated evaluations in intricate scenarios. In summary, leveraging multiple prompts, external actions, automatic oversight procedures, and uncertainty estimation via G-NLL creates a more complex yet significantly more beneficial ecosystem—particularly for automating sensitive processes or addressing nuanced tasks. Future research might focus on practically integrating G-NLL into the discussed evaluation frameworks, assessing its impact on accuracy, reliability, and the reduction of human intervention.   Multimodal Prompt Engineering in Generative AI: Beyond Text Recent progress shows that prompt engineering extends beyond text. Many lines of research concentrate on models that process images, audio, or video, broadening the scope of potential applications in fields such as robotics, medical imaging diagnostics, and multimedia content creation. The authors address “image-as-text prompting,” meaning the conversion of an image into a textual description, which can then be incorporated into a broader prompt. This tactic facilitates automatic photo captioning or visual question answering. Other techniques allow the generation of images from textual prompts, incorporating “prompt modifiers” to control style. The balance between emphasized and excluded terms (with negative weights) echoes the text-optimization practices seen in linguistic contexts. Audio is similarly an area of experimentation, covering tasks like transcription, voice translation, and even reproducing vocal timbre. Some studies have examined few-shot learning for speech, though the results are not always consistent. Schulhoff and collaborators point out that neural network-based audio models often require additional processing steps to enhance performance. In this domain, prompting intersects with feature extraction pipelines because raw speech cannot be directly converted into a token-friendly textual format. The section on video explores generating or modifying clips based on textual inputs. Researchers have tested early-stage systems that create subsequent video frames. There are also initiatives aiming to design agents capable of interacting with simulated environments through suitably formulated instructions. A notable example might be a robot that, guided by a natural language command, interprets how to move or manipulate physical objects effectively. Additionally, there is growing interest in 3D prompt engineering, bringing together textual suggestions with volumetric or rendering-based synthesis. In product design or architecture, for instance, expressions like “create a 3D model with smooth, symmetrical surfaces” enable modifications to meshes or geometric structures. This transformation from language to three-dimensional shapes opens up promising avenues in industrial prototyping and interactive entertainment. The multidisciplinary dimension of these efforts reaffirms that the “prompt–response” relationship can take countless forms. Each time, the aim is to forge a link between the model’s upstream interpretation and the desired output. It’s not only about sentences and paragraphs: the channel can expand to any digital signal, preserving the prompting logic but adapting the encoding and decoding of information.   Focus on a Real Prompt Engineering Experiment The paper details a scenario involving suicidal risk detection, examining whether a model can identify red flags in messages posted by individuals in severe distress. Researchers used posts from a specialized support forum for people who exhibit self-harm ideation. They selected over two hundred messages, labeling some as “entrapment” or “frantic hopelessness,” following a specific clinical definition. The objective was to see whether the model could replicate this labeling without offering any medical advice. The initial prompt described what “entrapment” means and asked the model to reply with a simple “yes” or “no.” However, the model often produced excessive text, attempting to provide healthcare suggestions. To resolve this, the researchers expanded the context, specifying the experiment’s goals and instructing it not to give any advice. Prompts featuring examples (few-shot) and internally generated reasoning chains (chain-of-thought) were also tested to enhance accuracy and reduce false positives. After 47 rounds of optimization, the F1 score—a statistical measure that balances precision (the percentage of relevant items correctly identified) and recall (the percentage of total relevant items truly detected)—improved noticeably. Early attempts were unsuccessful because the model struggled to follow formatting conventions, while later iterations brought better results, though far from perfect. To more reliably capture the output, the researchers integrated specialized extractors and final rules within the prompt, forcing the system to respond with a single “yes” or “no.” Nevertheless, occasional incomplete answers persisted. In one test, removing an email address from the reference text caused a substantial drop in accuracy, implying that additional contextual content helped guide the model’s reasoning more effectively. This real-world example illustrates that prompt construction is not just a matter of issuing commands—it’s about conversational fine-tuning. Every detail, from the positioning of instructions to whether some text is duplicated or if a narrow constraint is specified, affects the outcome. It also highlights the tension between the need for coherent outputs and the model’s tendency to interpret requests too liberally. This serves as a cautionary note for business leaders and decision-makers: wherever results carry serious implications, involving domain experts (medical, legal, etc.) and engineers proficient in prompt techniques is advisable. Abstract optimization alone is insufficient; ongoing alignment with professional standards and ethical guidelines is essential. The researchers also experimented with automation tools that generate and evaluate prompts in sequence. Sometimes the algorithm improved certain metrics, yet human intervention was still necessary to adjust false positives. An optimization tool might reduce sensitivity to gain precision, posing clear ethical risks. This real-world case shows that prompt engineering is anything but theoretical, requiring hands-on experimentation, meticulous attention to detail, and heightened awareness of real-world impacts.   Prompt Engineering in Generative AI: Security and OWASP Guidelines In the ever-changing landscape of generative AI, cybersecurity is crucial, especially when dealing with large language models. The document “ OWASP Top 10 for LLM Applications 2025 ” offers a detailed and current analysis of the main threats to these technologies, adding to the framework presented by Schulhoff and colleagues. OWASP focuses on ten critical vulnerabilities, providing essential insights for anyone deploying LLMs in practical business or research environments. One of the most notorious risks is Prompt Injection, which comes in two forms: direct and indirect. Direct injection involves an attacker placing malicious content directly into the prompt, while indirect injection uses external sources processed by the model. Consequently, relying on techniques like Retrieval Augmented Generation (RAG) or fine-tuning alone is not enough; robust access controls, meticulous input validation, and possible human approval for higher-stakes actions are critical. Consider, for instance, a chatbot that—due to a malicious prompt—grants unauthorized access, or a model that parses hidden instructions buried in a webpage and is manipulated without the user’s knowledge. Equally concerning is “Sensitive Information Disclosure,” where the unauthorized release of confidential details occurs. OWASP stresses the importance of sanitizing data and applying strict access controls. It also describes “Proof Pudding,” an attack that exploits the leakage of training data to compromise the model. Moreover, security encompasses the entire supply chain of the LLM. The common practice of using pre-trained models from third parties may expose users to compromised models with hidden backdoors or biases. For this reason, OWASP recommends employing tools such as SBOM (Software Bill of Materials) and performing rigorous integrity checks. Closely related is “Data and Model Poisoning,” the deliberate manipulation of training data. Countermeasures include verifying data origins, anomaly detection, and specialized robustness testing. Meanwhile, “Improper Output Handling” highlights how carelessness in processing the model’s outputs can allow vulnerabilities like XSS or SQL injection. To address this, OWASP advises treating all LLM outputs with the same level of caution as user-generated content, using validation and sanitization best practices. Another key concern is “Excessive Agency,” where an LLM is granted more permissions or capabilities than necessary. OWASP suggests strictly limiting each model’s functions, complemented by a “human-in-the-loop” mechanism for critical decisions. The guidelines also discuss “System Prompt Leakage,” referring to instances where system-level instructions become exposed. Although these prompts should never contain sensitive data, their disclosure can help attackers better understand and bypass the model’s defenses. It’s therefore wise not to include private information in system prompts and to avoid relying solely on them for controlling the model’s behavior. A newer category, “Vector and Embedding Weaknesses,” delves into attacks on embeddings and vector-based components, particularly relevant to RAG systems. Access control and integrity checks of these vector resources become indispensable to prevent malicious alterations or unauthorized access. Another notable topic is “Misinformation,” which treats the generation of false or misleading data by LLMs as a security flaw, urging external validation, fact-checking, and transparent communication about the model’s inherent limitations. Finally, “Unbounded Consumption” deals with unchecked resource usage, which can result in both economic and availability problems. OWASP recommends introducing rate limits, resource monitoring, and timeouts for prolonged tasks. Overall, LLM security is complex and multifaceted, necessitating a holistic, layered approach. With a constantly evolving taxonomy, the OWASP document stands as a valuable resource for anyone entering this domain. It lays out concrete guidelines for leveraging large language models while minimizing the associated risks. In this environment, security cannot be an afterthought; it must be a built-in requirement for ensuring the reliability and sustainability of these increasingly pervasive technologies. Conclusions From this analysis, prompt engineering emerges as a central component of Generative AI usage, albeit one still under ongoing development. The wide range of techniques—from problem decomposition methods to self-consistency strategies—demonstrates the diversity of approaches. While there is encouraging progress in using linguistic context effectively, risks remain tied to textual manipulation and imbalanced answers in terms of confidence and accuracy. The potential impact for businesses and management is significant: a tailored prompt can automate the creation of reports or data classification, cutting costs and saving time. Still, the current state of the art demands rigorous testing. As shown in the suicidal risk detection experiment, it’s unwise to assume that a procedure successfully used in one system will seamlessly transfer to another. Multiple models and related technologies exist, each employing different prompting techniques; this variety calls for a careful comparative approach to understand each method’s strengths and limitations. In a more in-depth view, prompt engineering should not be conflated with traditional programming. Instead, it involves “tailoring” instructions and contextual examples around the model’s statistical nature to ensure the output meets real-world needs. It is not purely mechanical: an ongoing collaboration between prompt designers and domain experts is essential. Only through this synergy can robust solutions emerge, where security, accuracy, and semantic coherence aren’t taken for granted. Podcast: https://creators.spotify.com/pod/show/andrea-viliotti/episodes/Prompt-Engineering-in-Generative-AI-Strategies--Security--and-Use-Cases-e2su1sd Source:   https://arxiv.org/abs/2406.06608

  • Smarter & Inclusive Cities: Innovation and Inclusivity for the Urban Future

    “Smarter & Inclusive Cities” is a course developed by Arup, TalTech, and Climate-KIC in collaboration with the M4EG initiative, supported by the European Union and UNDP. The general theme is empowering cities through the adoption of digital tools, participatory methodologies, and social inclusion programs. The goal of Smarter & Inclusive Cities is to promote new urban growth models that consider the variety of local communities, paying particular attention to efficiency, sustainability, and equal opportunities. The course offers practical examples and performance indicators for public administrators, citizens, and anyone interested in delving deeper into these dynamics. Smarter & Inclusive Cities: Innovation and Inclusivity for the Urban Future Smarter & Inclusive Cities: Local and Global Challenges for Inclusivity The digital transformations at the heart of the “Smarter & Inclusive Cities” concept have opened up unprecedented avenues for improvement, making available platforms, apps, and solutions aimed at more effective management of public services and infrastructure. The idea of making cities “smart” is closely linked to the goal of including all segments of the population in this process, from younger to older age groups, while recognizing that people with disabilities and minorities often encounter greater barriers and limitations in accessing technological tools. The “Smarter & Inclusive Cities” document highlights that 66% of the world’s population is connected to the Internet, whereas Europe shows an average of about 89%. This gap indicates the need for guidelines and interventions to reduce the digital divide, which would otherwise widen existing economic and social disparities. The study notes that 69% of men worldwide have internet access compared to 63% of women, and that the percentage of people living in urban areas who are connected is higher than in rural areas. This digital gap is not only geographic but also generational, given that 75% of young people between 15 and 24 use the Internet—ten percentage points higher than the average in other age brackets. It becomes evident that new technologies can act either as a catalyst for development or as a source of marginalization, depending on how they are designed and implemented. This leads to a reflection on the importance of creating accessible digital services to reduce gender and socioeconomic disparities, paying attention to real skills and the risks of exclusion. Experience from some urban areas confirms that simply deploying sensors and high-tech solutions does not automatically improve residents’ quality of life. The case of Songdo in South Korea—designed as an ultra-technological, low environmental impact city—demonstrated how limited public engagement can undermine initial objectives. Similarly, Santander in Spain introduced a vast number of sensors but had to deal with major maintenance demands and data privacy issues. Based on these negative examples, the “Smarter & Inclusive Cities” analysis underscores the importance of placing people at the center, with participatory processes starting from the design phase. Technology should not be the only driver of development but rather a tool to address real problems, from air pollution to access to basic services like education and healthcare. For a city to be inclusive and smart, a holistic approach is therefore needed, one in which social and economic dimensions interact with the digital realm, all with a focus on meeting people’s needs. This implies involving residents in decision-making processes, fostering partnerships with universities, startups, local businesses, and community associations, and developing data analysis methods that respect privacy and fundamental rights.   Smarter & Inclusive Cities: Fostering Participation and Digital Inclusion The inclusion strategies proposed by “Smarter & Inclusive Cities” focus on a key element: community engagement. Experiences in Rotterdam (Netherlands) show how co-designing digital solutions can have positive impacts on service efficiency and management costs. With the creation of the Meld’R app—co-designed with citizens and aimed at real-time reporting of issues in public spaces—70% of all reports are now channeled through the digital platform, saving over 180,000 euros in the first year alone. After this success, the local administration decided to extend the same user-centric approach to other municipal areas, confirming how co-creation can lead to tangible results and increased institutional trust. At the same time, various governments have launched digital training programs targeting people with limited computer skills, often women and seniors. In Greater Manchester (UK), the Digital Inclusion Agenda aims to achieve total coverage, providing skills and devices to those who cannot afford them. The same spirit drives Sihanoukville in Cambodia, where public areas are being equipped with free Internet and IT literacy courses for the most vulnerable groups. This initiative is rooted in the idea that only by removing barriers to new technologies can all social segments be given a real opportunity to participate, thereby enhancing the economic and social vitality of a region. The experiences of Tartu in Estonia demonstrate how a participatory budgeting project, defined through inclusive procedures and user-friendly digital platforms, can make citizens key players in the decision-making process. In Tartu, the city allocated a portion of resources (about 1% of the investment budget) for projects proposed directly by residents. This mechanism, called Participatory Budgeting, generated concrete initiatives such as urban redevelopments and additional services while reducing the distance between the municipality and the public. The main takeaway is that an informed and involved local population feels more responsible for the outcome, promoting more efficient resource management. In the context of Smarter & Inclusive Cities, it is also important not to underestimate the risk of exclusion created by overly relying on digital-only channels. The approach supported by the researchers of “Smarter & Inclusive Cities” involves keeping hybrid formats for service provision, allowing physical access to information and onsite support for those who do not have adequate technological skills. This dual-track method is essential to ensure the continuity of services during the digital transition, preventing certain user groups (such as the elderly or individuals with special needs) from being left behind. Participation and co-creation thus acquire a concrete and proactive dimension, where urban development processes are built together with the community rather than merely imposing top-down solutions.   Smarter & Inclusive Cities: Security and Digital Access A core point emerging from the “Smarter & Inclusive Cities” document is the importance of digital infrastructure and its proper management. It is not sufficient to cover a large portion of the urban territory with broadband or 5G connections; it is also necessary to think about how to make these infrastructures accessible and reliable, aligned with robust security standards. The European Union, for instance, aims to provide Gigabit coverage to all populated areas by 2030, but reaching this goal requires ongoing dialogue among public agencies, telecommunications companies, universities, and civil society organizations. Such dialogue is crucial to anticipating any potential issues related to cost or long-term sustainability. Amsterdam in the Netherlands offers a significant example of how data management must be addressed with well-defined and transparent procedures. The city has developed a standard for handling mobility data (City Data Standard for Mobility – CDS-M) intended to use information produced by citizens without violating privacy and the rights of those traveling daily. This approach combines the need to optimize traffic flows with the desire not to turn residents into “passive data providers.” Such initiatives illustrate how clear rules of digital governance are indispensable for aligning economic and urban innovation objectives with ethical and legal principles. Alongside data management, “Smarter & Inclusive Cities” emphasizes the central role of cybersecurity. Between July 2021 and June 2022, 24% of recorded global cyberattacks targeted public administration. As local governments become more digital, they find themselves increasingly exposed to threats that can disrupt entire services, leading to reputational and economic harm. Therefore, it is crucial to incorporate cybersecurity into strategic planning, starting with staff training and progressing to emergency protocols that safeguard operational continuity. Helsinki, through its innovation entity Forum Virium, and Singapore, through targeted investments in data protection, represent two successful examples of reconciling a connected city’s needs with the protection of information systems. In this setting, strong institutional leadership is key to promoting accountability policies and targeted public information, ensuring that greater digitalization does not lead to security gaps that are difficult to manage. Transitioning to more inclusive and smarter cities from an infrastructure standpoint thus involves a renewal process spanning technological, regulatory, and sociocultural aspects. Models of data ownership must be studied to ensure transparency and respect for individual freedom, paying special attention to open standards and interoperability among different systems. Collaboration between public and private entities is vital: for instance, telecommunications companies have an economic interest in expanding networks but need suitable guidelines and incentives to ensure accessibility for the more vulnerable segments of the population. In this regard, the analysis points out that an “intelligent city” is not just a collection of interconnected devices but an ecosystem of decisions and shared responsibilities.   Smarter & Inclusive Cities: Driving Innovation in Urban Governance Inclusion and smart approaches to urban areas also translate into collaborative governance. According to the researchers, municipalities have a dual task: govern and coordinate a multi-stakeholder framework by initiating processes of consultation, cooperation, and information exchange. The “Smarter & Inclusive Cities” document describes how Bristol in the UK has adopted the so-called One City Approach, a model that brings together public and private organizations, universities, and civil society groups to pursue common objectives. The city has established thematic boards on transport, healthcare, and economic development, ensuring that responsibility does not fall solely on the municipal authority. To make an inclusive approach a reality, action is required on multiple fronts. On one hand, it is essential to develop medium- to long-term strategies that encompass carbon emission reductions, cultural enhancement, and digital skills growth. On the other hand, administrative procedures need to be set up to facilitate the launch of pilot projects—often rapid and relatively low-cost minipilots (in the range of tens of thousands of euros)—to test innovative ideas in small, controlled environments. Some Northern European cities, such as Turku in Finland, have used this strategy to reduce car traffic in central areas by deploying intelligent camera systems to analyze vehicle flow. A small-scale experimental approach makes it possible to evaluate costs and benefits without affecting the entire urban system. Another critical step is defining Key Performance Indicators (KPIs). It is not enough to merely state goals; they must be measured in a clear and consistent way. Indicators can encompass a variety of dimensions: reducing energy consumption, increasing the recycling rate (as in Ljubljana, which managed to exceed 63% correct waste differentiation thanks to a smart waste management system that uses sensors and optimizes vehicle routes, coupled with constant awareness campaigns for citizens), promoting the use of green transportation, expanding co-housing projects, or creating digital social and health services for vulnerable groups. Vienna, with its Smart City Strategy, shows how regular monitoring pushes the administration to periodically review its policies by producing evaluation reports in which results are compared with initially stated objectives. This data-driven mindset promotes timely adjustments and continual improvement of initiatives. Cities venturing down this path must nevertheless navigate institutional complexity, insufficient long-term structural funding, and, at times, cultural resistance among certain social groups. Here, political leadership proves essential for creating a shared vision while also supporting training and participation efforts. Without an adaptable governance structure that engages citizens, there remains a risk of isolated interventions that are difficult to scale or integrate systematically. Within the framework presented by the study, intersectoral coordination is indispensable: bringing together traditionally separate fields such as transport, construction, welfare, and digital innovation.   Smarter & Inclusive Cities: Projects and Future Opportunities Analysis of initiatives introduced in various urban settings clearly demonstrates that adopting agile and experimental frameworks can produce widespread benefits. The concept of the living lab, for instance, describes physical or virtual spaces where public administrations, research centers, private companies, and citizens collaborate to identify solutions in real time. Some of these labs organize specific challenges—for example, eliminating architectural barriers for people with disabilities or improving air quality through monitoring and emission-reduction mechanisms in specific neighborhoods. Tartu’s strategy for promoting public bike use or Narva’s Well-being Score project, both in Estonia, illustrate how a seemingly limited idea can create a ripple effect. When a project proves successful, it moves on to the upscaling phase, expanding testing to other parts of the city, engaging additional partners, or replicating the solutions in different geographical contexts while adapting them to respective legal and cultural requirements. These expansion or replication mechanisms are critical for transitioning from smaller-scale interventions—often less visible—to a systemic vision capable of reshaping essential services such as mobility, waste management, public lighting, or energy networks. Not all pilot projects, however, achieve satisfactory outcomes. Failure is often part of the learning process and should be considered a valuable resource for refining planning. Sometimes new expertise is needed, or a complete overhaul of the approach is required. Helsinki, for example, constantly experiments with minipilots and, when they do not work, uses negative results to improve subsequent calls for proposals. This agile method treats errors not as defeats but as steps toward refining public policies. Looking at the international landscape, certain challenges are shared. In November 2021, UN-Habitat and the Swedish government launched the Climate Smart Cities Challenge, an international initiative involving four cities: Bristol (UK), Curitiba (Brazil), Makindye Ssabagabo (Uganda), and Bogotá (Colombia). The strength of such programs lies in the exchange of practices and expertise. Transferring a prototype from one city to another is not always straightforward due to different regulations and specific socioeconomic conditions. However, the opportunity to create city networks that share their experiences enables collective progress and significantly reduces research and development costs. Looking ahead, as repeatedly emphasized in the “Smarter & Inclusive Cities” document, we are likely to see ever-closer collaboration among local governments, international organizations (like UNDP), and private investors who are prepared to support solutions that combine profitability with social impact. Training administrators and officials to manage complex digital projects will be critical, as will the presence of communities and associations that can take part in decision-making processes, and the construction of solid infrastructure to foster large-scale connectivity. Conclusions The findings from “Smarter & Inclusive Cities” encourage a realistic reflection on how digital technologies, social inclusion, and urban management converge. The data presented does not fully capture the complexity of the subject, but it does provide a clear picture of what cities have already tested and what remains to be done to make territories more livable, sustainable, and accessible. Public and private actors are already working together to develop e-governance platforms, co-design services, and data analysis methods, while the advancement of practices such as participatory budgeting and living labs makes citizen engagement less theoretical and more tangible. Other similar, already mature and widespread technologies intersect with environmental monitoring projects or ecological transportation systems. Here, innovation does not simply translate into faster services or widespread sensor deployment but rather into the ability to integrate dimensions that might appear distant, such as administrative efficiency, privacy protection, the reduction of inequality, and long-term sustainability. For entrepreneurs and corporate executives, this approach represents an opportunity to develop cooperative business models grounded in investments that yield both economic and social benefits. A look at global challenges—from climate change to urban robotics—confirms that only those who manage to blend creativity with strategic planning will remain competitive in an interconnected world. This is why the collaboration among international bodies, municipalities, businesses, and citizens continues to be the preferred route for building genuinely inclusive and smart cities, ensuring that the benefits of technological progress do not remain exclusive to a few but become shared resources for an improved quality of life. Podcast: https://spotifycreators-web.app.link/e/Nh2NHaaOKPb Source:   https://www.undp.org/eurasia/publications/smarter-and-inclusive-cities

  • Smarter & Inclusive Cities: tecnologie, collaborazioni e prospettive future

    “ Smarter & Inclusive Cities ” è un corso realizzata da Arup, TalTech e Climate-KIC  in collaborazione con l’iniziativa M4EG, sostenuta dall’Unione Europea e dall’UNDP . Il tema generale è il potenziamento delle città attraverso l’adozione di strumenti digitali, metodologie partecipative e programmi di inclusione sociale. L’obiettivo consiste nel promuovere nuovi modelli di crescita urbana che tengano conto della varietà delle comunità locali, con un’attenzione specifica a efficienza, sostenibilità e uguaglianza di opportunità, offrendo esempi operativi e indicatori di performance per i dirigenti, cittadini e per chiunque voglia approfondire queste dinamiche. Smarter & Inclusive Cities: Tecnologie, Collaborazioni e Prospettive Future Smarter & Inclusive Cities: Sfide Locali e Globali Le trasformazioni digitali, centrali per il concetto di Smarter & Inclusive Cities , hanno aperto prospettive inedite di miglioramento, mettendo a disposizione piattaforme, app e soluzioni orientate a una gestione più efficace di servizi pubblici e infrastrutture. L’idea di rendere le città “smart” trova una forte connessione con l’obiettivo di includere in questo processo tutte le componenti della popolazione, dalle fasce più giovani a quelle più anziane, riconoscendo che persone con disabilità e minoranze incontrano spesso barriere e limitazioni maggiori nell’accesso agli strumenti tecnologici. Il documento “Smarter & Inclusive Cities” evidenzia come il 66% della popolazione mondiale sia connessa a Internet, mentre in Europa si registra una media di circa l’89%. Questa discrepanza suggerisce la necessità di linee guida e interventi che riducano il divario digitale, altrimenti destinato ad accentuare disparità economiche e sociali. Gli approfondimenti contenuti nello studio ricordano che il 69% degli uomini nel mondo accede a Internet, contro il 63% delle donne, e che la percentuale di residenti in aree urbane connessi alla rete è maggiore rispetto a quella delle zone rurali. Tale gap digitale non è solo geografico ma anche generazionale, dal momento che il 75% dei giovani tra i 15 e i 24 anni utilizza la rete, dieci punti percentuali in più rispetto alla media delle fasce d’età restanti. Diventa evidente che le nuove tecnologie possono fungere da catalizzatore sia di sviluppo sia di marginalizzazione, a seconda di come sono progettate e implementate. Questo porta a riflettere sull’importanza di costruire servizi digitali accessibili, in grado di colmare differenze di genere e di provenienza socioeconomica, tenendo conto delle competenze effettive e dei rischi di esclusione. L’esperienza di alcune realtà urbane conferma che il semplice impiego di sensori e soluzioni high-tech non garantisce da solo miglioramenti nelle condizioni di vita dei residenti. Il caso di Songdo in Corea del Sud, concepita come luogo ipertecnologico e a bassissimo impatto ambientale, ha mostrato come la ridotta adesione della popolazione locale possa vanificare gli obiettivi iniziali. Allo stesso modo, Santander in Spagna ha introdotto un vastissimo numero di sensori, ma si è trovata a dover gestire un’intensa mole di manutenzione e problemi di privacy dei dati. Da questi esempi negativi, l’analisi proposta da “Smarter & Inclusive Cities” ricava l’importanza di mettere la persona al centro, con processi partecipativi fin dalla fase di progettazione. La tecnologia non dovrebbe essere l’unico driver di sviluppo, ma uno strumento per affrontare problemi reali, dall’inquinamento atmosferico all’accesso ai servizi di base come l’istruzione e la sanità. Se si desidera rendere una città inclusiva e intelligente, occorre dunque considerare un approccio olistico, dove la dimensione sociale e quella economica dialogano con quella digitale, nella prospettiva di costruire una città incentrata sui bisogni delle persone . Ciò implica coinvolgere i residenti nelle fasi decisionali, stimolare partnership con università, startup, aziende locali e associazioni del territorio, e sviluppare metodologie di analisi dei dati che tutelino la riservatezza e i diritti fondamentali dei cittadini. Smarter & Inclusive Cities: partecipazione e inclusione digitale Le strategie di inclusività proposte da “Smarter & Inclusive Cities” puntano su un elemento chiave: l’engagement della comunità . Le esperienze di Rotterdam nei Paesi Bassi mostrano come la progettazione condivisa di soluzioni digitali possa avere impatti positivi sull’efficienza dei servizi e sui costi di gestione. Con la realizzazione dell’app Meld’R, co-progettata con i cittadini e mirata alla segnalazione in tempo reale di problemi negli spazi pubblici, il 70% delle segnalazioni totali viene ora canalizzato attraverso il canale digitale, con un risparmio di oltre 180.000 euro nel primo anno. L’amministrazione locale, dopo questo successo, ha deciso di estendere il medesimo approccio user-centric ad altre aree comunali, a conferma di quanto la co-creazione possa favorire risultati tangibili e una maggiore fiducia istituzionale. Parallelamente, diversi governi hanno avviato programmi di formazione digitale rivolti a persone con scarse competenze informatiche, spesso donne e anziani. A Greater Manchester, nel Regno Unito, è stato avviato il Digital Inclusion Agenda con l’obiettivo ambizioso di arrivare a una copertura totale, offrendo competenze e dispositivi a chi non può permetterseli. Lo stesso spirito guida Sihanoukville in Cambogia, dove si stanno realizzando zone pubbliche con Internet gratuito e corsi di alfabetizzazione informatica per le fasce più deboli. L’iniziativa parte dal presupposto che solo eliminando le barriere di accesso alle nuove tecnologie si può offrire a tutte le componenti sociali una reale opportunità di partecipazione, incrementando così la vitalità economica e sociale di un territorio. Le esperienze di Tartu in Estonia mostrano come un progetto di bilancio partecipativo, definito con procedure inclusive e piattaforme digitali facili da usare, possa rendere i cittadini protagonisti del processo decisionale. Nel caso specifico, la municipalità ha stanziato una quota delle risorse (circa 1% del budget investimenti) per progetti proposti direttamente dai residenti. Questo meccanismo, denominato Participatory Budgeting, ha generato azioni concrete come rinnovamenti urbani e servizi aggiuntivi, riducendo inoltre la distanza tra Comune e popolazione. L’interesse principale sta nel fatto che la popolazione locale, informata e coinvolta, si sente maggiormente responsabile del risultato finale, e ciò favorisce una gestione più efficiente delle risorse. Da non sottovalutare, nel contesto delle Smarter & Inclusive Cities , i rischi di esclusione derivanti da un eccessivo affidamento ai soli canali digitali. L’approccio sostenuto dai ricercatori di “Smarter & Inclusive Cities” prevede di mantenere formati ibridi  per l’erogazione dei servizi, consentendo un accesso fisico alle informazioni e un supporto in presenza per coloro che non possiedono abilità tecnologiche adeguate. Questa forma di doppio binario risulta essenziale per garantire la continuità dei servizi durante la transizione digitale, evitando che alcune categorie di utenti (come gli anziani o chi ha esigenze speciali) rimangano escluse. La partecipazione e la co-creazione assumono così una connotazione concreta e propositiva, in cui i processi di sviluppo urbano vengono costruiti insieme alla comunità, invece di limitarsi a offrire soluzioni calate dall’alto. Smarter & Inclusive Cities: sicurezza e accesso digitale Un fattore centrale che emerge dal documento “Smarter & Inclusive Cities” riguarda l’importanza delle infrastrutture digitali  e della loro corretta gestione. Non basta coprire un’ampia fetta del territorio urbano con connessioni a banda larga o 5G, occorre pensare a come rendere queste infrastrutture accessibili e affidabili, in linea con standard di sicurezza robusti. L’Unione Europea, per esempio, punta a coprire tutte le aree popolate con reti Gigabit entro il 2030, ma il raggiungimento di tale traguardo richiede un dialogo costante fra enti pubblici, aziende di telecomunicazioni, università e associazioni della società civile, allo scopo di anticipare eventuali criticità legate ai costi o alla sostenibilità nel lungo periodo. Amsterdam, nei Paesi Bassi, fornisce un esempio significativo di come la questione della gestione dei dati debba essere affrontata con procedure definite e trasparenti. La città ha sviluppato uno standard sul trattamento dei dati di mobilità (City Data Standard for Mobility – CDS-M), finalizzato a usare le informazioni prodotte dai cittadini senza ledere la privacy e i diritti di chi si sposta quotidianamente in città. Tale approccio coniuga l’esigenza di ottimizzare i flussi di traffico con la volontà di non trasformare i residenti in “fornitori passivi di dati”. Simili iniziative dimostrano come definire chiare regole di governance digitale sia indispensabile per allineare gli obiettivi economici e di innovazione urbana con i principi etici e legali. A fianco della gestione dei dati, “Smarter & Inclusive Cities” sottolinea la centralità della cybersecurity . Nel periodo compreso tra luglio 2021 e giugno 2022, il 24% degli attacchi informatici registrati a livello globale si è rivolto verso l’amministrazione pubblica. Gli enti locali, sempre più digitalizzati, si trovano così esposti a minacce che possono bloccare interi servizi, causando danni reputazionali ed economici. È perciò fondamentale integrare la sicurezza informatica nella pianificazione strategica, a cominciare dall’addestramento del personale, per arrivare a protocolli di emergenza che garantiscano la continuità operativa. Helsinki, attraverso l’innovazione company Forum Virium, e Singapore, grazie a investimenti mirati sulla protezione dei dati, rappresentano due esempi virtuosi di come si possano conciliare le esigenze di una città connessa con quelle della tutela dei sistemi informativi. In questo contesto diviene fondamentale una forte leadership delle istituzioni, capace di promuovere politiche di responsabilizzazione degli operatori e di informazione pubblica mirata, evitando che la crescente digitalizzazione produca falle di sicurezza difficili da contrastare. Il passaggio a città più inclusive e intelligenti, sul piano infrastrutturale, prevede dunque un processo di rinnovamento che abbraccia aspetti tecnologici, normativi e socioculturali. Vanno studiati modelli di proprietà dei dati che garantiscano la trasparenza e rispettino la libertà individuale, con un occhio di riguardo agli standard aperti e all’interoperabilità tra diversi sistemi. La collaborazione tra pubblico e privato diventa essenziale: le aziende di telecomunicazioni, ad esempio, hanno un interesse economico nell’espandere le reti, ma necessitano di linee guida adeguate e incentivi per assicurare l’accessibilità ai segmenti più vulnerabili della popolazione. Sotto questo profilo, l’analisi del documento mette in luce come la “città intelligente” non sia un mero insieme di dispositivi interconnessi, ma un ecosistema di decisioni e responsabilità condivise. Smarter & Inclusive Cities: innovazione nella governance urbana L’inclusione e l’intelligenza in ambito urbano si traducono anche in una governance collaborativa . Secondo i ricercatori, le municipalità hanno il duplice compito di governare e di coordinare un quadro multi-attore, avviando processi di consultazione, cooperazione e scambio di informazioni. Il documento “Smarter & Inclusive Cities” descrive come Bristol, nel Regno Unito, abbia adottato il cosiddetto One City Approach, un modello che riunisce realtà pubbliche e private, università e organizzazioni della società civile per realizzare obiettivi comuni. Sono stati creati tavoli tematici su temi quali trasporti, sanità e sviluppo economico, facendo sì che la responsabilità non ricada unicamente sull’ente comunale. Per concretizzare un approccio inclusivo occorre agire su più fronti. Da un lato, è fondamentale elaborare strategie di medio-lungo termine che includano la riduzione delle emissioni di carbonio, la valorizzazione culturale e la crescita delle competenze digitali. Dall’altro, bisogna predisporre procedure amministrative che facilitino l’avvio di progetti pilota, come minipiloti rapidi, spesso dal costo contenuto (nell’ordine di qualche decina di migliaia di euro), in grado di testare idee innovative in contesti circoscritti. Alcune città nordeuropee, come Turku in Finlandia, hanno applicato questa logica per ridurre il traffico automobilistico in zone centrali, sfruttando sistemi di telecamere intelligenti per analizzare i flussi di veicoli. L’approccio sperimentale su piccola scala permette di valutare costi e benefici senza compromettere l’intero sistema urbano. Un ulteriore passaggio chiave consiste nella definizione di Key Performance Indicators (KPI) . Non basta enunciare obiettivi, occorre misurarli in modo chiaro e coerente. Gli indicatori possono riguardare molteplici dimensioni: la riduzione dei consumi energetici, la percentuale di rifiuti riciclati – Ljubljana, ad esempio, è riuscita a superare il 63% di rifiuti correttamente differenziati grazie a un sistema di smart waste management che utilizza sensori e ottimizza i percorsi dei mezzi, affiancando a queste tecnologie costanti campagne informative rivolte ai cittadini – l’aumento di persone che adottano mezzi di trasporto green, la diffusione di progetti di co-housing o la creazione di servizi sociosanitari digitali dedicati a fasce fragili. Vienna, con la sua Smart City Strategy, dimostra come un monitoraggio regolare spinga l’amministrazione a rivedere periodicamente le proprie politiche, producendo rapporti di valutazione in cui i risultati vengono confrontati con gli obiettivi previsti. Questa mentalità orientata all’analisi dei dati favorisce la correzione tempestiva delle azioni e il continuo miglioramento delle iniziative. Le città che si avventurano in processi simili devono tuttavia fare i conti con la complessità istituzionale, la mancanza di fondi strutturali adeguati e, a volte, con la resistenza culturale di alcuni gruppi sociali. È qui che emerge l’importanza della leadership politica, capace di creare una visione condivisa ma anche di sostenere percorsi di formazione e partecipazione. Se la governance non riesce a adattarsi e a coinvolgere la cittadinanza, resta il rischio di generare interventi isolati, difficili da scalare o integrare in maniera organica. Nel quadro delineato dallo studio, appare ormai indispensabile un coordinamento intersettoriale, così da mettere in dialogo settori solitamente separati come trasporti, edilizia, welfare e innovazione digitale. Smarter & Inclusive Cities: progetti e opportunità di sviluppo Dall’analisi delle iniziative introdotte nei vari contesti urbani, risulta evidente come l’adozione di logiche agili e sperimentali  possa generare benefici estesi. Il concetto di living lab, ad esempio, definisce spazi fisici o virtuali dove pubblica amministrazione, centri di ricerca, privati e cittadini si confrontano per individuare soluzioni in tempo reale. Alcuni di questi laboratori promuovono challenge specifiche, come l’abbattimento delle barriere architettoniche per le persone con disabilità, oppure il miglioramento della qualità dell’aria attraverso meccanismi di monitoraggio e riduzione delle emissioni in specifici quartieri. Il percorso di Tartu per incentivare l’uso della bici pubblica o quello di Narva, sempre in Estonia, che ha misurato il benessere urbano tramite il Well-being Score, mostrano come un’idea apparentemente limitata possa creare un effetto a catena. Quando un progetto raggiunge risultati soddisfacenti, si passa alla fase di upscaling: si estende la sperimentazione ad altre aree cittadine, si coinvolgono ulteriori partner, oppure si replicano le soluzioni in contesti geograficamente diversi, adattandole ai relativi vincoli legislativi e culturali. I meccanismi di espansione o replica sono cruciali per passare da micro-interventi, magari poco visibili, a una visione di sistema  in grado di ridisegnare servizi chiave come mobilità, gestione rifiuti, illuminazione pubblica o reti energetiche. Tuttavia, non tutti i progetti sperimentali giungono a conclusioni soddisfacenti. L’insuccesso, spesso, è parte del processo di apprendimento e andrebbe considerato un prezioso strumento per correggere la pianificazione. A volte occorre integrare competenze ulteriori o rivedere totalmente l’approccio. Helsinki, per esempio, sperimenta costantemente minipiloti e, quando non funzionano, utilizza i risultati negativi per migliorare i bandi successivi, puntando su un assetto agile in cui gli errori non sono una sconfitta, bensì un passo verso il perfezionamento delle politiche pubbliche. Guardando al panorama internazionale, emergono casi di sfide comuni. Nel novembre 2021, UN-Habitat e il governo svedese hanno lanciato la Climate Smart Cities Challenge , un programma internazionale rivolto a quattro città: Bristol (Regno Unito), Curitiba (Brasile), Makindye Ssabagabo (Uganda) e Bogotà (Colombia) . Il punto di forza di queste iniziative sta nella condivisione di pratiche e competenze. Trasferire un prototipo da una località all’altra non è sempre lineare, per via di regolamenti differenti e condizioni socioeconomiche peculiari. Tuttavia, l’opportunità di creare network di città che condividono esperienze consente un rapido avanzamento collettivo, oltre a un sensibile abbattimento dei costi di ricerca e sviluppo. La prospettiva futura, come evidenziato più volte nel documento “Smarter & Inclusive Cities”, vede una sempre più stretta collaborazione tra livelli di governo locale, organizzazioni internazionali (come l’UNDP) e investitori privati pronti a scommettere su soluzioni capaci di combinare profitto e impatto sociale. Saranno cruciali la formazione di dirigenti e funzionari che sappiano gestire progetti digitali complessi, la presenza di comunità e associazioni capaci di partecipare ai processi decisionali e la costruzione di infrastrutture solide che favoriscano la connettività su larga scala. Conclusioni I risultati che emergono da “Smarter & Inclusive Cities” invitano a riflettere in modo realistico sulla convergenza fra tecnologie digitali, inclusione sociale e gestione urbana. I dati presentati non esauriscono la complessità del tema, ma forniscono un quadro chiaro di quanto le città abbiano già sperimentato e di quanto ancora rimanga da fare per rendere i territori luoghi più vivibili, sostenibili e accessibili. Attori pubblici e privati stanno già collaborando allo sviluppo di piattaforme di e-governance, servizi di co-progettazione e metodologie di analisi dei dati, mentre l’avanzamento di pratiche come i bilanci partecipativi o i living lab rende meno teorico il coinvolgimento dei cittadini. Altre tecnologie similari, già mature e diffuse, si intrecciano con progetti di monitoraggio ambientale o con sistemi di trasporto ecologico. L’innovazione, in quest’ottica, non consiste solo in servizi più rapidi o in una sensorizzazione capillare, ma nel saper tenere insieme dimensioni apparentemente distanti, come l’efficienza amministrativa, la tutela della privacy, la riduzione delle disuguaglianze e la sostenibilità di lungo periodo. Per imprenditori e dirigenti aziendali, questa prospettiva rappresenta un’opportunità per sviluppare modelli di business cooperativi, fondati su investimenti con ricadute sia economiche sia sociali. Uno sguardo alle sfide globali, dai cambiamenti climatici alla robotica urbana, conferma che solo chi riuscirà a integrare creatività e pianificazione strategica potrà mantenersi competitivo in un contesto ormai interconnesso. Ecco perché la collaborazione di enti internazionali, municipalità, imprese e cittadini resta la strada privilegiata per progettare città davvero inclusive e intelligenti , facendo in modo che i benefici dello sviluppo tecnologico non restino appannaggio di pochi, ma diventino risorse collettive per una migliore qualità della vita. Podcast: https://spotifycreators-web.app.link/e/Oh3jp5DMKPb Fonte:   https://www.undp.org/eurasia/publications/smarter-and-inclusive-cities

  • Strategic Investments in Italy 2025: The Role of Cassa Depositi e Prestiti (CDP)

    Strategic Investments in Italy 2025 are closely tied to the central role of Cassa Depositi e Prestiti (CDP), stemming from extensive reflection that involves CDP and other national and international economic institutions. This reflection focuses on strengthening the Italian entrepreneurial fabric, exploring future growth scenarios, and examining the ongoing transitions in Europe. It delves into key strategic investments in Italy by 2025, highlighting CDP’s intervention plans to support infrastructure, small and medium-sized enterprises (SMEs), local communities, and complex projects. Special attention is given to CDP’s involvement in boosting competitiveness, innovation, sustainability, and the potential impact of generative AI on business models. Strategic Investments in Italy 2025: The Role of Cassa Depositi e Prestiti (CDP) Cassa Depositi e Prestiti’s Key Role in Strategic Investments for Italy 2025 Cassa Depositi e Prestiti is a joint-stock company controlled by the Italian State. It was originally established in Turin in 1850 to receive deposits as a trustworthy public institution. Shortly afterward, in 1857, a Royal Decree added the function of providing financing to public entities. Its historical trajectory underlines its central place in Italy’s progress, as it was instrumental in expanding essential infrastructure and services. Postal savings were introduced in 1875 with the launch of savings passbooks, which financed public works and helped reduce the debt of local authorities. Interest-bearing bonds (Buoni Fruttiferi) followed in 1924, further reinforcing CDP’s channels for raising funds. A crucial aspect of this evolution also appeared on the organizational front. In 1983, CDP began separating its operations from the State, and on December 12, 2003, it was converted into a joint-stock company (S.p.A.) to align its structure with market competitiveness principles, while still maintaining State control. Today, the Ministry of Economy and Finance holds 70% of the shares, and over sixty banking foundations collectively own the remaining 30%. This ownership structure makes Cassa Depositi e Prestiti a pivotal player in Italy’s strategic investments for 2025. Governance rests with a Board of Directors composed of nine members, with an additional five members joining whenever decisions on State-guaranteed loans are made. The company’s organizational structure is divided into two main operational areas: Separate Management Supports investments by the State, Regions, Provinces, Municipalities, and other public entities. Funding for this activity is drawn from State-guaranteed sources such as Postal Savings Passbooks and Interest-Bearing Bonds. Ordinary Management Enables CDP to fund businesses and projects that do not fall under its more institutional interventions. This dual configuration, laid out in legislation, ensures that State-backed funding is kept separate from market-based resources, thus complying with State aid regulations and promoting a level competitive field. Beyond traditional lending, CDP has expanded its scope to include private equity operations, a strong focus on both national and international infrastructure, and the enhancement of public real estate assets. It now holds stakes in both publicly traded and privately held companies, as well as shares in private investment funds. The core institutional function of CDP lies in using postal savings as a driving force for infrastructure initiatives and projects serving the public interest, including engagement with private companies whenever projects meet economic and creditworthiness criteria. Through separate management, the Italian State directly guarantees such resources on par with government debt securities. However, under ordinary management, projects can be funded without State guarantees. These historical foundations are not merely a legacy; rather, they actively influence CDP’s current mission. Its 2025–2027 Strategic Plan underscores the intent to reinforce its standing as a promotional partner in Italy’s development, strengthening ties with businesses and infrastructure sectors. The plan cites surpassing 3 billion euros in profit for the first time, evidence of robust financial health, alongside enhanced ESG ratings (Moody’s Analytics, Morningstar Sustainalytics, and ISS ESG)—a sign of CDP’s commitment to both profitability and social impact. The institution aims to facilitate access to Next Generation EU resources by assisting central and local administrations with the National Recovery and Resilience Plan (PNRR) and the associated investments in core areas such as infrastructure, energy, water management, waste, and public services. According to the plan, four strategic priorities take center stage: Enterprise Competitiveness Security , understood as reducing dependence on critical raw materials Just Transition , encouraging the energy shift and circular economy Territorial Cohesion , with a particular focus on Southern Italy Implementation hinges on an operational model that leverages advisory services for public administration, direct equity investments, real-asset projects such as social housing, urban regeneration, tourism, and the scaling-up of international operations, especially in Africa. The document “ Investments in Italy 2025: Data, Challenges, and Opportunities for the Future ” places CDP’s role within a broader context. Economic projections suggest modest GDP growth in Italy by 2025, influenced by demographic decline, global market uncertainties, inflationary pressures, and higher interest rates that may curb some investments. Hence, providing credit access to businesses—especially SMEs—and supporting public administrations in effectively managing EU recovery funds become crucial tasks. CDP’s historical legacy has effectively turned it into a promotional finance platform capable of mobilizing both public and private resources for inclusive growth, supporting projects that combine social impact with economic viability. Success in this mission relies not only on solid funding sources but also on how CDP executes its competencies, promoting a development model that invests in infrastructure, research, and digital transformation while fostering social cohesion, particularly in education, housing, and the renewal of urban environments.   Economic Strategies Backing Italy’s 2025 Investments: CDP’s Contributions The insights provided by the “Investments in Italy 2025”  document shed new light on Italy’s economic and financial outlook during the 2025–2027 timeframe covered by CDP’s Strategic Plan. On one hand, there are opportunities arising from public policies and the drive toward a green and digital transition. On the other hand, challenges persist, including a declining birth rate, an aging population, ongoing geopolitical tensions, and global market volatility. According to the data, the Italian economy is likely to end 2024 with growth below 1% of GDP, hampered by declining private investments and limited liquidity due to high interest rates. At the same time, household consumption is robust, supported by historically high employment levels (24.1 million employed as of October 2024). Projections for 2025 suggest a slight uptick in GDP growth to around 0.8%, coupled with a gradual reduction in ECB interest rates and an inflation rate settling at approximately 2.0%. Yet, uncertainty on the global stage could still hold back private investments, making stronger public and institutional support essential. CDP can contribute significantly here, offering credit to businesses, helping to bridge the financing gap that particularly affects SMEs and Southern regions. Such initiatives are a core objective for strategic investments in Italy by 2025. Balancing this support with banking channels and pursuing alternative financing solutions is key to fueling growth and backing technological innovation, including AI adoption. Generative AI, for instance, is expanding rapidly, reshaping internal business processes, and opening entirely new horizons for workforce training and skill management. Analysts estimate that harnessing these advanced tools could increase productivity by over 5% in roughly 40% of businesses, partly compensating for demographic decline and the shortage of skilled workers in many industries. Funding efforts extend beyond traditional infrastructure such as roads, bridges, or digital networks, encompassing energy security and water efficiency. Since water resource availability and distribution remain critical, especially in vulnerable areas, CDP has plans to increase involvement in infrastructure project financing with measurable local development impacts. The approach is one of “additionality,” injecting new capital where the market alone cannot, balancing risk, returns, and environmental or social impact. On the international front, CDP strives to serve as a “bridge” between Italian companies and fast-growing markets like sub-Saharan Africa. The organization’s 2025–2027 plan outlines proposals to open extra-EU offices in Kenya and Côte d’Ivoire to align with local priorities and identify potential collaborations with other development banks. This global dimension is not just about expanding commercial boundaries but also about leveraging EU programs like InvestEU, which provides resources and guarantees for high-priority endeavors in strategic sectors. Italy’s competitiveness will hinge on cooperation among institutions, enterprises, and the financial sector. Within the public sphere, besides CDP, the Public Administration also has a primary role in effectively harnessing national and European cohesion funds. Statistics indicate that over 140 billion euros have been allocated for cohesion policies in the 2021–2027 period, and partnerships with CDP can help reach local entities that lack the technical and financial expertise to benefit from these funds. In this context, advisory services become a decisive element. Drawing on its extensive know-how, CDP can guide the design and implementation of projects financed through EU funds, assisting public administrations in overcoming delays and optimizing results. By embedding sustainability into its business model, CDP positions itself as a promotional bank that assesses projects through a risk-return-impact lens, balancing financial performance with social benefits. Improvements in ESG ratings confirm the organization’s pledge to incorporating environmental, social, and governance criteria into investment decisions. Macroeconomic analysis also indicates that the stability of the Eurozone and conditions in key trading partners (notably Germany and the United States) will substantially affect Italian exports. Challenges within German industry, policy changes in the United States, and emerging protectionist trends add complexity. As a result, Italian companies must strengthen themselves, both financially and technologically. CDP can support business aggregations centered on “systemic cooperation,” expanding the pool of exporters and enhancing supply-chain resilience. The need to promote investments has reached a pivotal point. From logistics and energy to hospitality and social housing, transformation depends on effective private-sector involvement, backed by institutional support. Where the market struggles to handle more intricate financing needs, CDP is poised to act as a “solid partner” for public agencies and businesses alike, creating synergies with public funds and potentially channeling private capital into long-term, high-value projects for the community.   Innovation and AI in Strategic Investments: CDP’s Vision for 2025 The evaluations by Cassa Depositi e Prestiti and the “Investments in Italy 2025” document underscore the need to merge CDP’s traditional role as a promotional bank with a pronounced focus on technological innovation and digitalization. The adoption of AI solutions, particularly generative AI, presents opportunities for both large companies and SMEs to strengthen their competitive positions. The document notes that, despite Italy’s strong manufacturing base and its well-known export orientation, its venture capital ecosystem lags behind countries like Germany or France. Fostering an environment where new technology-intensive businesses can flourish, along with innovative startups, entails nurturing a more dynamic private equity market. Capital rotation and the so-called “crowding-in” of institutional investors can help achieve critical mass. In this regard, CDP has already begun programs to support high-potential companies through direct equity investments, aiming to build internationally competitive industrial supply chains. Such support is not limited to the early stages of a company; rather, it extends to ensuring continued growth. In its 2025–2027 Strategic Plan, CDP emphasizes that one of its guiding principles is preserving its own financial strength while carefully increasing its risk exposure to priority ventures related to the energy transition, innovation, and territorial cohesion. This approach highlights that, while spurring innovation, CDP aims to manage risk responsibly, combining technical expertise and financial analysis into a unified strategy. An additional concern tied to innovation involves cybersecurity and the energy consumption that widespread generative AI adoption can entail. The implications here are significant: safeguarding corporate data and ensuring responsible AI usage become essential, as does investing in digital infrastructure (cloud services, advanced computing, etc.) to meet rising demand. This objective aligns with reducing dependence on external energy and technological resources, potentially through public-private partnerships designed to bolster strong domestic competencies. At the operational level, CDP’s strategy includes a more regionally oriented model that sets up local coordination hubs and shared offices with banking foundations. These foundations—already involved as shareholders—are well-positioned to understand the needs of businesses in local areas. Together, they can reduce information gaps and promote discussions among entrepreneurs, financial institutions, universities, and research centers, fostering the use of AI, automation, and digital transformation even in sectors like agribusiness or tourism, which have been slower to adopt advanced technologies. Innovation efforts also align with the energy transition. CDP sees the just transition as one of its core principles, proposing initiatives for the circular economy and climate adaptation projects. Concurrently, it highlights the importance of real-asset investments, focusing on social housing, senior and student housing, new tourism models, and urban redevelopment. The goal is to attract third-party and institutional investors, channeling resources toward improving Italy’s real estate portfolio with an emphasis on energy efficiency. This focus dovetails with the broader aim of making Italian cities more livable and aligned with EU sustainability targets. Within the broader macroeconomic scenario, green initiatives and technological innovation remain vital in combating inflationary pressures and implementing major projects that deliver medium- to long-term impact. CDP’s dedication to global collaboration is evidenced by its cooperation with similar promotional banks in Europe and through its participation in EU funding and advisory programs. By leveraging these opportunities, CDP can extend its impact, provide various financing instruments, and open pathways for Italian companies to compete in international markets. Looking beyond 2025, some challenges call for forward-looking policies. Demographic change is among the most pressing, potentially affecting the availability of labor and, by extension, overall productivity. Integrating new technologies like AI should be viewed not as a threat to jobs but as an opportunity to enhance efficiency and encourage younger generations to seek careers in high-potential sectors. Workforce education and cultural shifts within organizations become pivotal, as emphasized by CDP’s resolve to bolster its internal human capital and attractiveness for specialized talent. Overall, the forecasts for investments and macroeconomic conditions in Italy show that an integrated approach is essential for future growth. Coordination among financial institutions, enterprises, and both central and local governments is the only way to maximize the impact of development plans pursued by the Cassa. Drawing upon specialized expertise, an ability to innovate, a deep appreciation for the entrepreneurial fabric, and a focus on local communities forms the essence of CDP’s strategy to overcome longstanding barriers to Italy’s competitiveness.   CONCLUSIONS Comparing CDP’s 2025–2027 Strategic Plan with the information found in “Investments in Italy 2025”  reveals that Italy is at a critical juncture for defining its competitive edge. The emphasis now goes beyond metrics like profit or total invested resources, turning instead toward the ambition to serve as a promotional bank committed to social impact and environmental sustainability, while still maintaining financial solidity. The broader European and global context suggests a renewed focus on energy autonomy, better stewardship of key raw materials, and interest-rate management aimed at long-term stability. As new technologies play an increasing role in providing financing and business support tools, CDP’s strategy extends well past traditional lending, involving knowledge transfer, local outreach, partnerships with banking institutions and foundations, equity investments, and collaboration with private capital markets. Infrastructure development, the rise of generative AI, and the green economy must also adapt to geopolitical tensions and unpredictable market conditions. Past lessons demonstrate that unforeseen challenges can arise, but methodical planning and goal-sharing with all economic actors help reinforce resilience. For entrepreneurs and managers, this environment calls for reimagining supply chains, integrating emerging technologies, and sometimes collaborating with competitors in the pursuit of greater collective efficiency. Establishing regional hubs and bolstering dialogue with local enterprises distinguish CDP’s approach from the strategies of many other financial institutions. Such measures may help assess local needs more accurately, offering tailor-made advisory services to address weaknesses or leverage emerging opportunities. Meanwhile, cooperating closely with the European Union—through programs like InvestEU—will likely prove crucial in turning Italy into a prime venue for highly innovative projects that can also foster high-value employment. Though many of the financial tools and risk-sharing mechanisms supporting businesses are already known in the market, having a promotional bank under State control act in harmony with other European development banks and private investors creates a sense of cohesion. This unity can see initiatives through from concept to implementation, bridging gaps that might otherwise remain insurmountable. Looking ahead, the trajectory is clear: attention to the ecological and energy transition, a firm commitment to digital innovation, the safeguarding of Italy’s cultural and social fabric, and investment in forward-thinking skill sets. Rather than a patchwork of isolated measures, there is a push to redefine public investment and economic growth in a manner that sees sustainability as the structural foundation for competitiveness and opportunity. For business leaders, the main task involves aligning with these developmental pathways, selecting technologies and markets compatible with national and EU priorities. CDP’s presence as a partner offers access to expertise, guarantees, and resources that might otherwise be out of reach. In this sense, broader adoption of collaborative models and openness to advanced financing instruments—ranging from venture capital to hybrid loans—may allow Italy to regain momentum and reestablish itself as a hotbed of innovation, leveraging its manufacturing tradition together with AI and sustainability. Ultimately, this fosters a renewed covenant of trust among the State, enterprises, and society. Cassa Depositi e Prestiti serves as a proving ground for solutions that the contemporary European context finds increasingly vital for maintaining competitiveness and inclusive growth. Ideally, this progression will strengthen further, enabling the system as a whole to demonstrate that modernity can coexist with heritage, and that innovation, properly fostered and directed, is a cornerstone of the nation’s economic and social prosperity. Podcast: https://spotifycreators-web.app.link/e/s0pSsFZwKPb

  • Investimenti strategici in Italia 2025 con Cassa Depositi e Prestiti

    Lo sviluppo e le prospettive per gli investimenti strategici in Italia 2025, con un ruolo centrale di Cassa Depositi e Prestiti, rappresentano il frutto di una riflessione che coinvolge Cassa Depositi e Prestiti  e altri enti nazionali e internazionali del mondo economico. La riflessione si concentra sul potenziamento del tessuto imprenditoriale italiano, sugli scenari di crescita futura e sulle transizioni che caratterizzano l’Europa, analizzando i principali investimenti strategici in Italia 2025 , evidenziando i piani di intervento della CDP a sostegno di infrastrutture, PMI, territori e progetti complessi. Nel dettaglio, emergono analisi sugli investimenti in Italia, con particolare attenzione al ruolo di Cassa Depositi e Prestiti in termini di competitività, innovazione, sostenibilità e possibili impatti dell’AI generativa sui modelli di business. Investimenti strategici in Italia 2025 con Cassa Depositi e Prestiti Il ruolo strategico di Cassa Depositi e Prestiti negli investimenti strategici in Italia 2025 Cassa Depositi e Prestiti è una società per azioni controllata dallo Stato italiano, nata a Torino nel 1850 per ricevere depositi in qualità di luogo di fede pubblica. Nel giro di pochi anni, con un Regio Decreto del 1857, si è aggiunta la funzione di finanziamento degli Enti pubblici. Le sue radici ne testimoniano la centralità storica nella crescita del Paese, poiché il suo sviluppo è stato determinante nell’espansione di infrastrutture e servizi essenziali. Il risparmio postale  è entrato in scena nel 1875 con l’introduzione dei libretti che hanno sostenuto opere pubbliche e l’ammortamento dei debiti degli Enti locali, mentre i Buoni fruttiferi  hanno fatto la loro comparsa nel 1924, consolidando ulteriormente i canali di raccolta. L’elemento rilevante di questa evoluzione si è manifestato anche sul piano organizzativo, culminando nel 1983  con l’avvio del processo di separazione dallo Stato, formalizzato poi il 12 dicembre 2003 con la trasformazione in S.p.A., anche al fine di adeguare la struttura della Cassa ai principi di competitività, pur mantenendo una partecipazione statale di controllo. Oggi il Ministero dell’Economia e delle Finanze detiene il 70% delle azioni, mentre il 30% si trova nelle mani di oltre sessanta Fondazioni di origine bancaria, rendendo Cassa Depositi e Prestiti un attore cruciale negli investimenti strategici in Italia 2025 . Gli equilibri di governance sono affidati a un Consiglio di Amministrazione composto da nove membri, cui se ne aggiungono altri cinque nelle circostanze in cui si deliberano finanziamenti garantiti dallo Stato. L’assetto della società si declina principalmente in due aree operative: da una parte la gestione separata , che sostiene gli investimenti di Stato, Regioni, Province, Comuni e altri Enti pubblici, e si avvale di forme di raccolta garantite dallo Stato come Libretti di Risparmio e Buoni Fruttiferi, dall’altra la gestione ordinaria , in cui CDP può finanziare aziende e progetti non inquadrabili tra gli interventi più istituzionali. Questa distinzione, definita dalla Legge, consente di mantenere separate le fonti di denaro garantite dallo Stato da quelle di mercato, così da rispettare la normativa sugli aiuti di Stato e favorire l’equilibrio competitivo. Oltre all’attività di finanziamento tradizionale, CDP ha allargato il proprio orizzonte verso nuovi strumenti e strategie. In particolare, ha avviato operazioni nel private equity , con un occhio attento alle infrastrutture nazionali e internazionali, e si è concentrata sulla valorizzazione del patrimonio immobiliare pubblico. Nel suo portafoglio figurano ora partecipazioni in società quotate e non quotate, oltre a quote in fondi di investimento privati. Lo snodo cruciale, per comprendere la funzione istituzionale di CDP, risiede nell’idea di utilizzare la raccolta postale come volano per interventi su infrastrutture e progetti di interesse generale, coinvolgendo anche aziende private, purché sussistano condizioni di sostenibilità economica e di merito di credito. Con l’opzione della gestione separata , la Cassa tutela la garanzia diretta dello Stato alla stregua dei titoli di debito pubblico, mentre nel caso della gestione ordinaria, i progetti possono essere sostenuti senza la copertura statale. Le basi storiche, dunque, non rappresentano semplicemente un retaggio del passato, ma un fattore che influenza in modo diretto la missione odierna di CDP. Nel Piano Strategico 2025-2027  presentato da Cassa Depositi e Prestiti emerge la volontà di consolidare questo ruolo di partner promozionale per lo sviluppo del Paese, rafforzando la vicinanza alle imprese e alle infrastrutture. Nel piano strategico si cita il superamento di 3 miliardi di euro di utile  per la prima volta, a testimonianza della solidità finanziaria raggiunta, e vengono riportati miglioramenti di rating ESG (Moody’s Analytics, Morningstar Sustainalytics e ISS ESG), segno dell’attenzione al rapporto tra redditività e impatto sociale. CDP punta, inoltre, a rendere più agevole l’accesso ai fondi del Next Generation EU , coadiuvando amministrazioni centrali e locali nella gestione del PNRR e dei relativi investimenti in settori chiave come infrastrutture, energia, idrico, rifiuti e servizi pubblici. Le direttrici strategiche proposte, secondo quanto emerge dai dati, sono orientate su quattro priorità: la competitività delle imprese, la sicurezza intesa come capacità di rendere indipendente il Paese rispetto a materie prime critiche, la just transition per favorire la transizione energetica e l’economia circolare, nonché la coesione territoriale, con un occhio di riguardo al Mezzogiorno. Per abilitare queste priorità, occorre un modello operativo che faccia leva sui servizi di advisory verso la Pubblica Amministrazione, sugli investimenti diretti in equity , sui progetti di real asset  come l’abitare sociale, la rigenerazione urbana e il turismo, e su una spinta all’attività internazionale, soprattutto in Africa. Nel documento “ Investimenti in Italia 2025: dati, sfide e opportunità per il futuro ”  si delineano poi scenari che collocano il ruolo di CDP in una cornice più ampia. Secondo queste valutazioni, la crescita del PIL italiano per il 2025 si attesterà in maniera moderata, complici fattori strutturali come il calo demografico e l’incertezza sui mercati globali, ma anche per via di un quadro di inflazione e politica monetaria che ha alzato i tassi di interesse, frenando parte degli investimenti. Da qui si capisce quanto sia cruciale sostenere l’accesso al credito per le imprese, soprattutto PMI, e aiutare le amministrazioni nella gestione dei fondi europei destinati al rilancio. L’eredità storica di CDP diventa quindi una piattaforma di finanza promozionale, utile a mobilitare risorse pubbliche e private, in un’ottica di crescita inclusiva , orientata a iniziative che combinino impatto sociale ed equilibrio economico. Il successo di questa missione non dipende solo dalle fonti di finanziamento, ma anche dall’abilità con cui la Cassa saprà mettere a terra le competenze, promuovendo un modello di sviluppo in cui l’investimento nelle infrastrutture, nella ricerca e nella trasformazione digitale si accompagni alla coesione sociale, specie in settori come la formazione, l’abitare e la rigenerazione dei tessuti urbani.   Strategie economiche per gli investimenti strategici in Italia 2025: il supporto di Cassa Depositi e Prestiti I contenuti del documento “ Investimenti in Italia 2025 ” gettano nuova luce sul clima economico e finanziario che il Paese si troverà a vivere nel triennio del Piano Strategico 2025-2027 di CDP. Da un lato, si intravedono opportunità legate alle politiche pubbliche e alla spinta per una transizione verde e digitale, dall’altro emergono criticità, come la bassa natalità, l’invecchiamento della popolazione, il complicato quadro di tensioni geopolitiche e la variabilità dei mercati internazionali, che creano incertezza. Nel documento, si evidenzia come l’economia italiana chiuda il 2024 con una crescita inferiore all’1% del PIL, ostacolata da investimenti privati in calo e vincoli di liquidità dovuti a tassi di interesse elevati. In compenso, si rileva un supporto forte dei consumi, frutto di un mercato del lavoro con un numero di occupati storicamente elevato (24,1 milioni a ottobre 2024). Il percorso del 2025 appare in leggera ripresa, con una stima del PIL allo 0,8% e una prospettiva di riduzione graduale dei tassi da parte della BCE, insieme a un’inflazione che potrebbe assestarsi attorno al 2,0%. Tuttavia, il dinamismo atteso nei consumi e l’allentamento dei tassi di interesse non basterebbero, di per sé, a spingere al rialzo gli investimenti privati, frenati da una percezione di incertezza globale. Proprio qui si inserisce il potenziale sostegno di CDP nel favorire prestiti alle imprese, nella logica di colmare il gap di finanziamento che ancora oggi pesa soprattutto su PMI e territori meridionali, uno degli obiettivi principali degli investimenti strategici in Italia 2025 . Il grado di complementarità con il canale bancario e la possibilità di adottare sistemi di finanza alternativa risultano essenziali per irrobustire la crescita e finanziare le innovazioni tecnologiche, compresa l’adozione dell’ intelligenza artificiale . Si consideri l’AI generativa, un fenomeno in forte espansione, capace di trasformare i processi interni delle aziende, ma anche di aprire scenari del tutto nuovi nella formazione e nella gestione delle competenze. Secondo le stime citate dagli analisti, infatti, l’adozione di strumenti innovativi potrebbe produrre incrementi di produttività superiori al 5% in quasi il 40% delle realtà imprenditoriali, in parte compensando il calo demografico e la scarsità di personale qualificato che caratterizza molti settori. È rilevante notare che la spinta ai finanziamenti non riguarda solo le infrastrutture, come strade, ponti o reti digitali, ma si estende anche a interventi sulla sicurezza energetica e sull’efficienza idrica, considerando che la disponibilità e la corretta distribuzione di risorse idriche restano obiettivi fondamentali, specie nelle aree più vulnerabili. Nel documento di CDP si parla di un aumento dell’operatività nel project financing infrastrutturale, per sostenere opere di dimensioni variabili e con un impatto misurabile sullo sviluppo locale. La logica è di “addizionalità,” cioè, di inserirsi con nuove risorse dove il mercato non arriva, puntando a mantenere un equilibrio tra rischio, rendimento e impatto sociale o ambientale. In parallelo, la dimensione internazionale diventa cruciale. L’idea che CDP possa operare da “ponte” tra le imprese italiane e i mercati esteri, specie nelle aree in forte sviluppo come l’Africa subsahariana, porta con sé la possibilità di sbloccare progetti di cooperazione e di coinvolgere attori privati nella realizzazione di infrastrutture e servizi. Nel documento del Piano Strategico 2025-2027 si rimarca che la CDP prevede di aprire sedi territoriali extra-UE in Kenya e Costa d’Avorio, promuovendo il contatto diretto con le esigenze locali e identificando così aree di collaborazione con altre banche di sviluppo. L’aspetto internazionale non è solo una questione di allargare i confini commerciali, ma implica anche lo sfruttamento dei programmi dell’Unione Europea, come InvestEU, che mette a disposizione risorse e garanzie per progetti di particolare rilevanza in settori strategici. La competitività  del sistema Italia non potrà prescindere dalla sinergia tra istituzioni, imprese e mondo finanziario. Sul versante pubblico, oltre alla CDP, un ruolo di primo piano spetta alla Pubblica Amministrazione, che deve imparare a utilizzare efficacemente i fondi di coesione europei e nazionali. Secondo i dati, sono oltre 140 miliardi di euro le risorse destinate a politiche di coesione per il periodo 2021-2027, e la collaborazione con CDP può consentire di raggiungere Enti locali meno strutturati, bisognosi di soluzioni tecniche e finanziarie su misura. Il meccanismo di advisory  diventa allora uno snodo decisivo: CDP, con il proprio bagaglio di competenze, è in grado di assistere la progettazione e l’implementazione di interventi finanziati dai fondi europei, aiutando le Amministrazioni a superare ritardi e a massimizzare i risultati. Grazie all’integrazione della sostenibilità nel modello di business, la Cassa si presenta come una banca promozionale che valuta i progetti in una logica di rischio-rendimento-impatto , cercando di bilanciare gli aspetti finanziari e l’utilità collettiva. Il consolidamento di questa visione è testimoniato anche dai miglioramenti nei rating ESG, che indicano come l’ente abbia integrato criteri ambientali, sociali e di governance nella selezione delle iniziative. L’analisi macroeconomica suggerisce, inoltre, che la stabilità dell’Eurozona e le condizioni dei principali partner commerciali (Germania e Stati Uniti in primis) incideranno in modo rilevante sull’export italiano. Le criticità dell’industria tedesca, la fine di alcuni stimoli negli Stati Uniti e la possibilità di nuovi equilibri protezionistici disegnano un quadro in cui le imprese italiane dovranno rafforzarsi dal punto di vista patrimoniale e tecnologico per reggere la competizione. L’azione di CDP potrà favorire percorsi di aggregazione  tra imprese, incentrati su quell’idea di “cooperazione sistemica” capace di ampliare la platea di esportatori e di creare filiere più resilienti. È chiaro che la spinta agli investimenti costituisce un bisogno non più differibile. Dal settore della logistica e dell’ energia fino a quello dell’hospitality e dell’abitare sociale, la trasformazione richiede un coinvolgimento privato accompagnato da un robusto sostegno istituzionale. A fronte di un mercato che fatica a soddisfare le richieste di finanziamento più complesse, CDP si candida a essere “partner solido” degli Enti Pubblici e delle imprese, creando sinergie con i fondi pubblici, con la possibilità di veicolare capitali privati in progetti di lungo termine e con elevato valore aggiunto per la collettività.   Innovazione e AI: il contributo di CDP agli investimenti strategici in Italia 2025 Lo scenario che si delinea dalle analisi combinate di Cassa Depositi e Prestiti e del documento “ Investimenti in Italia 2025 ” mette in luce la necessità di connettere il tradizionale ruolo di banca promozionale con uno spiccato orientamento verso l’ innovazione tecnologica  e la digitalizzazione. L’adozione di soluzioni basate sull’intelligenza artificiale, in particolare l’AI generativa, rappresenta un terreno su cui sia le grandi imprese sia le PMI possono costruire vantaggi competitivi. Nel documento si afferma che l’Italia, nonostante l’importanza del suo tessuto manifatturiero e la relativa propensione all’export, soffre di un numero ancora limitato di operatori di venture capital rispetto a Paesi come Germania o Francia. Per favorire l’emergere di nuove imprese specializzate in settori ad alta intensità tecnologica e la nascita di startup innovative, occorre sviluppare un mercato del private equity  più ricettivo, in cui la rotazione del capitale e il cosiddetto “crowding-in” degli investitori istituzionali possano generare massa critica. In tal senso, CDP sta già sostenendo percorsi di crescita per aziende con elevato potenziale di sviluppo, attraverso un programma di investimenti diretti in equity finalizzato a creare filiere industriali capaci di competere a livello globale. Non si tratta soltanto di sostenere le imprese nella fase iniziale, ma anche di garantirne il consolidamento. Nel documento del Piano Strategico 2025-2027, CDP sottolinea che uno dei capisaldi del nuovo approccio consiste nel preservare la solidità e l’equilibrio economico-finanziario del proprio modello, facendo però crescere gradualmente la “presa di rischio” su iniziative prioritarie nel segno della transizione energetica, dell’innovazione e della coesione territoriale. È un passaggio importante, poiché mette in evidenza come la spinta verso l’innovazione non debba tradursi in un accumulo di rischi fuori controllo, ma piuttosto in un accompagnamento ragionato e sostenibile, in cui le competenze tecniche e l’analisi finanziaria convergono. Un ulteriore tema, connesso all’innovazione, riguarda la cybersecurity e i consumi energetici che l’adozione su larga scala dell’AI generativa comporta. Si delineano implicazioni significative: da un lato, la necessità di presidiare i dati aziendali e di garantire un uso responsabile dell’AI, dall’altro l’opportunità di investire in progetti di infrastrutture digitali capaci di supportare la domanda crescente di servizi cloud e calcolo avanzato. Emerge l’idea di connettere la promozione degli investimenti con la finalità di ridurre la dipendenza energetica e tecnologica dall’estero, abbracciando anche modelli di partenariato pubblico-privato incentrati su filiere produttive che vantino competenze nazionali solide. Sul piano pratico, la strategia di CDP include l’adozione di un modello territoriale  rafforzato, con la creazione di hub di coordinamento locale e la promozione di spazi condivisi con le Fondazioni bancarie. Queste realtà, già partecipi nell’azionariato di CDP, possono diventare alleate nella diffusione dell’innovazione, perché conoscono a fondo le esigenze delle imprese sui territori. L’obiettivo è ridurre le asimmetrie informative e favorire momenti di confronto tra imprenditori, banche, università e centri di ricerca. Tale approccio può stimolare la domanda e l’offerta di soluzioni basate sull’AI, sui sistemi di automazione industriale e sulla trasformazione digitale, persino in settori spesso meno esposti al cambiamento tecnologico, come l’agroalimentare o il turismo. La spinta all’innovazione passa anche dalla transizione energetica . Dal documento di CDP emerge come la just transition sia uno dei pilastri fondamentali, con la proposta di interventi che sviluppino infrastrutture per l’economia circolare e progetti di adattamento al cambiamento climatico. In parallelo, si segnalano iniziative rivolte al real asset , con particolare riguardo all’abitare sociale, al senior e student housing, all’implementazione di nuove offerte ricettive per il turismo e alla rigenerazione urbana. La prospettiva è quella di mobilitare fondi di terzi, attrarre investitori istituzionali e valorizzare il patrimonio immobiliare con interventi di efficienza energetica. Questa visione va di pari passo con la necessità di rendere le città italiane più vivibili e in linea con gli standard di sostenibilità richiesti anche dall’Europa. Nel contesto macroeconomico disegnato dai report, la transizione verde e l’innovazione tecnologica rimangono fattori chiave per contrastare le spinte inflazionistiche e avviare progetti strategici capaci di incidere sul medio-lungo periodo. Per questa ragione, l’impegno di CDP si estende alla cooperazione internazionale, arricchita dall’esperienza di simili banche promozionali in altri Paesi europei, e si intreccia con l’accesso ai programmi di investimento e advisory dell’UE. La dimensione comunitaria diviene uno spazio in cui CDP può ampliare ed efficientare il proprio raggio d’azione, gestendo linee di finanziamento e, al contempo, sostenendo la crescita delle imprese italiane sui mercati globali. Se si guarda oltre l’orizzonte 2025, emergono alcune sfide che richiedono già ora politiche lungimiranti. Primo fra tutti il problema demografico, che potrebbe condizionare in maniera significativa la disponibilità di forza lavoro e la capacità produttiva del Paese. L’inserimento di nuove tecnologie, come l’AI, non deve essere vissuto come minaccia ai posti di lavoro, bensì come opportunità di recuperare efficienza e incoraggiare l’inserimento dei giovani in settori ad alto potenziale innovativo. In questo, la formazione e la cultura interna  alle organizzazioni assumono un ruolo primario, come rimarcato dalla stessa CDP che punta a rafforzare il proprio capitale umano e la propria attrattività verso le professionalità più ricercate. Nel complesso, appare evidente che la crescita futura dell’Italia, così come delineata dalle proiezioni sugli investimenti e sugli scenari macroeconomici, esige un approccio integrato. La cooperazione tra istituzioni finanziarie, imprese, amministrazioni centrali e locali appare l’unico modo per valorizzare al massimo i piani di sviluppo che la Cassa intende realizzare. Il connubio di competenze specialistiche, capacità di innovare, valorizzazione del tessuto produttivo e attenzione ai territori è la formula che CDP propone per superare quelle barriere che da tempo frenano la competitività italiana.   CONCLUSIONI Gli spunti emersi, confrontando le informazioni del documento sul Piano Strategico 2025-2027 di Cassa Depositi e Prestiti e gli approfondimenti contenuti in “ Investimenti in Italia 2025 ” indicano che il Paese sta attraversando una fase decisiva per definire il proprio posizionamento competitivo. L’attenzione non è più soltanto sui risultati numerici, come l’utile o il volume di risorse impegnate, ma sulla volontà di assumere un ruolo di banca promotrice che unisca i principi dell’impatto sociale e della sostenibilità ambientale con la necessità di mantenere solidità e redditività. Lo scenario europeo e internazionale suggerisce un rafforzamento delle politiche di difesa dell’autonomia energetica, una maggiore attenzione alle materie prime critiche e una gestione dei tassi di interesse che privilegi la stabilità a lungo termine. Rispetto allo stato dell’arte, in cui alcune tecnologie concorrono già a offrire strumenti di finanziamento e supporto alle imprese, la strategia di CDP va oltre la semplice erogazione di credito, investendo in conoscenze, reti territoriali, partenariati con banche e Fondazioni, progetti di equity e collaborazioni con operatori di private capital. Lo slancio verso le infrastrutture, l’AI generativa e la green economy deve anche misurarsi con le incognite legate alle tensioni geopolitiche e all’instabilità di certi mercati. L’esperienza insegna che tali contesti possono riservare sorprese, ma una pianificazione robusta e la condivisione di obiettivi con tutti gli attori dell’economia possono offrire maggiore resilienza. La prospettiva per imprenditori e dirigenti è di ripensare le filiere, integrando nuove tecnologie e perseguendo la cooperazione, a volte anche con concorrenti, in un’ottica di sostegno reciproco e migliore efficienza di mercato. La scelta di sviluppare hub territoriali e di potenziare il dialogo con le imprese locali appare una risposta originale e strategica rispetto alle soluzioni adottate da altre istituzioni finanziarie. Potrebbe facilitare la comprensione delle specificità territoriali, fornendo servizi di advisory capaci di intercettare debolezze e opportunità in modo più tempestivo e incisivo. Allo stesso modo, la decisione di collaborare intensamente con l’Unione Europea, attingendo a forme di finanziamento come InvestEU, può rivelarsi essenziale per rendere l’Italia un luogo privilegiato di sperimentazione di progetti ad alto tasso di innovazione, con vantaggi anche per l’occupazione qualificata. Il confronto con le tecnologie similari già operative sul mercato mette in evidenza che i meccanismi di sostegno alle imprese, la condivisione dei rischi e i modelli di private equity non rappresentano una novità assoluta. Eppure, la presa in carico diretta di una banca promozionale controllata dallo Stato, in sinergia con altre banche di sviluppo europee e con reti di investitori privati, conferisce un’impronta di forte coesione. È quella coesione a poter fare la differenza, poiché consente di accompagnare i progetti dalla fase concettuale fino all’applicazione concreta. In prospettiva, la direzione appare tracciata: attenzione alla transizione ecologica ed energetica, spinta alla digitalizzazione, tutela di un patrimonio storico e sociale di grande ricchezza, formazione di competenze pronte ad affrontare le sfide del mondo del lavoro. L’insieme di queste azioni non si riduce a una somma di interventi settoriali, ma punta a cambiare il modo di interpretare l’investimento pubblico e la crescita economica, ricercando una sostenibilità che non sia uno slogan, bensì la condizione strutturale per competere e generare opportunità. Per gli imprenditori e per i dirigenti aziendali, la riflessione da compiere riguarda come integrarsi efficacemente in questi percorsi di sviluppo, come scegliere tecnologie e mercati in linea con le priorità nazionali e comunitarie. La presenza di Cassa Depositi e Prestiti come partner rappresenta la possibilità di attingere a competenze, garanzie e finanziamenti con cui realizzare progetti che, da soli, sarebbero più rischiosi o addirittura irraggiungibili. In quest’ottica, la diffusione di modelli collaborativi e l’apertura verso strumenti finanziari evoluti (dal venture capital ai prestiti ibridi) delineano un panorama in cui l’Italia può recuperare slancio e tornare a essere un laboratorio di innovazione, capace di coniugare la propria tradizione manifatturiera con le nuove frontiere dell’AI e della sostenibilità. L’approdo finale è un rinnovato patto di fiducia fra Stato, imprese e società civile, con la Cassa Depositi e Prestiti impegnata a ricoprire un ruolo di banco di prova per soluzioni che, nell’Europa contemporanea, diventano sempre più urgenti per garantire competitività e sviluppo coeso. L’auspicio è che questo percorso si consolidi ulteriormente, permettendo agli attori del sistema di dimostrare che la modernità può convivere con la storia, e che l’innovazione, adeguatamente sostenuta e orientata, risulti il pilastro su cui fondare la crescita economica e sociale del Paese. Podcast:   https://spotifycreators-web.app.link/e/Gul3pBMvKPb

  • Generative AI and Patents: Innovations and Market Trends

    The research titled “Generative Artificial Intelligence” Patent Landscape Report was conducted by Christopher Harrison, Lakshmi Supriya, and Kai Gramke with the support of the World Intellectual Property Organization (WIPO). This document focuses on the recent growth of Generative AI and the patent landscape, highlighting the connection between Generative AI and Patents. The study explores applications ranging from image synthesis to support in industrial design processes, paying close attention to different models, data processing methods, and the global players involved in their development. The main goal is to understand where this technology is heading and its multiple effects on business and research strategies. Generative AI and Patents: Innovations and Market Trends Generative AI and Patents: Historical Evolution and Technological Framework Interest in Generative AI is not a sudden phenomenon, although its popularity with the broader public has emerged only recently. Some early experiments, conducted several decades ago, aimed to teach a machine how to generate text, images, or musical sequences. At that time, computing power was limited, and neural network architectures were far from being able to process large-scale datasets. The turning point came with the availability of more powerful computers, the increase in data collection, and the advancement of deep learning algorithms capable of more efficient learning. The pioneering work of Joseph Weizenbaum with his first chatbot, named ELIZA, paved the way for what we now classify under Generative AI. The publication of the neural Transformer in 2017 marked a decisive step. This model, based on self-attention mechanisms, enabled the Large Language Models (LLM) that made headlines thanks to text-based chat solutions capable of producing surprisingly fluent conversations. Around the same time, approaches such as Variational Autoencoders (VAE) and Generative Adversarial Networks (GAN) gained significant traction, particularly in generating high-quality images. In 2022, global interest in Generative AI increased further with the introduction of systems that generate images from simple textual prompts, receiving substantial media coverage and attracting considerable investment from tech companies and financial institutions. One of the elements that makes the current applications so effective is the ability to handle data from multiple modalities, such as text, images, audio, and even molecular structures. This reflects a rapid, cross-disciplinary evolution that spans multiple fields, from computational chemistry to architectural design. The versatility in managing different types of input and output is precisely what makes Generative AI so appealing to companies and researchers. Businesses can build product prototypes more quickly, reduce design costs, and automate repetitive tasks. Simultaneously, research laboratories use these tools to systematically explore large volumes of data, opening the door to discoveries in health, telecommunications, and transportation. The WIPO report shows that the number of patent families related to this technology reached about 14,000 publications in 2023 alone, laying the groundwork for a further increase in coming years, partly due to a typical delay between filing and publication. Extending the analysis to the entire period from 2014 to 2023, the numbers become even more impressive, surpassing 50,000 total related patent families. This growth illustrates how the technology has gathered significant momentum over time. The widespread popularity of tools that generate texts, images, and music instantly has likely fueled that surge. It is therefore credible to anticipate that new patents will follow as companies and universities invest resources to keep pace with the competition. Meanwhile, many everyday users have embraced software capable of crafting coherent answers or creating astonishing visual content from simple text descriptions. A striking example is how quickly some chat platforms based on Large Language Models reached one million users—less than a week—revealing that Generative AI and Patents are now a global phenomenon poised to affect industrial processes and social habits, driving innovation and legal strategies. Beyond the technological aspect, there is a wide-reaching cultural dimension linked to human creativity and the potential for collaboration between people and machines.   Generative AI Models: Patent Trends and Innovation Within the patent publications landscape, the “Generative Artificial Intelligence” report identifies several core models that form the backbone of this technology. It is interesting to note the frequent appearance of technical acronyms such as GAN (Generative Adversarial Networks), Diffusion Models, Variational Autoencoders (VAE), and, more recently, Large Language Models (LLM). Each approach is particularly suited to specific needs, such as generating photorealistic images, processing text coherently, or translating sound input into original music. The analysis shows that most patent holders are focusing on improving these architectures, aiming to reduce errors and enhance output quality. In patents related to GANs, there is a strong focus on image or video sequence synthesis, with potential applications spanning from automotive simulations to cybersecurity. According to the reported data, publications concerning this model have exceeded 9,000 patents in recent years. GANs operate through a so-called “adversarial” mechanism: a generator creates synthetic images, while a discriminator tries to distinguish them from real ones, pushing the generator to produce increasingly convincing content. While this architecture enables extremely realistic creations, it also raises questions about copyright infringements, misinformation, and challenges in identifying authentic material. Variational Autoencoders, known by the acronym VAE, play a pivotal role in extracting latent structures from data. These tools allow the creation of new variants of content similar to the input while maintaining coherence and uniformity. They are employed to generate images, but also in the development of musical compositions and even in molecule generation for pharmaceutical applications. According to the report, the relevant patent families have likewise shown substantial growth, although they remain fewer in number compared to those based on GANs. A separate chapter is warranted for the expansion of Diffusion Models, which have gained considerable media attention for creating images from textual descriptions. In 2023, numerous patent applications aimed at optimizing this technique have been filed to make it faster and more controllable. The key idea is to “remove noise” from a random input, step by step, until arriving at a defined image. Although the total figures are still lower than classic GAN applications, the surge over the last two years suggests that many companies will soon converge on this research area, especially for advanced photo editing tools or 3D scene generation. Turning to text, Large Language Models have undergone an intriguing development. From their early attempts at producing coherent text, they have progressed to systems capable of holding rich dialogues, understanding contexts, and even coding software. The publication of certain patents related to large-scale models remains limited compared to solutions focused on images or audio, but the upward trajectory is clear. Some patent applications address the handling of huge textual datasets and the optimization of neural network parameters, while others aim to integrate LLM with multimodal input, for instance combining text and images. This signals a future direction toward more general-purpose models that can process multiple types of data. Overall, patent strategies are not centered on a single model but instead cover a spectrum of potentially interchangeable solutions. It is common for a patent to encompass more than one approach, avoiding reliance on a single architecture. This reflects a diversification approach: filers aim to protect ideas broadly, covering probable future developments. Based on emerging data, the growth trajectory of patents for generative networks will continue, especially now that the value of these tools is recognized by both established companies and specialized startups.   Generative AI and Patents: Global Leaders and Market Dynamics Examining the geographic distribution of patents, China ranks first, with a volume of patent families that far exceeds any other country. Data indicate that from 2014 to 2023, China was responsible for more than 38,000 related patent families, leading both as a source of innovation and as a preferred jurisdiction for legal protection. The United States comes second with a still substantial but smaller figure, reaching about 6,300 related patent families in the same period. Together, these two countries represent a massive portion of the entire patent market tied to Generative AI, underscoring a clear competition for technological supremacy. Considering where companies choose to file their patents, China is not only the leader in terms of inventions but also the jurisdiction that attracts the greatest number of patent applications. In the United States, many universities and large tech corporations have filed extensive patent requests, aiming to expand the commercial uses in sectors such as text analytics, speech synthesis, and image generation. In Asia, beyond China, South Korea and Japan both stand out. In Europe, the United Kingdom and Germany show progressive increases in patent filings, although total figures remain lower than those in Asia. Nevertheless, European entities maintain a strong presence in certain fields, such as manufacturing and robotics, reflecting a vibrant research environment. On the industrial front, Tencent emerges as a notable entity, followed by Ping An Insurance Group and Baidu—Chinese companies that have invested in creating chatbots, insurance underwriting algorithms, and visual recognition systems. These companies demonstrate the ability to work across multiple modalities (text, images, audio) and core models like GAN or LLM. Academia is also a major player: the Chinese Academy of Sciences holds a wide-ranging portfolio, particularly regarding image processing solutions and advanced neural networks. Among the leading Western names, IBM, Alphabet (Google), Microsoft, and specialized software providers like Adobe stand out. For example, IBM has developed platforms focusing on data security and compliance, while Google and Microsoft have also invested in customizing large language models and building extensive cloud service ecosystems. Some Korean or Japanese industrial groups, such as Samsung or Sony, show particular interest in creating audio and video generation tools for integration into mobile devices or entertainment consoles. Certain patent filings point to increasingly sophisticated personal assistants on the horizon. As a whole, these dynamics suggest that there is no single multinational capable of dominating the entire technology spectrum; instead, there is a landscape of companies and institutions playing different roles. Some focus on text-based models, others on images, and others on the development of specialized processors for neural computing. The report’s authors note that the growth observed in recent years is tied to massive investments and a race for patent protection. For many filers, accumulating intellectual property in this field means securing a commercial and legal advantage, with the potential to profit from licensing and constrain potential competitors. This phenomenon has caught the attention of large insurance groups, banks, pharmaceutical companies, and even public administration bodies, all interested in utilizing generative networks to analyze vast amounts of data. In parallel, it is quite plausible that various emerging companies will see innovation based on LLM or diffusion models as a chance to enter niche markets with agile solutions. The most remarkable finding is that, in just a few years, patent families have increased from fewer than one thousand to several tens of thousands. This confirms that Generative AI is a strategic asset for major economic powers, driving research labs and patent offices to handle an ever-growing volume of technical applications.   Generative AI Applications: Patents Shaping Industry and Creativity The versatility of Generative AI is evident when reviewing application areas. One notable field focuses on creating visual content for marketing, advertising, and entertainment. In this space, patents aim to enhance the quality of generated images, reduce processing times, and include stylistic constraints required by brands. Some companies showcase integrated platforms where just a few textual instructions can generate product images, virtual scenarios, or even packaging prototypes. Several filings pertain to the film industry, with algorithms capable of producing animated storyboards. In industrial applications, Generative AI is used to generate technical designs—from mechanical part modeling to architectural prototypes and even production process optimization. There are also patents describing the use of neural networks to produce synthetic data for training autonomous vehicles or validating simulation models. In the medical field, image synthesis for radiology or the design of new anti-tumor molecules benefits from generative networks trained on large biological datasets. Some patented solutions, leveraging VAE or Diffusion Models, explore possible molecule combinations and conduct computer simulations on a large scale, saving significant time compared to traditional testing. Document management is another area attracting considerable interest. Patents suggest that Generative AI can automate the drafting of complex texts, review contracts, and extract information from lengthy or poorly structured documents. Several banks and law firms have proposed systems capable of generating contract clauses or automatically classifying large volumes of textual data. Simultaneously, the financial and insurance sectors are exploring advanced chatbots to cut down on case management times and offer tailored consulting services to customers. Cybersecurity finds both an ally and a potential adversary in Generative AI. On one hand, the capability to generate data or analyze patterns helps identify intrusions and respond quickly to zero-day attacks. On the other, text generation systems could craft phishing emails that are highly convincing. In telecommunications, we see patents applying voice response generation—potentially with personalized voice timbres—to enhance call centers or set up advanced voicemail services. Additionally, Generative AI is making its way into electronic device manufacturing, improving testing processes and enabling advanced voice services that range from recognition to multilingual speech synthesis. A delicate area pertains to the creation of artistic content, such as illustrations, music, and screenplays. Some patent filings describe methods for generating melodies inspired by well-known musical styles, employing parameters to ensure the results are original and not infringing copyright. Likewise, patents aim to generate complex 3D environments for gaming, reducing the workload for graphic designers and game developers. These innovations spark enthusiasm but raise questions about safeguarding artistic creativity. Perhaps the most intriguing prospects involve multimodal applications capable of receiving images, text, and audio as input, integrating them to deliver richer contextual solutions. Some patents pursue this for educational purposes, where tools can explain complex concepts to students using text alongside on-demand generated visual representations. Public institutions are also investigating large generative models to optimize traffic management, the administration of public services, and large-scale urban planning initiatives. More generally, patents suggest that the drive to integrate Generative AI in every sector of the economy aims to boost efficiency, flexibility, and automation.   AI Patenting Challenges and Opportunities: The Role of Generative AI The rapid increase in patent filings brings significant challenges. Chief among these is legal liability. Generative AI creates complex content that can infringe on third-party rights or raise uncertainty about who holds the copyright for the produced works. There are instances where models draw from massive databases of text or images, and it is not always straightforward to determine the authorship of the resulting output. Certain jurisdictions, such as those in Europe, are already discussing updated rules to clarify usage limits for data and content generated by advanced AI systems. While China issues guidelines swiftly, the United States is still debating how to allocate responsibility for deepfakes or counterfeit material. Overall, the regulatory landscape is evolving, and a rise in legal disputes appears likely. Transparency is just as crucial. On the one hand, many companies wish to keep industrial secrets to protect their competitive advantage, while on the other, there is growing demand for shared standards on safety, reliability, and traceability of model training processes. Some businesses worry that insufficiently controlled generative models might circulate incorrect or discriminatory information, damaging their reputation. Moreover, questions emerge on how to manage biases in training data, which risk reproducing stereotypes and social inequities. The emergence of regulations such as the European AI Act may set minimum standards of compliance, but it remains to be seen whether such legislation can keep pace with innovation. From an economic standpoint, Generative AI is likely to reshape workforce structures, complementing or sometimes replacing human skills in fields such as graphics, programming, writing, and consulting. For business leaders, this demands a reevaluation of internal training strategies, in order to foster employees’ analytical skills while letting machines handle repetitive tasks. Some researchers foresee large-scale reorganization of work, while others note that the new context could generate never-before-seen professional roles, for instance, specialists in customizing generation models or experts in validating synthetic datasets. Investments in this domain are expected to increase significantly, not only in computing infrastructure (GPUs and specialized cloud services) but also in startups that offer niche services. Patents suggest that certain companies are seeking to protect specific optimization techniques for hardware implementations, aiming to maximize performance and reduce energy costs. One particularly critical aspect is the energy consumption of these systems, which require substantial computational resources for training. Some research efforts target more efficient solutions and partial training protocols to mitigate environmental impacts. Overall, Generative AI is set to have a significant influence on the future of creative industries, software production, and data management. From photography to logistics, few sectors are likely to remain unaffected by the push toward automation and intelligent content creation. Technological hurdles remain, such as the challenge of creating genuinely general-purpose systems that can manage text, images, sounds, and videos with precision, but the pace of progress in recent years suggests these limits will be steadily overcome. For patent offices, developing specialized expertise to accurately evaluate protection requests—distinguishing true innovations from minor incremental improvements—will be vital.   Conclusions An examination of the patent landscape around Generative AI reveals important insights for managers, entrepreneurs, and technology enthusiasts. The data indicate that research by major corporations and academic centers—especially in China and the United States—is driving the market, with an expanding impact on finance, publishing, manufacturing, healthcare, and security. The greatest challenge is managing such rapid growth within clear, shared guidelines. On one hand, it is necessary to protect research efforts and genuine innovation; on the other, it is vital to prevent market distortions and risks to privacy or intellectual property. Comparing these new solutions with traditional machine learning systems highlights the leap introduced by models capable of spontaneously generating content. For business decision-makers, this means revisiting development processes and integrating creative neural networks into enterprise strategy. Concurrently, new partnerships—perhaps between companies and research institutions—may prove essential for remaining competitive in an environment where changes occur at lightning speed. From a strategic perspective, Generative AI could redefine business models, stimulating investments in hardware, software, workforce training, and regulatory compliance. Whether it is improving customer service with advanced chatbots or using generative design tools for complex products, the potential is high, and only the foresight of executives will harness its value. Future developments will also require constant engagement with cutting-edge research, as scientific progress opens up possibilities that seemed unreachable just a few years ago. Questions remain on the rights of content creators and the protection of those who use these tools, yet the trend appears both unstoppable and fascinating to anyone able to read its signals. Podcast : https://creators.spotify.com/pod/show/andrea-viliotti/episodes/Generative-AI-and-Patents-Innovations-and-Market-Trends-e2srnrp Source : WIPO Patent Landscape Report on Generative Artificial Intelligence

  • Generative AI e brevetti: le nuove frontiere della tecnologia

    La ricerca intitolata “Generative Artificial Intelligence” Patent Landscape Report  è stata condotta da Christopher Harrison, Lakshmi Supriya e Kai Gramke  con il supporto della World Intellectual Property Organization (WIPO) . Il documento si concentra sulla recente crescita della Generative AI e sul quadro dei brevetti, sottolineando il legame tra Generative AI e Brevetti. L’indagine esplora applicazioni che spaziano dalla sintesi di immagini al supporto nelle fasi di progettazione industriale, con un’attenzione particolare ai diversi modelli, alle modalità di elaborazione dei dati e ai protagonisti globali coinvolti nello sviluppo. L’obiettivo principale è comprendere la direzione di questa tecnologia e i suoi molteplici effetti sulle strategie di business e ricerca. Generative AI e brevetti: le nuove frontiere della tecnologia Generative AI: Evoluzione storica e quadro generale L’attenzione per la Generative AI  non è un fenomeno improvviso, benché la diffusione presso il grande pubblico sia esplosa solo di recente. Alcuni primi esperimenti, compiuti già diversi decenni fa, miravano a far apprendere a una macchina come generare testi, immagini o sequenze musicali. A quei tempi la potenza di calcolo era limitata e le architetture di rete neurale erano ancora lontane dal poter elaborare set di dati di grandi dimensioni. Il salto di qualità è avvenuto grazie alla disponibilità di computer più performanti , all’aumento di raccolte dati e all’evoluzione di algoritmi di deep learning capaci di apprendere in modo più efficace. Le storiche sperimentazioni di Joseph Weizenbaum, con un primo chatbot chiamato ELIZA, hanno aperto la strada a tutto ciò che oggi viene classificato come Generative AI. La pubblicazione del Transformer neurale  nel 2017 ha costituito un passaggio decisivo. Questo modello, basato su meccanismi di autoattenzione, ha reso possibili le Large Language Models  ( LLM ) che hanno fatto parlare di sé grazie a chat testuali in grado di simulare conversazioni sorprendentemente fluide. Nello stesso periodo, altri approcci come le Variational Autoencoders  e le Generative Adversarial Networks hanno raccolto risultati significativi, soprattutto nella creazione di immagini di alta qualità. Nel 2022, l’interesse globale per la Generative AI è aumentato ulteriormente con l’introduzione di sistemi che generano immagini da semplici istruzioni testuali, ricevendo grande clamore mediatico e attirando investimenti significativi da parte di aziende tecnologiche e finanziarie. Uno degli elementi che rende le attuali applicazioni così efficaci è la possibilità di gestire dati provenienti da diverse modalità, come testo, immagini, audio e persino strutture molecolari. Questa tendenza rispecchia un’evoluzione rapida e trasversale che trova terreno fertile in diverse discipline, dalla chimica computazionale alla progettazione architettonica. È proprio la versatilità nell’affrontare input e output di varia natura a rendere la Generative AI così interessante per imprese e ricercatori. Le aziende possono costruire prototipi di prodotti più velocemente, ridurre costi di progettazione e automatizzare compiti ripetitivi. Parallelamente, i laboratori di ricerca usano tali strumenti per esplorare in modo più sistematico grandi quantità di dati, con opportunità di scoperte nel campo della salute, delle telecomunicazioni e dei trasporti. Il report di WIPO  evidenzia come il numero di famiglie brevettuali connesse a questa tecnologia abbia raggiunto circa 14.000 pubblicazioni nel solo 2023, ponendo le basi per un probabile aumento ulteriore nei prossimi anni, complice un ritardo fisiologico che separa la data di deposito dal momento di pubblicazione. Se si estende l’analisi all’intero periodo 2014-2023, si raggiungono cifre ancora più alte, superando le 50.000 gruppi di brevetti correlati complessive. Un dato che colpisce e mostra come nel tempo questa tecnologia abbia ricevuto una spinta enorme. Con ogni probabilità, l’impulso è stato alimentato dalla popolarità di strumenti che generano testi, immagini e musica in maniera istantanea. Risulta quindi credibile supporre che nuovi brevetti si susseguiranno, man mano che le imprese e gli atenei investiranno risorse per non perdere terreno in questa competizione. Nel frattempo, molte persone comuni si sono avvicinate a software in grado di formulare risposte coerenti e di generare contenuti visivi stupefacenti da semplici descrizioni testuali. Un esempio emblematico è stata la rapidità con cui si è raggiunto il milione di utenti, meno di una settimana, in alcune piattaforme di chat basate su Large Language Models . Questo evento ha mostrato quanto la Generative AI sia ormai un fenomeno globale pronto a impattare su processi industriali e abitudini sociali. Oltre all’aspetto tecnologico, emerge una dimensione culturale di grande portata, legata alla creatività umana e al potenziale di collaborazione tra individui e macchine. Modelli chiave della Generative AI e trend brevettuali Nel quadro delle pubblicazioni brevettuali, il report “Generative Artificial Intelligence”  identifica diversi modelli di punta che costituiscono il nucleo di tale tecnologia. È interessante notare come alcune sigle tecniche ricorrano frequentemente, come GAN  (Generative Adversarial Networks), Diffusion Models , Variational Autoencoders e, più di recente, le Large Language Models . Ciascun approccio si adatta in modo peculiare a specifiche esigenze: generare immagini fotorealistiche, elaborare testo in modo coerente o tradurre input sonori in musica originale. L’analisi conferma come la maggior parte di chi deposita brevetti si concentri sul miglioramento di tali architetture, puntando a ridurre errori e a incrementare la qualità dell’output. Nei brevetti legati alle GAN , emerge con forza l’interesse per la sintesi di immagini o sequenze video, con possibili applicazioni che spaziano dalle simulazioni automobilistiche alla sicurezza informatica. Dalle cifre riportate, le pubblicazioni su questo tipo di modello superano nettamente i 9.000 brevetti negli ultimi anni. Le GAN funzionano tramite un meccanismo definito “competizione” o “adversarial”: un generatore crea immagini sintetiche, mentre un discriminatore cerca di distinguerle da quelle reali, spingendo il generatore a produrre contenuti sempre più convincenti. Questa architettura, se da un lato consente creazioni estremamente realistiche, dall’altro solleva interrogativi su possibili violazioni di copyright, manipolazioni dell’informazione e difficoltà nel riconoscere materiale autentico. I Variational Autoencoders, noti con l'acronimo VAE, rivestono un ruolo centrale nell'estrazione di strutture latenti dai dati. Questi strumenti consentono di creare nuove varianti di contenuti simili a quelli forniti in input, garantendo coerenza e uniformità. Queste reti trovano impiego nella creazione di immagini, ma anche nello sviluppo di composizioni musicali e perfino nella generazione di molecole in campo farmaceutico. Il report indica che le famiglie brevettuali a esse correlate hanno anch’esse registrato una crescita tangibile, pur essendo meno numerose rispetto a quelle basate su GAN. Un capitolo a parte merita la crescita delle Diffusion Models , che hanno ottenuto grande eco mediatica per la creazione di immagini da descrizioni testuali. Nel 2023 si sono contati svariati depositi che puntano a ottimizzare questa tecnica, rendendola più veloce e controllabile. L’idea chiave è “rimuovere il rumore” da un input casuale, passaggio dopo passaggio, sino a ottenere un’immagine definita. Nonostante numeri ancora più contenuti rispetto ai classici GAN, l’impennata dell’ultimo biennio fa supporre che presto molte aziende convergeranno su questa linea di ricerca, soprattutto per strumenti di fotoritocco avanzati o per generazioni di scene 3D. Spostando l’attenzione sul testo, le Large Language Models  hanno avuto un’evoluzione interessante. Dai primi tentativi di generare testo coerente, si è arrivati a sistemi in grado di sostenere dialoghi ricchi, comprendere contesti e perfino codificare software. La pubblicazione di alcuni brevetti riconducibili a modelli di grandi dimensioni è ancora limitata rispetto alle alternative che si concentrano su immagini o audio, ma il trend è in ascesa. Alcune domande di brevetto fanno riferimento alla gestione di set di dati testuali enormi e all’ottimizzazione dei parametri delle reti neurali, mentre altre puntano a integrare i LLM con input multimodali, combinando ad esempio testo e immagini. È un segnale che la direzione futura si stia spostando verso modelli generalisti in grado di processare tipologie di dati multiple. Nel complesso, si osserva che le strategie brevettuali non sono focalizzate su un singolo modello, bensì su un ventaglio di soluzioni combinabili. È frequente che un brevetto copra più tipologie di approcci, evitando di vincolarsi unicamente a un’architettura. Questo riflette una logica di diversificazione: i depositanti desiderano proteggere l’idea in modo ampio, per coprire possibili sviluppi futuri. Da quanto emerge, la traiettoria di crescita dei brevetti nelle reti generative è destinata a proseguire, specie ora che la consapevolezza del valore di questi strumenti ha raggiunto sia le imprese consolidate sia le startup specializzate.   Panorama globale: Brevetti e protagonisti della Generative AI Osservando la distribuzione geografica dei brevetti, la Cina si colloca al primo posto, con un volume di famiglie brevettuali che supera nettamente qualsiasi altro Paese. I dati indicano che dal 2014 al 2023 la Cina abbia originato più di 38.000 gruppi di brevetti correlati, collocandosi in testa sia come luogo di creazione sia come giurisdizione preferita per la protezione legale. Gli Stati Uniti seguono con una cifra comunque elevata ma che raggiunge circa 6.300 gruppi di brevetti correlati nello stesso periodo. L’insieme di questi due Paesi copre una porzione significativa dell’intero mercato brevettuale legato alla Generative AI, denotando un’evidente competizione per la supremazia tecnologica. Se si considera la scelta delle imprese su dove depositare, la Cina non è solo la prima in termini di invenzioni, ma anche la giurisdizione che attrae il maggior numero di depositi. Negli Stati Uniti, molte università e colossi tecnologici hanno presentato un ventaglio significativo di richieste di brevetto, puntando ad ampliare l’applicabilità commerciale in settori quali l’analisi testuale, la sintesi vocale e la generazione di immagini. In Asia, oltre alla Cina si notano la presenza notevole della Corea del Sud e del Giappone. In Europa, il Regno Unito e la Germania mostrano un aumento progressivo nel deposito di brevetti, anche se le cifre totali rimangono distanti da quelle asiatiche. Nondimeno, la presenza delle istanze europee in determinati settori, come la manifattura e la robotica, testimonia una vivacità di ricerca. A livello di attori industriali, una realtà che spicca è Tencent , seguita da Ping An Insurance Group  e Baidu , tutte aziende cinesi che hanno saputo investire risorse nella creazione di chatbot, algoritmi di underwriting assicurativo e sistemi di riconoscimento visuale. Queste imprese dimostrano di coprire trasversalmente modalità differenti (testo, immagini, audio) e modelli di punta come GAN o LLM. La stessa accademia non è da meno: l’ Accademia Cinese delle Scienze  vanta un portafoglio esteso, in particolare su soluzioni di image processing e reti neurali avanzate. Tra i grandi nomi occidentali emergono IBM , Alphabet  (Google), Microsoft  e alcune società specializzate in software come Adobe. IBM, ad esempio, si è mossa per sviluppare piattaforme incentrate sulla sicurezza dei dati e sulla compliance, mentre Google e Microsoft hanno anche investito nella personalizzazione di modelli linguistici di ampia scala e nella creazione di grandi ecosistemi di servizi cloud. Alcuni gruppi industriali coreani o giapponesi come Samsung o Sony rivelano un interesse particolare per la creazione di strumenti di generazione audio e video, da integrare nei dispositivi mobili o nelle console di intrattenimento. Certi depositi brevetto fanno pensare a futuri assistenti personali sempre più sofisticati. Nel complesso, queste dinamiche evidenziano come non esista una sola multinazionale in grado di dominare l’intero spettro tecnologico, ma piuttosto un panorama popolato di aziende e istituzioni che ricoprono ruoli differenti. C’è chi si concentra sui modelli testuali, chi punta sulle immagini, chi sullo sviluppo di processori ottimizzati per il calcolo neurale. Gli autori del report segnalano come la crescita degli ultimi anni sia correlata a grandi investimenti e a una corsa alla protezione brevettuale. Per molti depositanti, accumulare proprietà intellettuale in questo ambito significa garantirsi un vantaggio commerciale e legale, potendo monetizzare le licenze e limitare le mosse di potenziali concorrenti. Questo fenomeno ha attirato grandi gruppi assicurativi, banche, aziende farmaceutiche e perfino operatori della pubblica amministrazione, interessati a sfruttare le reti generative per analizzare grandi moli di dati. In parallelo, appare verosimile che diverse aziende emergenti vedranno nell’innovazione basata sulle LLM o sulle diffusion models l’opportunità di entrare su mercati di nicchia con soluzioni più agili. Il dato più rilevante è come si sia passati, in pochi anni, da meno di un migliaio di famiglie brevettuali all’attuale soglia di svariate decine di migliaia. Ciò conferma la Generative AI quale asset su cui le potenze economiche scommettono per il futuro, spingendo laboratori di ricerca e uffici brevetti a confrontarsi con una mole sempre più ampia di domande tecniche.   Applicazioni della Generative AI: dall’industria alla creatività La versatilità della Generative AI emerge chiaramente analizzando gli ambiti applicativi. Un primo filone d’uso si concentra sulla produzione di contenuti visivi  per il marketing, la pubblicità e l’intrattenimento. Qui, i brevetti puntano a potenziare la qualità delle immagini generate, la rapidità di elaborazione e la capacità di includere vincoli stilistici richiesti dai brand. Certe aziende mostrano esempi di piattaforme integrate, in cui bastano poche istruzioni testuali per generare immagini di prodotti, scenari virtuali o persino prototipi di packaging. Alcuni depositi si rivolgono al settore cinematografico, con algoritmi capaci di generare storyboard animati. Nelle applicazioni industriali , trova spazio la generazione di progetti tecnici, dal design di parti meccaniche a prototipi architettonici, fino all’ottimizzazione dei processi produttivi. Non mancano brevetti che descrivono l’utilizzo di reti neurali per la creazione di dati sintetici utili all’addestramento di veicoli autonomi o alla validazione di modelli di simulazione. Nel campo della medicina, la sintesi di immagini radiologiche o la progettazione di nuove molecole antitumorali approfittano delle potenzialità di reti generative allenate su dataset biologici. Alcune soluzioni brevettate, basate su VAE o Diffusion Models, permettono di esplorare combinazioni di molecole e di realizzare screening tramite simulazioni al computer  su vasta scala, con un notevole risparmio di tempo rispetto ai test tradizionali. La gestione documentale  è un altro ambito che desta molto interesse. I depositi indicano come la Generative AI possa automatizzare la stesura di testi complessi, la revisione di contratti e l’estrazione di informazioni da documenti lunghi o scarsamente strutturati. Alcune banche e studi legali hanno proposto sistemi in grado di generare bozze di clausole o di smistare in automatico enormi quantità di dati testuali. Accanto a ciò, i settori finanziari e assicurativi esplorano i chatbot evoluti per ridurre i tempi di gestione delle pratiche e offrire servizi di consulenza personalizzati ai propri clienti. La sicurezza informatica  trova nella Generative AI sia un alleato sia un potenziale avversario. Da un lato, la capacità di generare dati o di analizzare pattern aiuta a identificare intrusioni e a rispondere rapidamente ad attacchi zero-day. Dall’altro, si teme che sistemi di generazione del testo possano creare e-mail di phishing estremamente credibili. Sul fronte delle telecomunicazioni, si notano brevetti che sfruttano la generazione di risposte vocali, magari con timbri personalizzati, per potenziare i call center o per impostare servizi di segreteria telefonica avanzati. In parallelo, la Generative AI si inserisce nella filiera produttiva dei dispositivi elettronici, migliorando i processi di test e abilitando servizi vocali evoluti che vanno dal riconoscimento al sintetizzatore di parlato multilingue. C’è poi un filone molto delicato legato alla creazione di contenuti artistici , come illustrazioni, musica e sceneggiature. Alcuni depositi brevettuali descrivono metodi per generare melodie ispirate a stili musicali famosi, con parametri che garantiscono risultati nuovi senza infrangere il diritto d’autore. Similmente, ci sono brevetti che mirano a generare ambienti 3D di grande complessità per il settore dei videogiochi, riducendo il carico di lavoro per grafici e game designer. Queste innovazioni suscitano entusiasmo, ma fanno sorgere questioni sulla tutela della creatività artistica. Le prospettive più avvincenti riguardano le applicazioni multimodali , capaci di ricevere immagini, testo e audio come input, integrandoli per fornire soluzioni contestuali più ricche. Alcuni depositi sperimentano questa strada per il mondo dell’istruzione, con strumenti in grado di spiegare concetti complessi a studenti, usando sia testi che rappresentazioni visive generate sul momento. Il settore pubblico, a sua volta, studia l’uso di grandi modelli generativi per ottimizzare la gestione del traffico, l’erogazione di servizi amministrativi e la pianificazione di interventi su larga scala in contesti urbani. Più in generale, dalla lettura dei brevetti emerge il tentativo di integrare la Generative AI in ogni comparto economico, con l’obiettivo di aumentare efficienza, flessibilità e automazione.   Sfide e prospettive future nella brevettazione AI La crescita vertiginosa  dei depositi brevettuali porta con sé sfide significative. Prima tra tutte, la questione della responsabilità legale . La Generative AI, infatti, crea contenuti complessi che possono violare diritti di terzi o generare ambiguità su chi detenga il copyright delle opere prodotte. Vi sono casi in cui i modelli attingono da enormi database di testi o immagini, e non sempre risulta semplice tracciare la paternità di quanto generato. Alcune normative, come quelle europee, stanno già discutendo nuove regole per chiarire i limiti di utilizzo dei dati e dei contenuti creati da sistemi di AI avanzata. Mentre in Cina si adottano linee guida rapide, negli Stati Uniti ancora si dibatte sulle responsabilità in caso di deepfake o di contenuti contraffatti. Tutto ciò indica un panorama regolatorio in evoluzione e un potenziale aumento dei contenziosi. La necessità di trasparenza  è altrettanto cruciale. Se da un lato molte aziende mantengono segreti industriali per tutelare il proprio vantaggio competitivo, dall’altro cresce la richiesta di standard condivisi su sicurezza, affidabilità e tracciabilità del processo di apprendimento dei modelli. Alcune imprese temono che un modello generativo non sufficientemente controllato possa diffondere informazioni errate o discriminanti, con un impatto reputazionale negativo. Inoltre, si pongono interrogativi su come gestire eventuali bias insiti nei dati di addestramento, che possono riprodurre stereotipi e ingiustizie sociali. La comparsa di un regolamento dedicato, come l’AI Act europeo, cercherà di imporre parametri minimi di conformità, ma resterà da capire se tali interventi legislativi saranno in grado di tenere il passo con l’innovazione. Sul piano economico, la Generative AI promette di modificare la struttura occupazionale , affiancando o talvolta sostituendo competenze umane in settori come la grafica, la programmazione, la stesura di testi e la consulenza. Per i dirigenti aziendali, ciò richiede un ripensamento di strategie di formazione interna, per valorizzare le skill analitiche dei dipendenti e lasciare alle macchine i compiti ripetitivi. Alcuni studiosi ipotizzano una riorganizzazione su larga scala del lavoro, mentre altri osservano come questo nuovo scenario possa creare figure professionali finora inesistenti, ad esempio specialisti nella messa a punto di modelli di generazione o esperti di validazione di dataset sintetici. A livello di investimenti, si prevedono aumenti consistenti non solo in infrastrutture di calcolo (come GPU e cloud specializzati), ma anche in startup che offrono servizi verticali. Dai brevetti emergono indicazioni su come certe aziende stiano tentando di brevettare tecniche di ottimizzazione specifiche per implementazioni hardware, al fine di massimizzare prestazioni e ridurre i costi energetici. Un risvolto critico è proprio il consumo energetico  di questi sistemi, che necessitano di enormi risorse computazionali per addestrare i modelli. Alcune iniziative di ricerca puntano a soluzioni più efficienti e a protocolli di addestramento parziale, che possano contenere gli impatti ambientali. La Generative AI, nel suo insieme, appare destinata a influenzare radicalmente il futuro delle industrie creative, della produzione di software e della gestione di dati. Dalla fotografia alla logistica, pochi settori potranno restare estranei alla spinta di automatizzazione e creazione intelligente di contenuti. Esistono ancora ostacoli tecnologici, come la difficoltà di dar vita a sistemi realmente generalisti in grado di gestire con precisione testi, immagini, suoni e video, ma il ritmo degli ultimi anni fa presagire un costante superamento di questi limiti. Sul piano dei brevetti, gli uffici competenti dovranno dotarsi di competenze specialistiche per valutare in modo adeguato le richieste di protezione, distinguendo le autentiche innovazioni dai semplici miglioramenti incrementali. Conclusioni L’analisi del panorama dei brevetti sulla Generative AI apre prospettive importanti per manager, imprenditori e appassionati di tecnologia. I dati suggeriscono che la ricerca sviluppata da grandi aziende e centri accademici, soprattutto in Cina e negli Stati Uniti, stia trainando il mercato, con un impatto sempre più rilevante su finanza, editoria, manifattura, sanità e sicurezza. La sfida più delicata è governare una crescita tanto rapida con regole chiare e condivise: da un lato occorre tutelare gli sforzi di ricerca e le innovazioni autentiche, dall’altro bisogna prevenire le distorsioni di mercato e i rischi per la privacy o la proprietà intellettuale. Il confronto con soluzioni simili già presenti sul mercato, come i tradizionali sistemi di machine learning, evidenzia la svolta introdotta dai modelli in grado di generare contenuti in modo spontaneo. Per i decisori aziendali, ciò significa rivedere i processi di sviluppo, integrando nelle strategie d’impresa la possibilità di sfruttare reti neurali creative. Al contempo, occorre valutare nuove forme di partnership, magari tra imprese e istituzioni di ricerca, per restare competitivi in un panorama che muta alla velocità della luce. Sotto una luce più strategica, la Generative AI potrebbe rappresentare un fattore di ridefinizione dei modelli di business, stimolando investimenti in hardware, software, formazione del personale e adeguamento alle normative. Che si tratti di migliorare un servizio clienti tramite chatbot avanzati o di adottare tool di design generativo per prodotti complessi, il potenziale è elevato e soltanto la lungimiranza dei dirigenti saprà catturarne il valore. Gli sviluppi futuri suggeriscono anche un confronto costante con la ricerca, poiché i progressi scientifici apriranno opportunità che pochi anni fa apparivano irraggiungibili. Restano da risolvere questioni sui diritti di chi crea e sulla tutela di chi utilizza, ma la tendenza appare inarrestabile e piena di fascino per chi sa coglierne i segnali.   Podcast: https://creators.spotify.com/pod/show/andrea-viliotti/episodes/Generative-AI-e-brevetti-le-nuove-frontiere-della-tecnologia-e2srn3p Fonte:   https://www.wipo.int/web-publications/patent-landscape-report-generative-artificial-intelligence-genai/en/index.html

  • Italia nel Blavatnik Index 2024: analisi e strategie per la pubblica amministrazione

    L’Italia nel Blavatnik Index of Public Administration 2024 , frutto del lavoro del Professor Ngaire Woods, Lord Gus O’Donnell e del team della Blavatnik School of Government dell’Università di Oxford. La ricerca analizza la qualità delle amministrazioni pubbliche nazionali in 120 Paesi, ponendo l’accento su strategie, politiche, capacità di delivery e gestione interna del personale. Qui si approfondiscono i dati riguardanti l’Italia, che ottiene il ventesimo posto nell’indice complessivo con un punteggio di 0,72 su 1, evidenziando punti di forza e criticità in quattro ambiti fondamentali: Strategia e Leadership, Public Policy, National Delivery e Persone e Processi. Italia nel Blavatnik Index 2024: analisi e strategie per la pubblica amministrazione Contesto globale del Blavatnik Index 2024: L’Italia e i criteri di valutazione Il Blavatnik Index of Public Administration 2024  nasce dall’esigenza di confrontare, in modo sistematico, la capacità di gestione e di erogazione dei servizi pubblici nei diversi Paesi. L’idea di base è fornire uno strumento utile a ministri, dirigenti e altre figure strategiche per comprendere il posizionamento della propria amministrazione rispetto a una vasta platea di nazioni di ogni continente. Nell’elaborare questo approccio si è scelto di non misurare gli esiti delle politiche (come salute, istruzione, crescita economica), ma di focalizzarsi sulla solidità dei meccanismi interni, sulla gestione delle risorse e sulle modalità con cui si arriva alla formulazione, alla pianificazione e all’esecuzione delle politiche di governo. Per approfondire la situazione dell’Italia, occorre ricordare che il punteggio complessivo assegnato alla nostra amministrazione pubblica è 0,72, mentre la posizione in graduatoria è la numero 20 su 120 Paesi valutati. È un risultato che colloca il Paese nella fascia medio-alta a livello globale. In cima all’indice figurano Paesi come Singapore, Norvegia e Canada, che superano 0,80 di punteggio. Il confronto con nazioni che raggiungono o sfiorano livelli più elevati aiuta a individuare aree di miglioramento, soprattutto se si considera che la metodologia adottata punta a evidenziare aspetti riformabili, senza ridurre il tutto a un semplice esercizio di classifiche astratte. Per rendere chiara la logica dell’Index, si noti che le valutazioni si suddividono in quattro aree: Strategia e Leadership, Public Policy, National Delivery e Persone e Processi. Ognuna di queste comprende al proprio interno più temi, come l’integrità, l’uso dei dati, la gestione delle risorse umane, la digitalizzazione e molti altri. L’idea è fornire uno sguardo integrato sulle funzioni essenziali di una pubblica amministrazione: non soltanto la capacità di impostare politiche efficaci, ma anche l’abilità di condurre programmi complessi e di organizzare il personale in modo efficiente, senza dimenticare gli aspetti di trasparenza e apertura verso cittadini e imprese. Guardando all’Italia in un’ottica globale, il ventesimo posto indica che sussiste un discreto allineamento agli standard rilevati in altri contesti occidentali avanzati, ma allo stesso tempo si notano differenze nei singoli settori che emergono dal confronto con i paesi di vertice. Il punteggio attribuito all’Italia nei quattro domini non è infatti uniforme: se l’area Public Policy si colloca in quindicesima posizione, quella delle Persone e Processi arriva al trentatreesimo posto, segnalando possibili margini di intervento. Il risultato in Strategia e Leadership è il venticinquesimo posto, mentre nel dominio National Delivery si attesta al diciannovesimo. La rilevanza di questi dati risiede anche nella possibilità di identificare le relazioni tra i diversi campi: se la gestione interna del personale influenza il successo della messa in atto di politiche pubbliche, occorre capire come potenziare la coerenza organizzativa. Inoltre, la collocazione dell’Italia in posizioni di media classifica rispetto a Stati vicini nell’area occidentale, come la Francia (nona) o la Spagna (nona), permette di tracciare paragoni operativi. Capire perché altri Paesi europei superino talvolta la ventina di punti di distacco in specifici parametri può suggerire strategie di innovazione gestionale e di miglioramento continuo.   Italia nel Blavatnik Index: strategia e leadership al 25° posto Il dominio Strategia e Leadership analizza la capacità di un governo di fissare obiettivi chiari, mettere in atto indirizzi trasversali e garantire comportamenti etici tra i propri funzionari. Questa sezione del Blavatnik Index of Public Administration 2024  include aspetti quali la qualità della visione strategica, la solidità delle strutture preposte al coordinamento tra i vari ministeri, la trasparenza nei processi decisionali e l’integrità morale di chi governa e amministra. In questa prospettiva, vengono considerati anche indicatori relativi alla prevenzione della corruzione e alla capacità di innovare, ovvero sviluppare idee e metodi nuovi per affrontare le sfide più urgenti. L’Italia si colloca al venticinquesimo posto in questo dominio. Ciò implica un discreto potenziale strategico, che tuttavia non raggiunge le punte di eccellenza di Paesi come Danimarca, Finlandia o Norvegia, i quali risultano ai primi posti proprio per la loro abilità di pianificare in maniera lungimirante e garantire un elevato grado di integrità. Alcuni indicatori riguardanti l’Italia appaiono in linea con la media dei Paesi analizzati, per esempio la disponibilità di norme anticorruzione e l’impegno nel rendere pubbliche parte delle informazioni sulle attività di governo. La difficoltà si evidenzia quando occorre assicurare reale apertura e coordinamento costante tra i diversi livelli ministeriali o fare scelte coraggiose in ambito di riorganizzazione della macchina statale. Gli autori del rapporto mostrano come i progressi in tema di integrità e comunicazione con i cittadini siano realizzabili soltanto se sostenuti da un quadro istituzionale stabile e da risorse adeguate. È importante notare che, nonostante gli sforzi legislativi degli ultimi anni, i risultati dipendono anche dalla percezione che funzionari e cittadini hanno del funzionamento della pubblica amministrazione. Nel caso italiano, alcuni progetti di semplificazione normativa o di innovazione dei sistemi digitali vengono percepiti come non perfettamente integrati con la tradizione amministrativa. Questo aspetto suggerisce che, per salire di posizioni in termini di Leadership, potrebbe essere utile investire ulteriormente nella formazione dei dirigenti e in politiche di reclutamento che valorizzino una mentalità manageriale unita a competenze specialistiche. La sezione strategica tiene conto anche della prontezza della pubblica amministrazione a adottare modelli organizzativi capaci di reagire a crisi impreviste. A differenza di altri indicatori presenti nell’Index, qui si presta molta attenzione alla capacità di elaborare piani orizzontali che coinvolgano tutti i ministeri. Se l’Italia mostra alcuni esempi di collaborazione interministeriale durante emergenze (come nel caso di situazioni sanitarie o ambientali), l’Index suggerisce che occorre creare strutture più forti per assicurare una pianificazione strategica indipendentemente dall’urgenza del momento. Un’ulteriore tematica inerente al dominio Strategia e Leadership concerne la presenza di una visione di lungo periodo rispetto alla sostenibilità e allo sviluppo economico. Nel calcolo finale dell’Index, si riscontra che le amministrazioni con migliori punteggi in questo ambito hanno definito direttive chiare sui piani futuri, applicando strumenti di consultazione con esperti e stakeholder. L’Italia, benché abbia una tradizione di dialogo con le parti sociali, necessita di consolidare i meccanismi di consultazione in modo da legare più efficacemente le strategie di crescita alla coesione territoriale e all’innovazione.   Public Policy: L’Italia al 15° posto nel Blavatnik Index 2024 Nell’area Public Policy, l’Index valuta le funzioni più basilari della pubblica amministrazione: capacità di predisporre proposte di legge efficaci, regolamentare i mercati, coordinare l’attività finanziaria dello Stato e gestire situazioni di crisi. L’Italia raggiunge la quindicesima posizione su 120 Paesi, un risultato che segnala come la formulazione delle politiche sia uno dei punti più solidi del nostro quadro generale. Questo traguardo emerge soprattutto grazie alla maturità di alcuni processi legislativi e alla presenza di strutture tecniche che sostengono lo sviluppo di normative complesse. La performance relativamente alta in questo dominio dipende anche da una tradizione amministrativa che annovera figure con competenze tecniche di buon livello. Il meccanismo di policy making in Italia, tuttavia, si rivela a volte rallentato da processi di concertazione politica che, pur finalizzati a trovare ampie convergenze, rischiano di prolungare i tempi di approvazione delle riforme. Nel punteggio del Blavatnik Index incidono in maniera positiva alcune procedure di valutazione dell’impatto regolatorio, adottate ormai in molte filiere legislative, così come l’esistenza di forme di consultazione pubblica online per specifici provvedimenti. Tuttavia, per raggiungere Paesi ai vertici della classifica è consigliabile rafforzare le prassi di trasparenza nella spesa pubblica e ampliare le metodologie di valutazione ex ante ed ex post delle politiche. Il quindicesimo posto suggerisce che l’Italia, rispetto a molte nazioni di livello medio o basso, mostra una discreta padronanza dei meccanismi di redazione normativa e di vigilanza. Alcuni dati qualitativi evidenziano una particolare propensione a intervenire in modo regolatorio per risolvere problemi emergenti, come la tutela ambientale, ma rimangono zone d’ombra nella rapidità d’esecuzione e nel coordinamento con gli enti locali. Non a caso, uno dei temi considerati dall’Index, la gestione di crisi e rischi, appare centrale: la pandemia e altre emergenze hanno spinto l’Italia a sperimentare processi di risposta complessi, che in parte hanno funzionato e in parte hanno rivelato la necessità di adottare sistemi di monitoraggio più omogenei. Sul versante dei dati e delle informazioni statistico-amministrative, l’Index dà rilievo alla disponibilità e alla trasparenza di database utili a chi decide le politiche. Da questo punto di vista, il quindicesimo posto include anche una valutazione dei sistemi di open data, cioè la diffusione di informazioni pubbliche affidabili e consultabili da cittadini e imprese. Il rapporto segnala miglioramenti rispetto al passato, con banche dati più facili da reperire sul web, ma anche qualche passo ulteriore da compiere per rendere i dataset più completi e uniformi. Ciò potrebbe tradursi in una maggiore precisione nella definizione di nuove leggi, evitando ridondanze e proposte normative sovrapposte. Un aspetto interessante, infine, tocca la dimensione della crisi e del rischio, che l’Index accorpa ai fattori di policymaking. L’Italia dispone di una struttura di Protezione Civile riconosciuta a livello internazionale, ma le condizioni di fragilità del territorio, con frequenti eventi sismici e idrogeologici, mettono alla prova la solidità delle scelte politiche. La posizione relativamente buona nel dominio Public Policy conferma che esistono competenze e procedure consolidate, ma sottolinea anche l’importanza di rafforzare la capacità di prevenzione e di coordinamento fra ministeri ed enti periferici, affinché la risposta agli eventi catastrofici sia sempre più rapida ed efficiente.   National Delivery: L’Italia al 19° posto nel Blavatnik Index 2024 La dimensione National Delivery si concentra sulla capacità di uno Stato di erogare e monitorare i servizi fondamentali di competenza centrale, come la digitalizzazione, la riscossione fiscale, la gestione dei confini e la supervisione di alcuni settori chiave. L’Italia ottiene il diciannovesimo posto in questa sezione, con un risultato che, a prima vista, può apparire incoraggiante rispetto alle complessità che caratterizzano il nostro apparato statale. In particolare, la classifica evidenzia discreti risultati nell’efficienza delle procedure doganali e un buon livello di digitalizzazione in alcuni servizi pubblici a livello nazionale, sebbene rimangano notevoli differenze tra enti e regioni nel passaggio dal cartaceo all’online. Uno dei temi analizzati è il modo in cui l’amministrazione centrale esercita la cosiddetta “system oversight”, cioè la capacità di assicurare che le politiche siano effettivamente portate a compimento in maniera coerente. In questo quadro, l’Italia viene valutata soprattutto sulla sua capacità di raggiungere gli obiettivi prefissati a livello governativo, anche quando la gestione operativa ricade su enti subordinati o su entità locali. Il fatto che la posizione in classifica sia la numero 19 suggerisce un livello di supervisione tutto sommato positivo, ma che non sempre viene messo in pratica con uniformità in tutto il Paese. Alcune realtà ministeriali hanno mostrato buone pratiche di monitoraggio continuo, mentre altre faticano a implementare le linee guida. Per quanto concerne la tassazione, il Blavatnik Index osserva la qualità della gestione fiscale, valutando aspetti come la facilità di compilazione e pagamento delle imposte e l’adozione di canali digitali. L’Italia, nel panorama globale, è migliorata negli ultimi anni grazie a sistemi telematici più evoluti. Ciò non toglie che persistano perplessità sull’efficacia del contrasto all’evasione e sulle differenze che ancora si manifestano nella percezione di equità fiscale. La diciannovesima posizione indica che, benché non si rientri tra i casi virtuosi come Spagna o Singapore, esiste un potenziale sufficiente a consentire una gestione moderna, specie se ci sarà continuità nelle iniziative di aggiornamento dei servizi e nella formazione specifica del personale. Nell’ambito della digitalizzazione, la performance italiana mostra alcuni indicatori positivi legati alla disponibilità di piattaforme online, come l’identità digitale o l’accesso telematico ad alcuni servizi di previdenza. Questo fa guadagnare punti rispetto a Paesi in cui il processo di e-government è meno consolidato, ma rimane distante dai migliori punteggi internazionali in cui l’intera filiera amministrativa risulta integrata. Il Blavatnik Index tende a valorizzare quelle realtà capaci di offrire servizi integrati dal punto di vista tecnologico e di monitorarne gli effetti con dati precisi. Un altro aspetto toccato dal dominio National Delivery riguarda la gestione dei confini e la fluidità dei commerci internazionali. L’Italia possiede un buon sistema doganale e infrastrutture portuali e aeroportuali di rilievo, ma la complessità regolatoria dell’Unione Europea, nonché la disomogeneità delle competenze, può rallentare certi passaggi. Emerge l’opportunità di semplificare e uniformare le pratiche di frontiera, in modo che l’erogazione dei servizi risulti ancor più rapida e trasparente. In definitiva, il diciannovesimo posto nel dominio National Delivery riflette un insieme di fattori eterogenei, dove l’Italia mostra, da un lato, un apprezzabile livello di modernizzazione in alcune aree e, dall’altro, la necessità di eliminare frammentazioni ancora radicate.   Persone e processi: riforme per l’Italia nel Blavatnik Index 2024 La quarta dimensione del Blavatnik Index, denominata Persone e Processi, comprende temi fondamentali come la gestione delle risorse umane, la diversità e l’inclusione nel pubblico impiego, le procedure di procurement e la presenza di infrastrutture tecnologiche e ambienti di lavoro adeguati. L’Italia si posiziona al trentatreesimo posto, risultato meno brillante rispetto alle posizioni ottenute negli altri tre domini. Questo indicatore segnala quindi un potenziale margine di riforma e miglioramento, specialmente in relazione all’innovazione organizzativa e alla soddisfazione del personale. Un primo punto di attenzione riguarda la gestione del personale, che l’Index considera sotto vari aspetti: dai criteri di selezione e promozione fino alla trasparenza nelle opportunità di carriera. Se, da un lato, esistono diverse normative volte a garantire procedure concorsuali imparziali, dall’altro emergono difficoltà nella valorizzazione delle competenze a lungo termine e in una programmazione strategica del turnover. La relativa bassa collocazione dell’Italia, rispetto a Paesi leader in questo campo, segnala che occorre una revisione dell’apparato di regole contrattuali per consentire un migliore incontro tra competenze specialistiche ed esigenze operative. Sul fronte della diversità e inclusione, l’Index sottolinea la percentuale di donne e di altri gruppi rappresentati all’interno dell’amministrazione. L’Italia presenta buone norme antidiscriminatorie e ha introdotto quote di genere in alcuni segmenti della dirigenza pubblica. Tuttavia, l’effettivo impatto di tali misure è giudicato ancora migliorabile, dato che rimangono squilibri di presenza femminile nei ruoli apicali, specialmente in determinati ministeri. Il punteggio colloca il Paese in una posizione di sostanziale media, ma lontano dai livelli di alcuni stati nordeuropei, che da decenni investono in politiche di pari opportunità strutturate. La parte del dominio dedicata ai processi include inoltre la trasparenza e l’efficacia negli appalti pubblici, cruciali per garantire un utilizzo corretto e rapido delle risorse finanziarie. L’Italia sconta talvolta lacune nei sistemi di gara e nella disponibilità di dati aperti sugli aggiudicatari, anche se sono stati compiuti vari sforzi negli ultimi anni per allinearsi agli standard europei. Come evidenziato nel rapporto, molti Paesi ben posizionati hanno un sistema di procurement digitalizzato e centralizzato, in grado di generare un monitoraggio continuo e diffuso. Nel contesto italiano si avverte l’esigenza di completare il processo di standardizzazione, assicurando sia controlli efficaci sia tempistiche accelerate. La sezione dedicata a Persone e Processi analizza infine la tecnologia e gli ambienti di lavoro, elemento chiave per misurare l’adeguatezza dell’infrastruttura IT nel gestire la documentazione, i flussi di lavoro e le comunicazioni interne. L’Italia, pur avendo sviluppato piattaforme innovative in settori come la fatturazione elettronica e l’identità digitale, risente ancora di una frammentazione nelle soluzioni adottate dai diversi enti e ministeri. Il trentatreesimo posto in questa dimensione richiama quindi l’attenzione sull’importanza di un investimento coordinato, che vada oltre l’implementazione di singoli software, puntando a una revisione complessiva dei processi amministrativi e alla formazione del personale per un uso efficace degli strumenti digitali.   Conclusioni L’esperienza dell’Italia nel Blavatnik Index of Public Administration 2024 mostra un quadro eterogeneo, dove il punteggio complessivo di 0,72 e la ventesima posizione generale convivono con differenze marcate tra i quattro domini. I risultati delle singole aree suggeriscono che esistono punti di forza, come la formulazione delle politiche e la gestione di alcuni servizi centrali, ma anche ambiti ancora lontani dalle migliori pratiche internazionali, in particolare nella valorizzazione del personale, nell’innovazione gestionale e in certi aspetti di trasparenza. Considerando lo stato dell’arte delle pubbliche amministrazioni in contesti internazionali, è utile riflettere su come altri Paesi europei, come Danimarca o Norvegia, abbiano sviluppato strutture di leadership e strategie di lungo termine, integrandole con sistemi trasparenti di gestione del personale. Diversi Paesi, tra cui Francia e Spagna, hanno rafforzato i canali di consultazione e la digitalizzazione dei servizi, conseguendo punteggi più alti nei domini che l’Italia desidera migliorare. La prospettiva realistica è che il nostro Paese, già ben posizionato in alcune componenti di policy, debba ora concentrare gli sforzi nel potenziare la qualità dei processi interni, puntando su organigrammi meno frammentati e su progetti di trasformazione digitale capaci di raccogliere e sfruttare i dati in modo trasversale. Le implicazioni strategiche per imprenditori e manager, che considerano l’amministrazione pubblica un partner e un regolatore di primaria importanza, evidenziano la necessità di avanzare proposte volte a semplificare le procedure e promuovere pratiche di gestione degli acquisti più efficienti, così da incentivare gli investimenti e migliorare la competitività. In un contesto globale in cui la dinamicità rappresenta un elemento chiave, il potenziamento di strutture di leadership focalizzate sull’innovazione organizzativa può aumentare la capacità dello Stato di supportare progetti complessi e iniziative di sviluppo. Nell’ambito del Blavatnik Index, l’Italia dispone di solide fondamenta, ma per migliorare la propria posizione è indispensabile intervenire sui meccanismi di coordinamento e gestione interna, accelerando l’attuazione delle riforme e ottimizzando la qualità dei servizi rivolti a cittadini e imprese. Podcast: https://creators.spotify.com/pod/show/andrea-viliotti/episodes/Italia-nel-Blavatnik-Index-2024-analisi-e-strategie-per-la-pubblica-amministrazione-e2srhq4 Fonte: https://www.bsg.ox.ac.uk/research/publications/blavatnik-index-public-administration-2024-report

  • Uncertainty Estimation in Text Generation: A New Metric for Language Models (LLMs)

    The study “Rethinking Uncertainty Estimation in Natural Language Generation” by Lukas Aichberger, Kajetan Schweighofer, and Sepp Hochreiter, conducted at ELLIS Unit Linz and LIT AI Lab, Institute for Machine Learning, Johannes Kepler University Linz, and NXAIGmbH, focuses on the goal of improving uncertainty estimation in text generation produced by large-scale language models. The research proposes a more efficient criterion for uncertainty estimation in text generation, without resorting to repeated multiple generations. Its core is a theoretical and experimental analysis of the G-NLL metric, which aims to simplify the calculation of uncertainty while maintaining statistical consistency. Uncertainty Estimation in Text Generation: A New Metric for Language Models (LLMs) Challenges of Uncertainty Estimation in Text Generation: Why G-NLL Is Key Large-scale language models (LLMs) generate text autoregressively; thus, each token is chosen based on previous tokens and on the probabilities learned during training. This mechanism can produce potentially different outputs, even with the same prompt, because the generation process relies on a stochastic procedure. Such a characteristic makes it difficult to pinpoint how “certain” a model is about what it produces. The analysis presented in “Rethinking Uncertainty Estimation in Natural Language Generation” emphasizes how challenging it is to assess the reliability of sentences generated by LLMs, especially when trying to measure potential error. Many reference methodologies rely on an approach that involves sampling multiple output sequences. The uncertainty estimate depends on the way the model distributes probability across possible generated sentences: if the candidate texts turn out to be very similar to one another, one expects a relatively low uncertainty; if, however, those texts differ significantly, the sense of uncertainty is higher. The authors highlight how classic methods resort to multiple output samples, then compute measures such as Predictive Entropy or Semantic Entropy, both grounded in log-likelihood principles. The first considers the overall probability distribution of sentences, while the second seeks to capture any semantic difference between outputs that appear different but are equivalent in meaning. Although these systems show a certain realism in representing uncertainty, they require high computational power due to the number of generated sequences. It has been observed that, with modern large-scale models, predicting each token is no trivial task: these networks can reach billions of parameters—like those with 7, 8, or 70 billion parameters mentioned in the research—and massive sampling increases response time and resource use. The study examines the complexity of sampling multiple sentences and interpreting them with possible additional semantic inference models. These steps, while increasing accuracy, have a considerable impact on the real-world use of such algorithms, especially if adopted on a large scale, for instance in the automation of enterprise processes. The picture that emerges indicates how useful it would be to have a more streamlined metric, able to faithfully summarize how much confidence the model has in a single generated sequence. Such a perspective is strategic for managers and executives who aim to leverage language models without incurring excessive latency or overly burdensome infrastructure. The research proposes a novel approach to uncertainty estimation in text generation  by focusing on the probability of the single most plausible sentence. The idea stems from the theory of proper scoring rules, among which the zero-one score stands out as an alternative reference to log-likelihood. From this premise, the study introduces the G-NLL metric, linked to the idea of focusing on the highest-probability sentence. If estimating the entire distribution is impractical—because very long combinations require prohibitively large computations—concentrating on the “greedy” sequence (that is, the one that selects the most likely token at every step) drastically reduces computational costs. This first section highlights the urgency of a more accessible approach to quantifying uncertainties in text generation. There is mounting pressure to combine accuracy, transparency, and operational speed, especially as the models scale up and both market and research interests shift toward complex tasks such as question answering, composing specialized summaries, or handling document processing. G-NLL: A Groundbreaking Metric for Estimating Uncertainty The core of the research is the definition of G-NLL, an acronym indicating the Negative Log-Likelihood of the most probable sequence generated by a language model. This metric is based on the idea of replacing the traditional log-likelihood with another scoring function, the so-called zero-one score, which emphasizes the most plausible prediction and reduces the weight of less likely alternatives. When we refer to the zero-one score, we mean a measure that is 1 if the output coincides with the most likely one and 0 for the less likely one. Applied to the world of language models, this logic translates into controlling the token considered “best” at each step. The authors provide an explicit formula to explain G-NLL. If, for an output consisting of T tokens, the generation follows a greedy decoding path, then the metric is: G-NLL = - sum_{t=1}^T [ log( max_{y_t} p(y_t | x, y_<t, w) ) ] where p(y_t | x, y_<t, w) represents the probability of token y_t  given input x and the preceding tokens y_<t according to the model with parameters w. This formula directly captures how inclined the model is toward the generated sequence token by token. If the product of these probabilities is high, the G-NLL will be low, indicating high confidence; conversely, a high G-NLL suggests that the model struggles to maintain steady confidence in its generation choices. The theoretical motivation rests on the difference between the family of so-called “logarithmic” scores, which underlie measures such as Predictive Entropy and Semantic Entropy, and the family based on the zero-one score. In the first case, the entire distribution of possible sentearees (or the entire set of semantic clusters) is considered; in the second, the focus is on the probability peak corresponding to the most likely output. It appears that if the true distribution of texts were known and easily manageable, entropy-based estimates involving multiple samples could provide more comprehensive information. However, with ever-larger models, it becomes difficult—if not impossible—to explore the space of possible outputs. Hence the interest in G-NLL: by estimating uncertainty from a single greedily decoded sequence, multiple generation costs are eliminated, and one obtains a method consistent with the mathematical framework of scoring rules. Moreover, the paper shows that estimating the entire distribution by sampling several outputs often leads to high variance and does not always guarantee finding the most likely sequence. By contrast, greedy decoding has a solid chance of identifying maximum likelihood in a single pass, facilitating large-scale feasibility of the uncertainty estimation process. This line of research falls within a broader exploration of methods aimed at capturing aleatoric uncertainty (due to the model’s stochastic nature) and epistemic uncertainty (due to lack of knowledge about the true parameters and the limitations of the data). G-NLL primarily focuses on the aleatoric uncertainty of the single chosen sequence, reflecting how certain the model deems that output at every decoding step. G-NLL vs. Traditional Metrics: The Battle of Efficiency The empirical part of the work compares G-NLL with well-established metrics in the field, particularly Predictive Entropy (PE), Semantic Entropy (SE), and some of their length-normalized or discrete variants (LN-PE, LN-SE, D-SE). Unlike G-NLL, these measures require multiple sampling of possible outputs. The authors conducted experiments on three datasets: TriviaQA, with over 3,000 factual questions; SVAMP, with just over 300 elementary arithmetic exercises; and NQ-Open, with more than 3,600 questions collected from the Google search engine. They evaluated two types of generation: a short one, more concise and focused on direct answers, and a long one, where the model was asked to produce more discursive sentences. Moreover, different models were considered, both in architecture (transformer and state-space) and in size (7, 8, and 70 billion parameters). Some were simple pre-trained versions (PT), others were further trained with instruction-tuning (IT). The aim was to test whether the uncertainty measurement maintained consistent performance across different scenarios and networks. The correctness criterion for the answer was measured in two ways: using the SQuAD F1 metric on a 0.5 threshold for short texts, or having the answer evaluated by an LLM-as-a-judge model with 70 billion parameters, to cover the longer generations as well. In essence, an answer was labeled as correct if it exceeded the similarity threshold with the canonical solution or if it was deemed coherent by a large-scale model. Results show that G-NLL achieves competitive or superior AUROC (Area Under the Receiver Operating Characteristic) values compared to other measures, with sharper differences especially when the model generated short sentences. For instance, in some tests on models with 7 or 8 billion parameters in a pre-trained setting, G-NLL reached peaks of 0.82–0.84, while log-likelihood-based entropies, even when supported by 10 output samples, remained around 0.77–0.80. The given explanation is that in contexts requiring concise responses, the most likely sequence already captures the model’s ability to be confident in what it produces, making the calculation of multiple text variants superfluous. Another experiment on synthetic data—with reduced vocabularies and short sequences—confirmed how easily greedy decoding finds the highest-probability sequence. Random sampling with variable temperature showed higher variance with just a few samples, whereas greedy or low beam-search decoding yielded very stable estimates of the maximum sequence probability. The final analysis suggests that if the sole objective is to understand how much the model “believes” in the generated sentence, generating a single greedy sequence may suffice. Although G-NLL does not incorporate the semantic reflection inherent in metrics such as Semantic Entropy, the empirical data show that semantic inference adds cost and complexity. In an industrial or production context, reducing response latency can be critical. Therefore, adopting an immediate measure such as G-NLL, which relies on a single pass, takes on strategic importance in many real-world applications. Business Advantages of G-NLL in Language Models The study highlights a fundamental advantage of G-NLL for uncertainty estimation in text generation: simplicity. Instead of generating multiple sequences for semantic comparisons, G-NLL evaluates the log-likelihood of the most likely sequence, ensuring efficiency. A crucial aspect for a company wanting to integrate LLMs into its processes is the handling of execution time and the associated computational costs. Generating multiple output variants doubles or triples response times, and the subsequent content analysis to check for semantic differences further increases the load. With G-NLL, response construction coincides with uncertainty estimation. The system produces the most likely text via greedy decoding, calculates the token-by-token probability, and provides a single negative log-likelihood value that quantifies confidence. In B2B lead generation scenarios, for example, it might be important to receive quick answers to questions about products or services. Having a tool that also indicates how unreliable the generated text might be would allow setting a threshold beyond which human intervention becomes necessary. Simplicity here is accompanied by a solid theoretical basis, as G-NLL stems from proper scoring rules, particularly through replacing the log-score with the zero-one score. This ensures that the metric respects the sound statistical properties required when evaluating the coherence of a probabilistic model. It is not merely a heuristic “trick,” but rather a method anchored in rigorous principles. This point is valuable for managers who need to justify introducing LLMs to stakeholders and investors, ensuring that uncertainty evaluation is not just an improvised accessory but a carefully designed functionality. The results obtained with the large models studied suggest that G-NLL could serve as a new baseline for future research in uncertainty estimation. However, there is room for improvement. The paper points out that a single sequence ignores the question of semantic diversity. Should a company need to generate lengthy documents, it may be wise to incorporate the semantic dimension, especially when the expository style and rhetorical structure matter as much as the answer itself. Nonetheless, if the primary objective is to validate the quality of a short, direct generation, G-NLL appears unusually effective, being an immediate calculation. An operational example illustrating the usefulness of G-NLL is automated FAQ management. If the system generates a short answer for each question, the G-NLL value indicates how confident the model is in that answer. By setting a threshold, one can automatically select which answers require manual review before publication. In this way, if the G-NLL is very high (and therefore the model’s confidence is low), the answer is rechecked by a human operator, minimizing errors and safeguarding the company’s reputation. Future Perspectives on Uncertainty Estimation with G-NLL The final section of the research points out several possible developments. First, it highlights that G-NLL does not distinguish between correct sentences and sentences that may be semantically misleading but formally coherent: it remains an estimate of how plausible the model considers its output. In the future, it would be interesting to explore metric variants that also account for semantic aspects while preserving the single-sequence lightness. A large model that generates long or very complex texts might benefit from a hybrid approach in which real-time uncertainty assessment is paired with content checks, incurring additional computational cost only when G-NLL signals a peak of potential inaccuracy. The research also emphasizes the importance of addressing length normalization, an aspect already explored by other metrics such as LN-PE, LN-SE, and D-SE, which discretize possible meaning clusters. The goal is to ensure that uncertainty measurement is not skewed by very long or very short sequences. This could be essential in applications like document summarization, where output length varies greatly. Nonetheless, empirical results show that, despite normalization, entropy-based measures still require multiple generations, remaining expensive in operational environments. Strategic implications are clear. Many companies rely on LLMs to generate text at scale, from customer care to creating website content. The ability to integrate a lightweight reliability index into any workflow, without doubling computation costs, boosts investors’ and partners’ confidence. If well implemented, uncertainty estimation can serve as an alert system and mitigate the risk of problematic outputs. At the same time, it offers a clearer view of the model’s shortcomings and the need for training-data updates. The research suggests that the future debate will not only involve generative accuracy, but also the quality of uncertainty estimation, as a tool for analysis and error mitigation. There are already lines of work involving conformal prediction or the use of external cross-analysis models. G-NLL stands as an important piece of this puzzle, thanks to its balance between ease of application and grounding in formal scoring theories. All this without requiring cumbersome multiple-generation phases. Conclusions “Rethinking Uncertainty Estimation in Natural Language Generation” raises a crucial issue for those who adopt large language models in real contexts: the uncertainty that accompanies every textual generation is not merely a technological limitation but also a factor of risk and responsibility for those who must turn the power of LLMs into a competitive advantage. The G-NLL proposal marks an interesting step forward in uncertainty estimation for text generation, since it aims to contain computational costs while freeing up resources for higher-value activities. A point that merits particular attention for entrepreneurs and managers is how G-NLL can become a concrete indicator of the model’s confidence in its own outputs, especially when deploying at scale. Instead of multiplying the number of generations—and therefore response times and computing costs—the metric leverages a single greedily decoded sequence. This approach makes it possible to reduce latency and establish quicker decision-making processes, which can accommodate ever-larger language models without undermining the robustness of analyses. Nevertheless, G-NLL is not without limitations: the semantic richness required by certain applications might need a comparison among multiple text variants. A hybrid strategy, in which in-depth semantic checks are carried out only when G-NLL indicates low confidence, could offer a good compromise between accuracy and pragmatism. In other words, a company could use G-NLL as a warning threshold, deciding to allocate additional verification resources only where the model shows particular uncertainty. This perspective brings attention to the cost–benefit analysis of adopting large language models in everyday operations: with G-NLL, one can plan validation procedures that are calibrated to the level of risk, intelligently distributing human and computational resources. Ultimately, using an agile metric for uncertainty estimation represents an opportunity to strengthen trust in LLMs, maximize productivity, and maintain strategic oversight of the performance of textual generation systems. Podcast: https://creators.spotify.com/pod/show/andrea-viliotti/episodes/Uncertainty-Estimation-in-Text-Generation-A-New-Metric-for-Language-Models-LLMs-e2sqt9b Source:   https://arxiv.org/abs/2412.15176

  • Stima dell’incertezza nella generazione di testo: una nuova metrica per i modelli linguistici (LLM)

    Lo studio “Rethinking Uncertainty Estimation in Natural Language Generation” di Lukas Aichberger, Kajetan Schweighofer e Sepp Hochreiter, condotto presso ELLIS Unit Linz e LIT AI Lab, Institute for Machine Learning, Johannes Kepler University Linz e NXAIGmbH, si concentra sull’obiettivo di migliorare la stima dell’incertezza nella generazione di testo  prodotta dai modelli linguistici su larga scala. La ricerca propone un criterio più efficiente per la stima dell’incertezza nella generazione di testo , senza ricorrere a ripetute generazioni multiple. Il fulcro è l’analisi teorica e sperimentale della metrica G-NLL , che mira a semplificare il calcolo dell’incertezza mantenendo coerenza statistica. Stima dell’incertezza nella generazione di testo: una nuova metrica per i modelli linguistici (LLM) La stima dell’incertezza nella generazione di testo nei modelli di linguaggio: necessità e sfide I modelli di grandi dimensioni (LLM), generano testo in modo autoregressivo; quindi, ogni token viene scelto basandosi sui token precedenti e sulle probabilità apprese in fase di addestramento. Questo meccanismo produce output potenzialmente diversi, anche con lo stesso prompt, perché la generazione si appoggia su un processo stocastico. Tale caratteristica rende complesso individuare quanto un modello sia “sicuro” di ciò che produce. L’analisi presentata in “Rethinking Uncertainty Estimation in Natural Language Generation”  sottolinea quanto sia impegnativo valutare l’affidabilità delle frasi generate dai LLM, specie quando si cerca di misurare l’errore potenziale. Molte metodologie di riferimento si fondano infatti su un approccio che implica il campionamento di svariate sequenze d’uscita. La stima dell’incertezza dipende dal modo in cui il modello distribuisce la probabilità sulle possibili frasi generate: se i testi candidati risultano molto simili tra loro, ci si aspetta un’incertezza relativamente ridotta; se invece tali testi divergono sensibilmente, la percezione di insicurezza risulta più alta. Gli autori evidenziano come i metodi classici ricorrano a campionamenti multipli  dell’output, per poi calcolare misure come la Predictive Entropy  o la Semantic Entropy , entrambe ancorate ai principi della log-likelihood. La prima considera la distribuzione di probabilità complessiva delle frasi, mentre la seconda cerca di cogliere l’eventuale differenza semantica fra output apparentemente diversi, ma equivalenti dal punto di vista del significato. Questi sistemi, benché mostrino un certo realismo nel rappresentare l’incertezza, richiedono una potenza computazionale elevata per via del numero di sequenze generate. È stato rilevato che, con i modelli moderni di grandi dimensioni, predire ogni token non è banale: si tratta di reti che arrivano a miliardi di parametri, come quelle a 7, 8 o 70 miliardi di parametri menzionate nella ricerca, e un campionamento massiccio aumenta il tempo di risposta e le risorse impiegate. Il lavoro esamina la complessità di campionare più frasi e di interpretarle con eventuali modelli addizionali di inferenza semantica. Sono fasi che incrementano la precisione ma incidono in modo considerevole sull’uso reale di questi algoritmi, specialmente se adottati su vasta scala, come nell’automazione di processi in ambito aziendale. Il quadro che emerge indica quanto sia utile disporre di una metrica più snella, capace di riassumere con buona fedeltà quanta fiducia il modello abbia nella singola sequenza generata. Una simile prospettiva risulta strategica per responsabili e dirigenti che puntano a sfruttare i modelli linguistici senza incorrere in tempi di latenza eccessivi o in infrastrutture troppo onerose. La ricerca propone di sostituire l’intera distribuzione di frasi possibili con la probabilità della sola frase più plausibile. L’idea nasce dalla teoria delle proper scoring rules , tra cui spicca la zero-one score come riferimento alternativo alla log-likelihood. Da questa impostazione emerge la metrica chiamata G-NLL , correlata all’idea di concentrare l’attenzione sulla frase a massima probabilità. Se stimare l’intera distribuzione risulta impraticabile, perché combinazioni molto lunghe richiedono un calcolo proibitivo, focalizzarsi sulla sequenza “greedy” (cioè, quella che, passo dopo passo, sceglie sempre il token più probabile) riduce drasticamente i costi computazionali. Questa prima sezione mette in luce l’urgenza di un approccio più agevole per quantificare le incertezze nella generazione di testo. C’è una pressione sempre più forte per coniugare accuratezza, trasparenza e velocità operativa, soprattutto quando i modelli scalano e l’interesse del mercato e della ricerca si sposta su compiti complessi come la risposta a domande, la stesura di sintesi specialistiche o l’elaborazione di documenti.   G-NLL: una nuova metrica per la stima dell’incertezza Il cuore della ricerca è la definizione di G-NLL , acronimo che indica la Negative Log-Likelihood  della sequenza più probabile generata da un modello linguistico. Tale metrica deriva dall’idea di sostituire la tradizionale log-likelihood con un’altra funzione di punteggio, la cosiddetta zero-one score , che valorizza la predizione più plausibile e riduce il peso delle alternative meno verosimili. Quando si parla di zero-one score, si intende una misura che vale 1 se l’output coincide con quello più probabile e 0 per il meno probabile. Applicata al mondo dei modelli linguistici, tale logica si trasforma in un controllo sul token considerato “migliore” a ogni passo. Gli autori ricorrono a una formula esplicita per spiegare G-NLL. Se per un’uscita composta da T token la generazione segue un percorso a decodifica greedily, allora la metrica è: G-NLL = - sum_{t=1}^T [ log( max_{y_t} p(y_t | x, y_<t, w) ) ] dove p(y_t | x, y_<t, w) rappresenta la probabilità del token y_t dato l’input x e i token precedenti y_<t, secondo il modello con parametri w. Questa formula cattura in modo diretto quanto il modello propenda per la sequenza generata token dopo token. Se il prodotto di queste probabilità risulta alto, la G-NLL sarà bassa, a testimonianza di una sicurezza elevata; viceversa, una G-NLL alta suggerisce che il modello fatichi a mantenere costante la fiducia nelle proprie scelte di generazione. La motivazione teorica poggia sulla differenza tra la famiglia di punteggi detti “logaritmici”, alla base di misure come la Predictive Entropy  e la Semantic Entropy , e la famiglia basata sulla zero-one score. Nel primo caso, si considera l’intera distribuzione delle possibili frasi (o l’intero insieme di cluster semantici), nel secondo ci si focalizza sul picco di probabilità corrispondente all’uscita più probabile. Emerge che, se la vera distribuzione dei testi fosse conoscibile e maneggiabile con semplicità, le stime di entropia basate su molteplici campioni potrebbero fornire informazioni più complete. Tuttavia, con i modelli di dimensioni crescenti, diventa arduo (se non impossibile) esplorare lo spazio dei possibili output. Da qui l’interesse verso G-NLL: stimando l’incertezza a partire da un’unica sequenza greedily decodificata, si abbattono i costi di generazione multipla e si ha un metodo coerente con il quadro matematico delle scoring rules. Il documento mostra, inoltre, che la stima dell’intera distribuzione via campionamento di svariati output produce spesso varianze alte e non offre sempre garanzia di trovare la sequenza più probabile. Al contrario, la decodifica greedy ha probabilità di individuare la massima verosimiglianza con un’unica passata, supportando la sostenibilità del processo di stima su larga scala. Questo filone di ricerca si inserisce nella più ampia esplorazione dei metodi che cercano di catturare l’ aleatoric uncertainty (dovuta alla natura stocastica del modello) e l’ epistemic uncertainty  (dovuta all’ignoranza sui parametri reali e alla limitatezza dei dati). G-NLL si concentra in prima battuta sull’aleatoric uncertainty della singola sequenza scelta, riflettendo quanto il modello si ritenga certo di quell’output a ogni passo di decodifica.   Stima dell’incertezza: G-NLL contro le metriche tradizionali La parte empirica del lavoro confronta G-NLL  con le metriche consolidate nel campo, in particolare la Predictive Entropy  (PE), la Semantic Entropy  (SE) e alcune loro varianti normalizzate per la lunghezza o discrete (LN-PE, LN-SE, D-SE). A differenza di G-NLL, tali misure richiedono un campionamento multiplo  di possibili output. Gli autori hanno sperimentato su tre dataset: TriviaQA , con oltre 3000 domande di tipo nozionistico, SVAMP , con poco più di 300 esercizi di aritmetica elementare, e NQ-Open , con più di 3600 interrogativi raccolti dal motore di ricerca Google. Si sono valutati due tipi di generazione: una short , più sintetica e focalizzata sulla risposta diretta, e una long , in cui si chiedeva al modello di produrre frasi più discorsive. Inoltre, sono stati considerati diversi modelli  sia per architettura (transformer e state-space) sia per dimensioni (7, 8 e 70 miliardi di parametri). Alcuni erano semplici versioni pre-addestrate (PT), altri erano ulteriormente istruiti con meccanismi di instruction-tuning (IT). Lo scopo era verificare se la misura dell’incertezza mantenesse prestazioni consistenti su scenari e reti diverse. Il criterio di correttezza della risposta è stato misurato in due modi: usando la metrica SQuAD F1  su soglia 0,5 per i testi brevi, oppure facendo valutare la risposta a un modello LLM-as-a-judge con 70 miliardi di parametri, per coprire anche le generazioni lunghe. In sostanza, si etichettava una risposta come corretta se superava la soglia di similarità con la soluzione canonica, oppure se veniva ritenuta coerente da un modello di grandi dimensioni. I risultati mostrano che G-NLL  registra valori di AUROC (Area Under the Receiver Operating Characteristic) competitivi o superiori rispetto alle altre misure, con differenze più nette soprattutto quando il modello generava frasi brevi. Ad esempio, in alcuni test su modelli di 7 o 8 miliardi di parametri in assetto pre-addestrato, G-NLL toccava punte di 0,82–0,84, mentre le entropie log-likelihood, anche se supportate da 10 campioni di output, si fermavano attorno a 0,77–0,80. L’interpretazione addotta è che, in contesti di risposta secca, la sequenza più probabile cattura già la capacità del modello di essere sicuro di ciò che produce, rendendo superfluo il calcolo di molte varianti del medesimo testo. Un ulteriore esperimento su dati sintetici, con vocabolari ridotti e sequenze brevi, ha confermato la facilità con cui la decodifica greedy trova la sequenza a massima probabilità. Il campionamento casuale a temperatura variabile mostrava una varianza più alta con pochi campioni, mentre la decodifica greedily o con beam search ridotta otteneva stime molto stabili della probabilità massima di sequenza. L’analisi finale suggerisce che, se l’obiettivo è solamente capire quanto il modello “creda” nella frase generata, la generazione di un’unica sequenza greedy può essere sufficiente. Sebbene G-NLL non integri la riflessione semantica insita in metriche come la Semantic Entropy, i dati empirici mostrano come l’inferenza semantica aggiunga costi e complessità. In un contesto aziendale o produttivo, ridurre la latenza di risposta può risultare decisivo. Pertanto, l’adozione di una misura immediata come G-NLL, che si basa su un’unica passata, acquisisce un significato strategico in molte applicazioni reali.   Stima dell’incertezza nei modelli linguistici: benefici per le aziende La ricerca mette in risalto un vantaggio fondamentale: la semplicità . Invece di dover generare 10 o più sequenze e di doverle poi confrontare semanticamente, G-NLL si limita a valutare la log-likelihood della sequenza migliore. Un aspetto cruciale per un’impresa che voglia integrare LLM nei propri processi è la gestione del tempo di esecuzione e dei costi computazionali associati. La generazione di molteplici varianti di output raddoppia o triplica i tempi di risposta, e la successiva analisi del contenuto per verificare differenze semantiche aumenta ulteriormente il carico. Con G-NLL, la costruzione della risposta coincide con la stima dell’incertezza. Il sistema produce il testo più probabile con la decodifica greedily, calcola la probabilità token per token e restituisce un singolo valore di negative log-likelihood  che quantifica la fiducia. In scenari di lead generation B2B , ad esempio, potrebbe essere rilevante ottenere risposte rapide a domande su prodotti o servizi. Avere uno strumento che fornisca anche un indicatore di quanto il testo generato sia potenzialmente inaffidabile permetterebbe di stabilire una soglia oltre la quale intervenire manualmente. La semplicità si accompagna a un solido inquadramento teorico, poiché G-NLL deriva dalle proper scoring rules , in particolare dalla sostituzione del log-score con la zero-one score. Ciò assicura che la misura rispetti le buone proprietà statistiche che si richiedono quando si valuta la coerenza di un modello probabilistico. Non si tratta quindi di un semplice “trucco” euristico, bensì di un metodo ancorato a principi rigorosi. Questo punto è prezioso per i manager che vogliano giustificare l’introduzione di LLM a stakeholder e investitori, garantendo che la valutazione dell’incertezza non sia un accessorio improvvisato, ma una funzionalità accuratamente congegnata. I risultati ottenuti con i grandi modelli esaminati suggeriscono che G-NLL potrebbe fungere da nuovo baseline  per le ricerche future in stima dell’incertezza. Ciò non toglie che esistano ambiti di miglioramento. Il lavoro evidenzia come la singola sequenza ignori la questione della diversità semantica . Se l’impresa si trovasse a dover generare lunghi documenti, potrebbe essere opportuno integrare la dimensione semantica, soprattutto quando la forma espositiva e l’articolazione retorica contano quanto la singola risposta in sé. Tuttavia, se l’obiettivo primario è validare la bontà  di una generazione breve e diretta, G-NLL sembra rispondere con un’efficacia non comune, trattandosi oltretutto di un calcolo immediato. Un esempio operativo per capire l’utilità di G-NLL è la gestione automatica di FAQ. Se il sistema genera una risposta breve per ogni domanda, il valore di G-NLL indica il livello di fiducia del modello in quella risposta. Impostando una soglia, si possono selezionare automaticamente quali risposte richiedono una revisione manuale prima di essere pubblicate. In questo modo, se G-NLL è molto alto (e quindi la confidenza del modello è bassa), la risposta viene riconsiderata da un operatore umano, riducendo gli errori e tutelando l’immagine dell’azienda.   Stima dell’incertezza: prospettive future e sviluppi La parte finale della ricerca sottolinea alcune possibili evoluzioni. Anzitutto, si nota come G-NLL non differenzi tra frasi corrette e frasi semanticamente fuorvianti ma formalmente coerenti: resta una stima di quanto il modello ritenga plausibile il proprio output. In futuro, sarebbe interessante studiare versioni della metrica che considerino anche l’aspetto semantico, mantenendo però la snellezza dell’approccio a singola sequenza. Un modello di grandi dimensioni che generi testi lunghi o molto complessi può trarre giovamento da un ibrido in cui si affianchi la valutazione in tempo reale dell’incertezza alla verifica di contenuto, con un costo computazionale aggiuntivo solo quando la G-NLL rivela un picco di potenziale imprecisione. La ricerca sottolinea inoltre l’importanza di trattare la normalizzazione per la lunghezza , un aspetto già esplorato da altre metriche come LN-PE, LN-SE e la D-SE che discretizza i possibili cluster di significato. L’obiettivo è garantire che la misura dell’incertezza non risulti sbilanciata da sequenze molto lunghe o molto brevi. Ciò potrebbe essere cruciale in applicazioni come la stesura di sintesi di documenti, dove la lunghezza delle uscite varia notevolmente. Tuttavia, i risultati empirici mostrano che, nonostante le normalizzazioni, le misure entropiche continuano a richiedere generazioni multiple, rimanendo costose in ambienti operativi. Vi sono implicazioni strategiche. Molte aziende si affidano ai LLM per generare testi in modo scalabile, dal customer care alla produzione di contenuti per siti web. La possibilità di integrare un indice di affidabilità leggero in qualsiasi flusso di lavoro, senza raddoppiare i costi di calcolo, alimenta la confidenza degli investitori e dei partner. La valutazione dell’incertezza, se ben implementata, può fungere da sistema di allerta e ridurre i rischi di output problematici. In parallelo, si costruisce un quadro più chiaro delle lacune del modello e della necessità di aggiornare i dati di addestramento. La ricerca suggerisce che il dibattito futuro non riguarderà solo la precisione generativa, ma anche la qualità della stima di incertezza, come strumento di analisi e di mitigazione di errori. Ci sono già linee di lavoro che coinvolgono la conformal prediction , o l’impiego di modelli esterni di analisi incrociata. G-NLL si propone come tassello importante di questo panorama, grazie all’equilibrio tra semplicità applicativa e radicamento nelle teorie formali di scoring. Il tutto senza dover ricorrere a ingombranti passaggi di generazione multipla.   Conclusioni Il lavoro “Rethinking Uncertainty Estimation in Natural Language Generation” solleva una questione cruciale per chi adotta grandi modelli di linguaggio in contesti reali: l’incertezza che accompagna ogni generazione testuale non è soltanto un limite tecnologico, ma anche un fattore di rischio e responsabilità per chi deve tramutare la potenza dei LLM in un vantaggio competitivo. La proposta di G-NLL segna un passo avanti interessante nella stima dell’incertezza nella generazione di testo , poiché punta a contenere i costi computazionali, lasciando libere le risorse per attività a più alto valore aggiunto. Un aspetto che merita particolare attenzione per imprenditori e manager è come G-NLL possa diventare un indicatore concreto della fiducia che il modello ha nei propri output, specialmente nelle fasi di deployment su larga scala. Invece di moltiplicare il numero di generazioni, e di conseguenza i tempi di risposta e i consumi di calcolo, la metrica sfrutta una singola sequenza greedily decodificata. Questo consente di ridurre la latenza e stabilire processi decisionali più rapidi, che possano abbracciare modelli linguistici con dimensioni sempre maggiori senza compromettere la solidità delle analisi. Peraltro, l’approccio G-NLL non è privo di limiti: la ricchezza semantica di alcune applicazioni potrebbe richiedere il confronto fra più varianti di testo. Una strategia ibrida, in cui si interviene con controlli semantici approfonditi soltanto quando G-NLL segnala bassa confidenza, potrebbe offrire un buon compromesso tra precisione e pragmatismo. In altri termini, l’impresa potrebbe applicare G-NLL come soglia di allerta, decidendo di destinare ulteriori risorse di verifica solo dove il modello si mostra particolarmente incerto. Questa prospettiva valorizza l’analisi di costi e benefici per l’adozione di grandi modelli di linguaggio nei flussi operativi quotidiani: con G-NLL si possono prevedere procedure di validazione calibrate sul livello di rischio, distribuendo in modo intelligente le risorse umane e computazionali. In definitiva, l’uso di una metrica agile per stimare l’incertezza rappresenta un’opportunità per rafforzare la fiducia negli LLM, massimizzare la produttività e mantenere un controllo strategico sulle performance dei sistemi di generazione testuale. Podcast: https://creators.spotify.com/pod/show/andrea-viliotti/episodes/Stima-dellincertezza-nella-generazione-di-testo-una-nuova-metrica-per-i-modelli-linguistici-LLM-e2sqt8r Fonte:   https://arxiv.org/abs/2412.15176

  • Human-Machine Synergy: Insights from 'The Year in Tech 2025' on Technology and Business

    “The Year in Tech 2025,” published by Harvard Business Review Press, offers a perspective on how the integration of artificial intelligence, robotics, biometrics, and other innovations is shaping the world of work and business. The central theme of the research is the growing human-machine synergy : a landscape in which AI supports decision-making, robotics automates repetitive tasks, and biometrics optimizes services, while companies and institutions seek sustainable and responsible ways to connect talent, markets, and ideas on a global scale. Human-Machine Synergy: Insights from 'The Year in Tech 2025' on Technology and Business Human-Machine Synergy: Transforming Business Mindsets in 2025 The pages of “The Year in Tech 2025” emphasize a working reality in which the human-machine synergy and the use of digital technologies go well beyond the simple optimization of certain functions. They herald a collaboration between people and machines based on increasingly seamless natural language. Companies no longer see automation merely as a lever for efficiency but as an opportunity to rethink goals, skills, and work methodologies. Traditional production settings are now joined by environments in which AI software processes large volumes of information and robots handle operational tasks, while humans still wield the final judgment, provide empathy in services, make ethical evaluations, and drive creative innovation. The underlying idea is that human-machine synergy  does not mean offloading part of the decision-making responsibility but rather broadening analytical potential to solve more complex problems. This fosters human-machine synergy  as a space of “co-creation” between human and artificial intelligence, where data are not merely inputs to be processed but strategic resources for understanding contexts, predicting scenarios, customizing products, and improving people’s quality of life. This evolutionary step encourages companies to invest in data governance, in safeguarding sensitive information, and in defining new cross-functional competencies. With the advent of generative AI models like ChatGPT, and the rise of more advanced voice and text interfaces, the ability to interact with technology becomes a key factor in achieving tangible results—for instance, in analyzing legal documents or performing real-time consumer segmentation. At the same time, it requires an organizational culture open to experimentation and a constant watch on potential biases that an algorithm may introduce. This implies moving beyond the idea that it is enough to install software or delegate a process to the cloud: companies need procedures to verify the correctness of AI outputs, define who controls data quality, how to handle anomalies or errors, and how to protect privacy and the rights of individuals interacting with the system. “The Year in Tech 2025” thus notes growing trust in technology, even as concerns persist regarding proper oversight and accountability. The text includes instances of professionals being assisted by AI in drafting contracts, reducing both analysis time and repetitive workload, but it also shows how the added value of specialists remains indispensable for more complex interpretations or for reconciling regulatory specifics. In other words, human-machine synergy does not aim to replace people but rather to foster a new managerial mindset where human competencies and the analytical power of technology align to open up previously unexplored paths. This is a shift in mentality: to stop seeing data merely as numerical records and start considering them as “cognitive capital,” contributed by various stakeholders (including customers and employees) in a mechanism of co-creation and continuous learning. All of this changes the very definition of collaboration among departments. Where once the IT function was relegated to maintenance tasks, it is now turning into a competence center that merges with marketing, human resources, and production. Digital platforms form the backbone that underpins communication and knowledge sharing, while managers are tasked with orchestrating physical, digital, and human resources in a consistent manner. This transformation requires time, investments, and broad commitment in reevaluating roles and responsibilities: from the department head deciding how to integrate a robot into the assembly line to the analyst learning to use advanced AI tools for identifying market opportunities. In this scenario, decisions are no longer based solely on intuition or past experience but instead on continuous dialogue with data, on virtual testing and simulations, and on rapid prototyping. The shift toward a “digital mindset” reinforces human-machine synergy without disregarding established expertise, recognizing that today’s market complexity demands more adaptive models and deeper cross-pollination between human and technological dimensions. Internal training is also undergoing a radical transformation. According to the analyses presented in the document, many businesses are implementing “digital academy” programs to build specific skills in data usage, machine learning algorithms, virtual collaboration tools, and design thinking methodologies. These pathways facilitate the creation of a common language across departments, preventing digital innovation from being confined to only a few advanced areas, and they promote a habit of continuous learning, essential for staying competitive. Hence, the principle of collaboration between humans and technology spans the entire organization: products are developed with the support of generative AI; market scenarios are analyzed through computer simulations; lead generation strategies are defined based on predictive algorithms; and at the same time, relationships with customers and teams’ creative abilities are strengthened. Moreover, cutting-edge companies do not view innovation as an isolated element but rather as an integral aspect of their corporate culture, in which the potential of digital technology blends seamlessly with core values and strategic objectives.   Robots and Biometrics: Human-Machine Synergy in Modern Services A substantial section of “The Year in Tech 2025” delves into the growing adoption of robots in customer service and the use of biometric technologies as a key tool for optimizing customer interactions. Analysis of various cases—from hotel chains employing robot receptionists to airlines testing facial recognition for check-in—shows how technology can cut costs and improve the experience, so long as it preserves trust. The document highlights that in China, for instance, the market for service robots has seen significant growth, thanks in part to the ease with which repetitive or hazardous tasks can be handled by machines. However, one critical point concerns how these robots are perceived: if they are too anthropomorphic, they risk eliciting discomfort; if they are too distant and cold, they fail to produce that effect of empathy and attentiveness toward the customer that remains essential for a positive customer experience. Companies are called upon to calibrate the level of automation, maintaining human involvement where relationships, listening, or personalization require specific sensitivities. The same holds true for biometrics: recognizing a customer by face, fingerprint, or voice makes access to services smoother and speeds up payments and security procedures, yet it raises questions about privacy and data security. “The Year in Tech 2025” also notes that in several Western countries, data protection regulations mandate cautious use of these techniques, requiring robust encryption measures and audit protocols. On one hand, biometrics can boost security; on the other, the theft of biometric data is particularly sensitive, as such data cannot be reset or changed like a password. Hence, a responsible approach is vital: it’s not enough to chase the latest innovation; it’s necessary to design risk management plans, establish contingency procedures, and adopt transparent policies on data processing. Strategically, biometrics application extends beyond hotel check-in or smartphone security. New scenarios include personalized healthcare, with biometric readers constantly monitoring vital parameters and transmitting them in real time to an AI-driven diagnostic platform, or the use of facial recognition to tailor the retail experience by suggesting products based on a customer’s detected facial expressions. Yet these forms of hyper-personalization can feel intrusive if customers are not properly informed or have not given explicit consent. Customer perception can shift quickly when technology is seen as an invasive “big brother” rather than a convenient aid. That is why companies adopting robotics and biometrics should prioritize transparent protocols and user education, explaining how data are collected, stored, and used, and clarifying the benefits in terms of speed, security, and service quality. “The Year in Tech 2025” also provides significant figures: in the United States, online fraud attempts rose by more than 20% in the past year, and biometrics has proven effective in reducing such activity. In banking and finance, many institutions have already introduced mobile banking apps based on facial or voice recognition, which have reduced account breaches and fraudulent misuse of credentials. Nonetheless, public trust must be nurtured: a failed recognition or a false positive can inconvenience users, undermining their willingness to use biometric services. Although accuracy rates in some advanced facial recognition systems exceed 99%, exceptions can still occur, and unexpected conditions may need to be managed. Some hotels have found that if facial recognition software does not identify a guest in low-light conditions, the resulting experience can be worse than the traditional approach, generating dissatisfaction and complaints. The presence of robots in service roles, meanwhile, raises questions about the impact on human workers. The use of self-service kiosks or humanoid machines to deliver packages and food reduces the need for certain duties but creates a need for new training related to system maintenance and management. In “The Year in Tech 2025,” organizations are cited where human employees act as “technology ambassadors,” explaining to customers how to interact with robots or biometric systems and intervening in cases of malfunction or specific assistance requests. This highlights the fact that efficiency and cost reduction are not the sole metrics for success. Perceived quality, social acceptance, and the sense of comfort experienced by customers are also critical, making the introduction of robots and biometrics a progressive, dynamic process. We are moving toward a closer proximity between humans and machines, which must remain balanced—free from extremes of “hyper-technologization” and respectful of human values—or risk failure and the loss of customer loyalty. The stakes are high: being able to use advanced solutions to stand out by offering fast, personalized service without invading private spaces or completely replacing the relational component intrinsic to high-contact services.   Generative AI: Advancing Human-Machine Synergy in the Workplace Generative AI solutions are redefining the concept of cognitive productivity. Applications that seemed unthinkable just a few years ago are now considered viable—for instance, real-time drafting of legal contracts, analysis of medical images to suggest diagnoses, or the production of personalized text and multimedia content for each consumer. All of this affects how organizations are structured and how professional roles are shaped. On one hand, tasks once thought primarily logical or creative can now be progressively automated; on the other, there is a growing need for expertise in designing, validating, and maintaining AI systems. Generative AI does not merely replicate existing patterns; its algorithms can generate new combinations, producing outputs that mimic human inventiveness. In finance, for example, some banks have begun experimenting with generative AI to deliver personalized investment advisory reports based on a client’s risk profile and stated goals, trimming report writing times from days to hours. In education, platforms powered by generative AI create study plans aligned with each student’s learning style, suggesting targeted exercises. But as these technologies reach new heights, questions of responsibility and quality control arise: a machine-generated output that is not properly vetted could contain errors or distortions, with potentially serious consequences if applied to sensitive fields like healthcare or legal consulting. Hence the need for validation protocols, for human experts to review results, and for accountability mechanisms in the event of major mistakes. “The Year in Tech 2025” also highlights how generative AI is transforming training and continuous learning. It’s no longer just about acquiring technical skills in using algorithms; it’s about learning how to pose the right questions, interpret and refine generated results, and recognize any biases. One example in the text describes an advanced call center where new hires can quickly get up to speed thanks to a generative AI system that provides real-time suggestions during customer calls and then offers detailed feedback reports on how to improve. In this way, even those with limited experience can achieve good performance levels in a short timeframe. Speeding up the learning cycle becomes a competitive advantage, but it also demands cultural change: workers are prompted to experiment and to continuously adapt their approach, while managers must encourage productive trial and error and provide resources and space for ongoing training. Strategically, generative AI paves the way for new business models where mass personalization or large-scale product variants become economically viable. Imagine a cosmetics brand generating customized packaging ideas for different customer segments, or an automaker producing design previews based on individual buyers’ preferences. Such possibilities, described in the research, offer a glimpse of how companies can push beyond conventional productivity limits. Yet to truly leverage these capabilities, organizations need to reexamine operational workflows and assemble teams of professionals adept at communicating effectively with AI. In some cases, the new role of “prompt engineer” emerges, focusing on formulating the optimal instructions for the generative system to produce consistent, high-quality results. Meanwhile, labor unions raise concerns and ethical questions about whether intellectual tasks risk being reduced to mere oversight or polishing of machine-produced content. At this juncture, leadership must explain that AI does not diminish the human element of work but rather expands its scope, freeing up time for higher-value activities. Naturally, challenges regarding intellectual property persist. If a generative AI uses third-party data or content to learn, who owns the copyright for the final output? And how should liability be established in the event of plagiarism? “The Year in Tech 2025” suggests many of these questions remain open and that in the coming years, businesses, governments, and international organizations will need to converge on clearer guidelines. Meanwhile, a practical approach is recommended: establish internal protocols, train employees in compliance issues, and continuously track legal and technological developments to preempt potential risks. Generative AI offers extraordinary possibilities for broadening cognitive capabilities, but to avoid negative repercussions, a human presence must remain in the creation process and final decisions, along with vigilance regarding data diversity in model training so as to prevent discriminatory effects.   System Synergy: China’s Electric Vehicle Ecosystem One chapter of the document is dedicated to analyzing the electric vehicle (EV) market in China, highlighting how the country has managed to secure nearly 60% of global electric car sales, according to cited data. This achievement stems from a long-term strategy involving government incentives, testing in related sectors (from electric buses to motorcycles), partnerships with tech companies, and substantial investments in charging infrastructure. The publication points out that more than half of the world’s electric vehicles are in China, and some companies, such as BYD, have outpaced Tesla’s numbers in the fourth quarter of 2023. It’s not just a matter of low-cost manufacturing but also of vertical integration and a focus on the battery supply chain, considered the true technological core of EV. Chinese companies control a significant share of rare earth element extraction and key component production, ensuring a smoother supply chain. This example underlines the importance of creating an integrated ecosystem in which complementary expertise develops in surrounding areas and then converges in mass production. The document cites how BYD and Geely began with electric buses and motorcycles, gradually learning how to design and manufacture increasingly efficient batteries. Eventually, they transferred these capabilities to commercial and consumer vehicle production. Concurrently, partnering with tech players like Baidu sped up the development of assisted driving software and cloud services for on-board data management. The Chinese success story is also built on regulations and subsidies that initially helped consumers purchase electric vehicles, creating a robust domestic market and initiating a virtuous cycle of economies of scale. Once the internal market reached critical mass, Chinese companies were ready to tackle international markets, offering competitive products, including in terms of price. Globally, “The Year in Tech 2025” compares China’s approach with that of other countries. In the United States, EV adoption has grown, but fragmented charging infrastructure and the lack of a unified federal strategy slow its progress. In Europe, ambitious environmental regulations are spurring a shift to electric mobility, yet the market remains uneven between countries with advanced infrastructure and others lagging behind. The document underscores the necessity of viewing transport electrification as a systemic phenomenon: installing charging stations, maintaining grid stability, assessing the environmental and social impact of raw material extraction, ensuring adequate after-sales services, and creating battery recycling and disposal policies. Transitioning to electric vehicles is therefore a complex path, and China’s leadership showcases the significance of a long-term vision and synergy between industry, government, and academic institutions. The text also addresses environmental responsibility. While it’s true that electric cars have zero tailpipe CO₂ emissions, the production of batteries and generation of electricity can carry a large carbon footprint, particularly if electricity still comes primarily from fossil fuels. To maximize the benefits, the document advises adopting a holistic approach: invest in renewable energy sources, promote research into more sustainable battery materials, reduce vehicle weight to lower energy consumption, and construct a robust used-car market that extends vehicles’ lifespan. In China, strategies like battery swapping have emerged, with automated stations replacing depleted batteries in a matter of minutes, thus reducing downtime and opening a market for shared batteries. According to “The Year in Tech 2025,” such innovations show that EVs are not just standalone products but part of a broader ecosystem of interlinked solutions involving the energy, digital, and manufacturing sectors. There is also a geoeconomic aspect to consider: China’s dominance in parts of the EV value chain may create dependencies for Western companies, much like the situation in the semiconductor industry. Geopolitical tensions could push governments to localize battery and critical material production, affecting EV costs and adoption timelines. However, “The Year in Tech 2025” reinforces the notion that the drive toward electrification, digital technology integration, and the creation of smart-service ecosystems is now irreversible. Companies wishing to join this transformation must prepare for cross-sector collaborations, research investments, and flexible market strategies. China’s example demonstrates that accumulating expertise, partnering with key players, and adopting a systemic vision are significant competitive advantages. To compete globally, businesses cannot ignore these lessons and must gear up for ever more data-driven, software-based, and cross-industry competition.   Governance in Human-Machine Synergy: Balancing Innovation and Responsibility A final aspect that “The Year in Tech 2025” addresses in depth is the dilemma between ensuring innovation freedom for businesses and protecting the common good, a concern growing more pressing with the development of increasingly powerful technology platforms. The example of OpenAI and the recent debates on generative AI highlight how traditional governance models are under strain. If conventional boards of directors tend to prioritize shareholder interests, how can we manage the systemic risks posed by AI that might make decisions outside human control or manipulate information on a large scale? These challenges are not purely theoretical: consider the antitrust controversies involving Amazon, accused of price manipulation and of favoring its own products over those of third-party sellers, or the case of major tech firms controlling such a vast quantity of data that they threaten free competition. The document suggests that businesses committed to social responsibility and sustainability should move beyond a strictly profit-focused governance model and experiment with more nuanced frameworks, such as public benefit corporations or boards with independent members who specialize in ethics and social impact. The idea of tying corporate behavior to a mission broader than immediate profit is gaining traction, especially in sectors where AI could have a significant effect on employment or privacy. However, cultural inertia and competitive pressure can complicate this shift. The real challenge is reconciling investors’ and managers’ urge to extract value from new technologies with the awareness that unmonitored innovation could lead to unforeseen consequences or reputational damage. Legislatively, “The Year in Tech 2025” mentions initiatives by various authorities—like the European Commission’s AI Regulation and updates to data protection laws—to define standards and assign responsibility regarding algorithms. Yet technology evolves so fast that legislatures often struggle to keep pace. This underscores the need for specialized oversight bodies and a culture of compliance from the earliest stages of digital product design. For instance, a company developing an automated e-commerce platform must consider not only user experience and profitability metrics but also potential risks of price manipulation, exclusion of certain suppliers, or algorithmic discrimination against vulnerable consumers. Proactive governance means scheduling regular algorithm audits, keeping a human in the loop for critical decisions, and clearly communicating the system’s policies and objectives. The document also cites ongoing debates in the United States about applying antitrust laws to major platforms like Amazon. Some argue that curbing these giants’ market power would foster innovation and competition, while others worry that stringent measures might hamper technological development. The likely scenario, as described, is a system of “behavioral compliance” where these businesses face increasing constraints on data usage and self-preferencing but are not broken up. This approach seeks to preserve the scale benefits and user-friendly features offered by the platforms while restricting the most blatant abuses. The core issue is balancing collective interest with entrepreneurial drive: society expects companies not to act irresponsibly, while managers still have a duty to fulfill shareholders’ expectations. Governance is thus pivotal, tied to the caliber of management and its ability to leverage digital opportunities without losing sight of long-term effects on employment, the environment, and the social fabric.   Conclusions A collective reading of the various themes in “The Year in Tech 2025”—from using robots for service automation to employing biometrics for secure and personalized customer experiences, from generative AI as a factor of cognitive growth to China’s race in electric vehicles and governance challenges—reveals a clear trajectory: digital technologies have evolved from mere tools for efficiency and cost reduction to full-fledged strategic partners that can help imagine new business models and redefine markets. The implications for companies are manifold. It will be essential to invest in internal culture and training, overhaul processes and roles in light of AI and robotics capabilities, reconfigure the value chain through partnerships with suppliers and other stakeholders, and above all, responsibly manage the immense power that comes from controlling data and algorithms. The findings to date paint a fluid picture, where competition no longer revolves solely around products but around the network of competencies and relationships each company is able to mobilize. Looking at other similar technologies—such as advanced analytics or the internet of things—reinforces the idea that the ability to integrate platforms, data, diverse stakeholders, and evolving regulations is the linchpin of long-term value creation. A company adopting generative AI must contend with practical implementation, organizational acceptance, and possible reputational risks—requiring strategic vision, flexibility, and a willingness to experiment. Lastly, reflections on societal and corporate impact advise caution against excessive enthusiasm: technological progress should be approached with a critical mindset, carefully evaluating its benefits, limitations, and consequences. Threats like market power concentration, loss of control over sensitive data, or rash replacement of human expertise come into view. Yet there are also opportunities for economic growth, new professions, broader service access, and sustainable solutions. The challenge for executives and entrepreneurs is to envision a scenario in which humanity and technology work together and strengthen one another, respecting ethical values and shared norms. In this framework, the stakes are high for the overall evolution of the corporate model, which must be geared not just toward immediate profit but toward an equilibrium of progress and responsibility, global markets and social needs, competitiveness and the well-being of future generations. It’s a journey that calls for vision, leadership, and continual strategy and skill refinement to navigate a future still partly uncharted.   Podcast : https://creators.spotify.com/pod/show/andrea-viliotti/episodes/Human-Machine-Synergy-Insights-from-The-Year-in-Tech-2025-on-Technology-and-Business-e2sqo6o Source: https://store.hbr.org/product/the-year-in-tech-2025-the-insights-you-need-from-harvard-business-review/10741

  • Sinergia Uomo-Macchina: le prospettive tecnologiche di “The Year in Tech 2025”

    “The Year in Tech 2025” di Harvard Business Review Press propone una visione su come l’integrazione di intelligenza artificiale, robotica, biometria e altre innovazioni stia plasmando il mondo del lavoro e dell’impresa. Il tema generale della ricerca è la crescente fusione tra esseri umani e macchine : un panorama in cui l’AI supporta le decisioni, la robotica automatizza compiti ripetitivi e la biometria ottimizza i servizi, mentre aziende e istituzioni cercano modalità sostenibili e responsabili per connettere talenti, mercati e idee su scala globale. Sinergia Uomo-Macchina: le prospettive tecnologiche di “The Year in Tech 2025” Sinergia Uomo-Macchina: come cambia la mentalità nel business moderno Le pagine di “The Year in Tech 2025” insistono sul concetto di una realtà lavorativa in cui la sinergia uomo-macchina e l’impiego di tecnologie digitali non si limita più alla semplice ottimizzazione di alcune funzioni, ma conduce verso una collaborazione tra persone e macchine  basata su un linguaggio naturale sempre più fluido. Le imprese non vedono l’automazione soltanto come leva di efficienza ma come opportunità per ripensare obiettivi, competenze e metodologie di lavoro. Ai tradizionali ambienti di produzione si affiancano contesti in cui un software di intelligenza artificiale elabora grandi volumi di informazioni e un robot realizza compiti operativi, mentre l’essere umano conserva il presidio del giudizio finale, dell’empatia nei servizi, della valutazione etica e dell’innovazione creativa. L’idea di fondo è che lavorare accanto a un algoritmo non significhi scaricare una parte della responsabilità decisionale, ma piuttosto ampliare le potenzialità di analisi per risolvere problemi più complessi. Si crea così uno spazio di “cocreazione” tra l’intelligenza umana e quella artificiale, dove i dati non rappresentano soltanto input da processare, ma risorse strategiche per comprendere il contesto, prevedere scenari, personalizzare prodotti e migliorare la qualità di vita delle persone. Questo passaggio evolutivo incoraggia le imprese a investire in data governance, nella tutela di dati sensibili e nella definizione di nuove competenze trasversali. Con l’avvento di modelli di AI generativa come ChatGPT o di interfacce vocali e testuali più evolute, la capacità di dialogare con la tecnologia diviene un fattore chiave per ottenere risultati tangibili, ad esempio nell’analisi di documenti legali o nella segmentazione dei consumatori in tempo reale. D’altro canto, richiede una cultura organizzativa aperta alla sperimentazione e un’attenzione costante ai possibili bias che un algoritmo può introdurre. Ciò comporta il superamento dell’idea che basti installare un software o delegare un processo al cloud: servono procedure per verificare la correttezza dei risultati prodotti dall’AI, definire chi controlla la qualità dei dati, come vanno gestite eventuali anomalie o errori e come si tutelano la privacy e i diritti di chi interagisce con il sistema. “The Year in Tech 2025” sottolinea dunque la crescita della fiducia verso la tecnologia, pur manifestando preoccupazioni per la corretta supervisione e l’accountability. Vengono menzionati casi in cui un AI affianca i professionisti nella stesura di contratti, riducendo i tempi di analisi e la mole di lavoro ripetitivo, ma al contempo si evidenzia come il valore aggiunto degli specialisti rimanga indispensabile per garantire interpretazioni più complesse o per conciliare specificità normative. La sinergia uomo-macchina, in altre parole, non punta a sostituire le persone ma a far emergere una nuova mentalità manageriale  in cui la sinergia fra competenze umane e potenza analitica della tecnologia apre strade prima inesplorate. È un passaggio di mentalità: smettere di vedere i dati soltanto come record numerici e iniziare a considerarli come un “capitale cognitivo” a cui partecipano diversi attori, inclusi clienti e dipendenti, in un meccanismo di co-creazione e apprendimento continuo. Tutto ciò modifica la definizione stessa di collaborazione tra reparti. Se un tempo la funzione IT era relegata a compiti di manutenzione, ora diventa un centro di competenze che si ibrida con il marketing, le risorse umane e la produzione. Le piattaforme digitali rappresentano l’architrave su cui scorre la comunicazione e si condivide la conoscenza, mentre i manager hanno il compito di orchestrare risorse fisiche, digitali e umane in modo coerente. Questa trasformazione richiede tempo, investimenti e un impegno diffuso nel riconsiderare ruoli e responsabilità: dal capo reparto che decide come integrare un robot nella catena di montaggio fino all’analista che apprende a utilizzare strumenti avanzati di AI per identificare opportunità di mercato. In quest’ottica, le decisioni non si basano più soltanto su intuizioni o esperienze pregresse, ma su un continuo dialogo con i dati, su test e simulazioni virtuali e su prototipazioni rapide. Il passaggio a una “ mentalità digitale ” rafforza la sinergia uomo-macchina, senza tradire le conoscenze consolidate, ma prendendo atto che la complessità dei mercati odierni richiede modelli più adattivi e una più profonda contaminazione tra le dimensioni umane e quelle tecnologiche. Anche la formazione interna vive una profonda metamorfosi. Secondo le analisi contenute nel documento, molte imprese stanno adottando programmi di “digital academy”, in cui si formano competenze specifiche sull’uso di dati, algoritmi di machine learning, strumenti di collaborazione virtuale e metodologie di design thinking. Questi percorsi favoriscono la creazione di un linguaggio condiviso tra i reparti, evitando che l’innovazione digitale rimanga confinata a poche aree avanzate, e promuovono un’abitudine all’apprendimento continuo, indispensabile per mantenere la competitività. Il principio della collaborazione tra uomo e tecnologia, quindi, coinvolge l’intera organizzazione: si sviluppano prodotti grazie al supporto dell’intelligenza artificiale generativa, si analizzano scenari di mercato attraverso simulazioni al computer, si definiscono strategie di lead generation basate su algoritmi predittivi e, allo stesso tempo, si rafforzano le relazioni con i clienti e le capacità creative dei team. Le imprese più evolute, inoltre, non considerano l’innovazione come un elemento isolato, ma come un aspetto integrante della cultura aziendale, in cui il potenziale del digitale si integra armoniosamente con i valori e gli obiettivi strategici. Sinergia tecnologica nei servizi: robot, biometria ed efficienza Una sezione rilevante di “The Year in Tech 2025” esplora la crescente adozione di robot in ambito customer service e l’impiego di tecnologie di biometria come chiave per ottimizzare le interazioni con i clienti. L’osservazione di vari casi, dalle catene di hotel con receptionist robot alle compagnie aeree che sperimentano il check-in con riconoscimento facciale, evidenzia come la tecnologia possa ridurre costi e migliorare l’esperienza, a patto di preservare la fiducia. Il documento riporta che in Cina, per esempio, il mercato dei servizi robotici ha registrato un incremento significativo, grazie alla facilità con cui determinati compiti ripetitivi o rischiosi possono essere gestiti da macchine. Tuttavia, un punto critico riguarda la percezione di tali robot: se sono troppo antropomorfi, rischiano di suscitare inquietudine; se sono troppo distanti e freddi, non producono quell’effetto di empatia e attenzione al cliente che invece è essenziale nella customer experience. Le aziende sono chiamate a calibrare il livello di automazione, mantenendo un presidio umano dove la relazione, l’ascolto o la personalizzazione richiedono sensibilità specifiche. Lo stesso vale per la biometria: riconoscere un cliente dal volto, dall’impronta digitale o dalla voce rende più agevole l’accesso ai servizi, accelera pagamenti e procedure di sicurezza, ma solleva interrogativi sulla privacy e sulla sicurezza dei dati. “The Year in Tech 2025” segnala inoltre come in più Paesi occidentali le normative sulla protezione dei dati impongano un utilizzo cauto di queste tecniche, con la necessità di implementare robuste misure di crittografia e protocolli di audit. Se da un lato la biometria può aumentare la sicurezza, dall’altro il furto di dati biometrici risulta particolarmente delicato, poiché tali dati non sono ripristinabili o modificabili come una password. Emerge quindi l’esigenza di un approccio responsabile: non basta sfruttare l’attrattiva dell’innovazione, occorre definire piani di gestione del rischio, protocolli di emergenza e politiche di trasparenza sul trattamento dei dati. A livello strategico, l’applicazione della biometria non si limita al check-in in hotel o alla sicurezza di uno smartphone. Nuovi scenari includono la personalizzazione dell’assistenza medica, con lettori biometrici che monitorano costantemente i parametri vitali e li trasmettono in tempo reale a una piattaforma di AI diagnostica, oppure l’utilizzo di tecniche di riconoscimento facciale per calibrare l’esperienza di acquisto nel retail, suggerendo prodotti in base alle emozioni captate sul volto del cliente. Queste forme di iper-personalizzazione possono però risultare intrusive se il cliente non è adeguatamente informato e se manca un consenso esplicito. La percezione del cliente cambia rapidamente se la tecnologia viene vissuta come un invadente “grande fratello” piuttosto che un comodo supporto. Ecco perché le imprese che decidono di adottare robot e biometria devono puntare su protocolli trasparenti e sull’educazione dell’utente, spiegando come i dati vengono raccolti, conservati e utilizzati, e quali vantaggi ne derivano in termini di velocità, sicurezza e qualità del servizio. “The Year in Tech 2025” riporta anche numeri significativi: negli Stati Uniti, i tentativi di frode online sono cresciuti di oltre il 20% nell’ultimo anno, e la biometria risulta uno strumento efficace per abbattere tale fenomeno. In ambito bancario e finanziario, diverse istituzioni hanno già introdotto app di mobile banking basate sul riconoscimento facciale o vocale, con conseguente riduzione delle violazioni di account e delle truffe legate all’uso improprio di credenziali. Tuttavia, la fiducia del pubblico va coltivata: un errore di lettura o un falso positivo possono causare disagi all’utente, minandone la propensione a utilizzare i servizi biometrici. Il livello di accuratezza raggiunge valori molto alti (oltre il 99% in alcuni sistemi avanzati di riconoscimento del volto), ma resta la possibilità di eccezioni e l’evenienza di dover gestire situazioni impreviste. Alcuni hotel hanno scoperto che, se il software di riconoscimento facciale non riconosce il cliente in certe condizioni di luce scarsa, l’esperienza diventa peggiore di quella tradizionale, generando insoddisfazione e lamentele. La presenza dei robot nelle attività di servizio, in parallelo, solleva riflessioni sull’impatto sui lavoratori umani. L’uso di chioschi self-service o di macchine umanoidi che consegnano pacchi e cibo riduce la necessità di alcune mansioni, ma crea nuovi bisogni di formazione per la manutenzione e la gestione dei sistemi. In “The Year in Tech 2025” si menzionano realtà in cui i dipendenti umani assumono il ruolo di “ambasciatori tecnologici”, spiegando ai clienti come interagire con il robot o con il sistema biometrico, e intervenendo in caso di malfunzionamenti o richiesta di assistenza specifica. Questo ci ricorda che l’efficienza e la riduzione dei costi non possono essere gli unici parametri di valutazione: anche la percezione di qualità, l’accettazione sociale e il senso di comfort dei clienti entrano in gioco, rendendo l’implementazione di robot e biometria un percorso progressivo e dinamico. Si va verso una prossimità uomo-macchina che deve risultare equilibrata, priva di eccessi di “iper-tecnologizzazione” e rispettosa dei valori umani, pena il fallimento dell’iniziativa e la perdita di fidelizzazione. La posta in gioco per le aziende è alta: la capacità di usare soluzioni avanzate per differenziarsi, offrendo un servizio veloce e personalizzato, ma senza invadere la sfera privata o sostituire del tutto la componente relazionale tipica dei servizi a elevato contatto con la clientela. Generative AI e sinergia Uomo-Macchina: nuovi paradigmi di lavoro Le soluzioni di generative AI stanno ridefinendo il concetto di produttività cognitiva. Applicazioni che erano inimmaginabili qualche anno fa oggi vengono considerate possibili, come l’elaborazione di contratti legali in tempo reale, l’analisi di immagini mediche per suggerire diagnosi o la creazione di contenuti testuali e multimediali personalizzati per ciascun consumatore. Tutto ciò incide sulla struttura dei modelli organizzativi e sui profili professionali. Da un lato, si affaccia l’idea di una progressiva automazione di compiti logici e creativi, dall’altro emerge una crescente domanda di competenze volte a progettare, validare e mantenere i sistemi di intelligenza artificiale. La generative AI non si limita a replicare pattern esistenti: i suoi algoritmi sono in grado di creare combinazioni nuove, generando output che simulano l’inventiva umana. Nel mondo della finanza, ad esempio, alcune banche stanno sperimentando soluzioni di generative AI per produrre report personalizzati di consulenza sugli investimenti in base al profilo di rischio e agli obiettivi dichiarati dal cliente, riducendo i tempi di redazione da giorni a poche ore. Nel settore dell’istruzione, piattaforme che utilizzano modelli di generative AI progettano piani di studio tarati sullo stile di apprendimento di ciascun studente, suggerendo esercizi mirati. Tuttavia, spingendosi verso questi orizzonti emergono questioni di responsabilità e qualità: un output generato dalla macchina e non adeguatamente verificato potrebbe contenere informazioni errate o distorte, con effetti potenzialmente gravi se applicato in ambiti critici come la sanità o la consulenza giuridica. Da qui la necessità di introdurre regole di validazione, di coinvolgere figure umane con esperienza nella revisione dei risultati e di prevedere meccanismi di accountability in caso di errori macroscopici. “The Year in Tech 2025” sottolinea come la generative AI stia anche modificando il concetto di formazione e apprendimento continuo. Non si tratta soltanto di acquisire competenze tecniche nell’uso di algoritmi: è fondamentale imparare a formulare le domande giuste, a interpretare e rifinire i risultati generati, a riconoscere eventuali bias. Nell’esempio di un call center evoluto, citato nel testo, i neoassunti apprendono velocemente grazie al supporto di un sistema di AI generativa che fornisce suggerimenti in tempo reale durante la conversazione con il cliente e successivamente offre un report di feedback dettagliato su come migliorare la prossima volta. In questo modo, anche chi ha poca esperienza può raggiungere prestazioni di buon livello in tempi ridotti. L’accelerazione del ciclo di apprendimento diventa un fattore di vantaggio competitivo per le aziende, ma contemporaneamente impone un cambiamento culturale: il lavoratore è indotto a sperimentare e a adattare costantemente il proprio approccio, mentre i manager devono incoraggiare l’errore costruttivo e garantire risorse e spazi per la formazione continua. Da un punto di vista strategico, la generative AI abilita nuovi modelli di business, in cui la personalizzazione di massa o la creazione di varianti di prodotto diventano economicamente sostenibili. Pensiamo a un brand di cosmetici che genera proposte di packaging su misura per ciascun segmento di clientela, o a una casa automobilistica che produce anteprime di design basate sulle preferenze del singolo acquirente. Queste possibilità, descritte nelle ricerche, offrono un assaggio di come le aziende possano spingersi oltre i confini tradizionali della produttività. Ma per sfruttare davvero tali potenzialità, occorre ridefinire le filiere operative e comporre squadre di professionisti in grado di comunicare con l’AI in modo efficace. In alcuni casi, nascono figure come il “prompt engineer”, specialista nel formulare istruzioni ottimali per il sistema generativo, in modo da ottenere output coerenti e di qualità. Nascono anche tensioni sindacali e questioni di etica del lavoro, perché si teme che compiti intellettuali possano essere ridotti a mero controllo o rifinitura di quanto prodotto dalla macchina. Qui la leadership ha l’onere di spiegare come l’AI non stia erodendo la componente umana del lavoro, ma ne stia amplificando la portata, liberando tempo per attività di maggior valore. Naturalmente, non mancano le sfide legate alla proprietà intellettuale. Se una generative AI utilizza dati o contenuti di terzi per apprendere, chi detiene il diritto d’autore del risultato finale? E come si stabilisce la responsabilità in caso di plagio? “The Year in Tech 2025” suggerisce che molte di queste questioni siano ancora aperte e che nei prossimi anni imprese, governi e organizzazioni internazionali dovranno convergere verso linee guida più precise. Nel frattempo, la raccomandazione è di agire con pragmatismo: definire protocolli interni, formare i dipendenti sui temi di compliance e monitorare costantemente gli sviluppi giuridici e tecnologici per anticipare i rischi. La generative AI offre opportunità straordinarie di ampliamento delle capacità cognitive, ma per evitare contraccolpi negativi è indispensabile mantenere un presidio umano sul processo di creazione e sulle decisioni finali, senza dimenticare l’attenzione alla diversità dei dati utilizzati per addestrare i modelli, così da prevenire effetti discriminatori. Sinergia di sistemi: L’ecosistema dei veicoli elettrici in Cina Un capitolo del documento è dedicato all’analisi del mercato dei veicoli elettrici (EV) in Cina, portando l’attenzione su come il Paese sia riuscito ad acquisire una quota pari a quasi il 60% delle vendite globali di auto elettriche, secondo i dati citati. Tale risultato è frutto di una strategia pluriennale che coinvolge incentivi statali, sperimentazioni in settori affini (dai bus elettrici alle moto), partnership con imprese del settore tech e forti investimenti nelle infrastrutture di ricarica. Viene evidenziato che più della metà dei veicoli elettrici presenti sulle strade globali si trova in Cina, e alcune aziende come BYD hanno superato i numeri di Tesla nel quarto trimestre del 2023. Non è soltanto una questione di produzione a basso costo, ma di integrazione verticale e focus sulla filiera delle batterie, considerata il vero cuore tecnologico dell’EV. Aziende cinesi controllano una quota rilevante dell’estrazione di terre rare e della produzione di componenti chiave, rendendo più fluida la catena di fornitura. Questo esempio rivela l’importanza di creare un ecosistema integrato, dove il know-how si sviluppa nelle aree limitrofe per poi confluire nella produzione di massa. Nel documento si cita come BYD e Geely abbiano iniziato a sperimentare nell’ambito degli autobus elettrici e delle motociclette, imparando gradualmente a progettare e produrre batterie sempre più performanti, finché non hanno deciso di trasferire tali competenze nella realizzazione di veicoli commerciali e consumer. In parallelo, la collaborazione con player tecnologici come Baidu ha permesso di accelerare lo sviluppo di software di guida assistita e di servizi cloud per la gestione dei dati di bordo. Il successo cinese si basa anche su normative e sussidi che hanno sostenuto inizialmente i consumatori nell’acquisto di veicoli elettrici e garantito un primo mercato domestico solido, innescando un circolo virtuoso di economia di scala. Una volta consolidato il mercato interno, le aziende cinesi hanno acquisito la massa critica necessaria per aggredire i mercati esteri, offrendo prodotti competitivi anche in termini di prezzo. Nel contesto globale, “The Year in Tech 2025” mette a confronto l’approccio cinese con quello di altri Paesi. Negli Stati Uniti, l’adozione degli EV è cresciuta ma la frammentazione delle infrastrutture di ricarica e l’assenza di strategie federali unificate rallentano il ritmo. In Europa, le normative ambientali ambiziose spingono l’evoluzione verso la mobilità elettrica, ma il mercato resta disomogeneo fra Paesi con infrastrutture avanzate e altri in ritardo. Il documento ricorda la necessità di pensare all’elettrificazione dei trasporti come a un fenomeno sistemico: installare colonnine di ricarica, gestire la stabilità delle reti elettriche, valutare l’impatto ambientale e sociale dell’estrazione di materie prime, predisporre servizi post-vendita adeguati e avviare politiche di riciclo e smaltimento delle batterie. La transizione verso l’auto elettrica è dunque un percorso complesso, in cui la leadership cinese mette in luce l’importanza di una visione di lungo periodo e di sinergie tra industria, Stato e mondo accademico. Anche la questione della responsabilità ambientale viene discussa. Se è vero che le auto elettriche non emettono CO₂ allo scarico, è altrettanto vero che la produzione delle batterie e la generazione di elettricità possono avere un’impronta di carbonio rilevante, specialmente se l’elettricità deriva ancora in buona parte da fonti fossili. Per massimizzare i benefici, il documento suggerisce di adottare un approccio globale: investire in fonti rinnovabili, promuovere la ricerca su materiali per batterie più sostenibili, ridurre il peso dei veicoli per minimizzare il consumo energetico e costruire una filiera dell’usato che ne prolunghi la vita utile. In Cina si sono viste strategie di scambio delle batterie, con stazioni automatiche che sostituiscono il pacco esausto con uno carico in pochi minuti, riducendo i tempi di fermo e aprendo un mercato di condivisione delle batterie stesse. Questo genere di innovazioni, secondo “The Year in Tech 2025,” indica che l’EV non è soltanto un singolo prodotto, ma un pezzo di un puzzle più ampio di soluzioni connesse che coinvolgono i settori energetico, digitale e manifatturiero. Si intravede pure l’aspetto geoeconomico: il dominio cinese in alcune parti della catena di valore può creare dipendenze per le aziende occidentali, come già avvenuto nel settore dei semiconduttori. Le tensioni geopolitiche possono spingere i governi a localizzare la produzione di batterie e di materiali critici, con effetti significativi sui costi e sulle tempistiche di diffusione dell’EV. Tuttavia, “The Year in Tech 2025” ribadisce che la direzione verso l’elettrificazione, l’integrazione di tecnologie digitali e la creazione di un ecosistema di servizi smart appare ormai irreversibile. Le aziende che desiderano prendere parte a questa trasformazione devono prepararsi a collaborazioni incrociate, a investimenti in ricerca e a strategie di mercato flessibili. La lezione cinese dimostra che l’accumulo di competenze, l’alleanza con attori chiave e la visione sistemica rappresentano un vantaggio cruciale. Per competere su scala mondiale, le imprese non possono trascurare questi aspetti e devono attrezzarsi per una concorrenza sempre più basata su dati, software e sinergie intersettoriali. Governance e innovazione: la responsabilità nella Sinergia Uomo-Macchina Un ultimo aspetto trattato con cura in “The Year in Tech 2025” riguarda il dilemma tra libertà d’azione per le imprese innovative e tutela del bene comune, un tema che diventa urgente con la crescita di piattaforme tecnologiche sempre più potenti. L’esempio di OpenAI e delle recenti discussioni su AI generativa mette in luce come i modelli di governance classici siano sotto pressione. Se i tradizionali consigli di amministrazione tendono a massimizzare gli interessi degli azionisti, come si gestisce un possibile rischio sistemico connesso a un AI potenzialmente capace di operare scelte al di fuori del controllo umano o di manipolare informazioni su vasta scala? Le sfide non sono meramente teoriche: si pensi alle controversie antitrust intorno ad Amazon, accusata di influenzare i prezzi e di favorire i propri prodotti a scapito dei venditori terzi, o al caso di grandi aziende tecnologiche che gestiscono una mole di dati tale da compromettere la libera concorrenza. Il documento suggerisce che le imprese che vogliono mostrare impegno verso la responsabilità sociale e la sostenibilità dovrebbero superare il semplice modello di governance orientato agli utili e dotarsi di strutture più sperimentali, come i “public benefit corporation” o i consigli di amministrazione con membri indipendenti specializzati in etica e impatti sociali. L’idea di vincolare l’operato delle aziende a una missione più ampia del puro profitto sta guadagnando terreno, specialmente in settori dove l’AI ha potenziali effetti su occupazione e privacy. Tuttavia, resistenze culturali e spinte competitive non sempre rendono semplice questa transizione. La vera sfida è coniugare il desiderio di investitori e manager di estrarre valore dalle nuove tecnologie con la consapevolezza che un’innovazione priva di supervisione rischia di sfociare in conseguenze imprevedibili o danni reputazionali. Nell’ambito legislativo, “The Year in Tech 2025” menziona gli sforzi di diverse autorità, come la Commissione Europea con il Regolamento sull’AI o l’aggiornamento della normativa sulla tutela dei dati, per definire standard e responsabilità in materia di algoritmi, ma l’evoluzione tecnologica procede a un ritmo tale da superare frequentemente la capacità di intervento del legislatore. Da qui l’esigenza di creare organismi di autorità specializzati e di sviluppare una cultura della compliance fin dalle prime fasi di ideazione dei prodotti digitali. Se un’azienda progetta una piattaforma di e-commerce automatizzata, deve considerare non solo i parametri di user experience e redditività, ma anche i possibili rischi di manipolazione dei prezzi, di esclusione di alcuni fornitori o di discriminazioni algoritmiche sui consumatori più vulnerabili. Una governance proattiva indica la necessità di effettuare audit periodici sugli algoritmi, mantenere un “umano nel loop” per le decisioni più critiche e comunicare in modo trasparente criteri e finalità del sistema. Il documento riporta anche i dibattiti in corso negli Stati Uniti riguardo all’applicazione di normative antitrust nei confronti delle grandi piattaforme, come nel caso Amazon. Alcuni sostengono che la riduzione di potere di mercato di tali colossi può favorire l’innovazione e la concorrenza, mentre altri temono che interventi drastici finiscano per danneggiare la capacità di sviluppo tecnologico. Il documento rivela che lo scenario più probabile preveda forme di “compliance comportamentale” in cui queste aziende subiscano vincoli progressivi nell’uso dei dati e nella pratica di self-preferencing, senza però essere smembrate. Una simile soluzione punta a preservare i benefici di scala e la facilità d’uso offerte dalle piattaforme, limitando gli abusi più evidenti. Il tema chiave è l’equilibrio tra l’interesse collettivo e la spinta imprenditoriale: la società si attende che le imprese non agiscano in maniera irresponsabile, mentre i manager devono comunque rispondere alle aspettative degli azionisti. La governance diventa quindi un punto nodale, legato anche alla qualità del management e alla capacità di cogliere le opportunità del digitale senza perdere di vista gli impatti a lungo termine sull’occupazione, sull’ambiente e sul tessuto sociale. Conclusioni La lettura incrociata dei diversi temi di “The Year in Tech 2025” — dall’impiego di robot per l’automazione dei servizi alla biometria per proteggere e personalizzare l’esperienza dei clienti, dalla generative AI come fattore di crescita cognitiva fino alla corsa cinese ai veicoli elettrici e al confronto con le sfide di governance — mette in luce una traiettoria già evidente: le tecnologie digitali non sono più un semplice strumento per migliorare efficienza e costi, ma veri e propri alleati strategici per immaginare nuovi modelli di business e per ridefinire i mercati. Le implicazioni per le imprese sono molteplici: servirà investire in cultura interna e formazione, rivedere processi e ruoli alla luce delle potenzialità di intelligenza artificiale e robotica, ripensare la catena del valore in chiave di collaborazione con partner e fornitori e, soprattutto, gestire in modo responsabile l’enorme potere che deriva dal controllo di dati e algoritmi. I risultati cui si è giunti finora mostrano un quadro fluido, in cui la competizione non si gioca più solo sui prodotti ma sul sistema di competenze e relazioni che ogni impresa riesce ad attivare. Guardando alle altre tecnologie similari, come i sistemi di analytics avanzati o l’internet of things, si conferma l’idea che la capacità di integrare piattaforme, dati, attori diversi e normative in evoluzione rappresenti la chiave di volta per generare valore a lungo termine. Un’azienda che adotta la generative AI dovrà confrontarsi con l’implementazione pratica, l’accettazione organizzativa e i possibili rischi reputazionali: questo richiede visione strategica ma anche flessibilità e disposizione a sperimentare. Infine, la riflessione sugli impatti per la società e per le imprese suggerisce di non cedere a toni eccessivamente entusiasti: l’innovazione tecnologica va accolta con spirito critico, analizzando a fondo benefici, limiti e conseguenze. Si intravedono minacce come la concentrazione del potere di mercato, la perdita di controllo su dati sensibili o la sostituzione affrettata di competenze umane. Eppure, si profilano anche opportunità di sviluppo economico, nuove professioni, maggiore equità d’accesso ai servizi e soluzioni sostenibili. Per dirigenti e imprenditori, la sfida è immaginare uno scenario in cui umanità e tecnologia collaborino e si potenzino a vicenda, rispettando valori etici e norme condivise. In questo quadro, la posta in gioco è l’evoluzione complessiva del modello di impresa, orientato non più soltanto al profitto immediato ma all’equilibrio fra progresso e responsabilità, fra mercato globale e bisogni sociali, fra competitività e tutela delle generazioni future. È un percorso che richiede visione, leadership e un costante affinamento di strategie e competenze per navigare un futuro dai contorni ancora in parte indefiniti. Podcast: https://creators.spotify.com/pod/show/andrea-viliotti/episodes/Sinergia-Uomo-Macchina-le-prospettive-tecnologiche-di-The-Year-in-Tech-2025-e2sqo50 Fonte: https://store.hbr.org/product/the-year-in-tech-2025-the-insights-you-need-from-harvard-business-review/10741

bottom of page