top of page

AI Act e imprese: impatti normativi e opportunità per le aziende

Immagine del redattore: Andrea ViliottiAndrea Viliotti

“The William Fry AI Guide” di Leo Moore, Rachel Hayes e David Cullen (William Fry) analizza l’AI Act e altre questioni legali connesse all’intelligenza artificiale. La ricerca approfondisce gli obblighi per chi sviluppa o adotta soluzioni di AI, focalizzandosi sulla conformità normativa e sugli aspetti operativi. Offre riflessioni utili a imprenditori e dirigenti aziendali che vogliono assicurare modelli di business affidabili, ridurre i rischi di sanzioni e cogliere nuove opportunità economiche, nel rispetto di principi etici e legali.

AI Act e imprese
AI Act e imprese: impatti normativi e opportunità per le aziende

AI Act: un nuovo quadro normativo essenziale per le imprese

L’AI Act, cruciale per le imprese, è entrato in vigore nell’Unione Europea il 1° agosto 2024, dopo la pubblicazione nella Gazzetta Ufficiale dell’UE il 12 luglio 2024, e costituisce un momento significativo per tutte le realtà che sviluppano o impiegano sistemi di intelligenza artificiale. L’approccio seguito dal legislatore europeo prevede una regolamentazione basata sul rischio, dove i sistemi ad alto impatto (definiti “high-risk”) sono soggetti a requisiti rigidi, mentre quelli considerati inaccettabili (unacceptable risk) non possono essere immessi sul mercato. La logica di fondo poggia sul principio per cui maggiore è la potenziale interferenza con diritti fondamentali e sicurezza, più stringenti sono le regole e le responsabilità in capo a fornitori e utilizzatori.


Dal punto di vista di imprenditori e dirigenti, questa cornice regolatoria può essere interpretata come uno stimolo a migliorare i propri processi interni. Concentrarsi sulla conformità significa presidiare la qualità dei dati utilizzati, evitare violazioni in materia di tutela delle persone e assicurare che il sistema AI abbia un rendimento affidabile. Nel documento “The William Fry AI Guide” emerge che, secondo le nuove regole, i fornitori di sistemi considerati ad alto rischio sono chiamati a effettuare valutazioni e a redigere documenti tecnici dettagliati, oltre a garantire la tracciabilità dei processi di sviluppo. Il mancato rispetto di tali obblighi può generare sanzioni molto elevate: fino a 35 milioni di euro o il 7% del fatturato annuo, se si violano le norme sui sistemi proibiti. Per gli altri inadempimenti, le multe possono raggiungere il 3% del fatturato annuo o 15 milioni di euro, a seconda di quale importo risulti superiore.


Questa attenzione alla valutazione del rischio e ai requisiti di trasparenza interessa anche chi adotta sistemi AI sul lato aziendale. Ogni impresa che introduce una piattaforma AI nella propria organizzazione deve innanzitutto determinare se essa rientra fra i sistemi proibiti o classificati come high-risk. Nel caso in cui si tratti di soluzioni considerate a rischio elevato, occorre monitorarne il funzionamento e predisporre procedure per la segnalazione di incidenti o anomalie alle autorità competenti. D’altro canto, anche le soluzioni a minore rischio non sfuggono del tutto alla normativa, poiché i principi di correttezza, protezione dei dati e sicurezza informatica agiscono trasversalmente su tutto il panorama applicativo.


Per le imprese che operano a livello globale, la portata extraterritoriale dell’AI Act costituisce un ulteriore richiamo alla diligenza. Se un’azienda al di fuori dell’UE fornisce servizi AI i cui output vengono utilizzati all’interno dell’Unione, deve comunque rispettare la normativa. Questa circostanza spinge le aziende a valutare con maggiore cura il proprio ecosistema di fornitori e le clausole contrattuali per affidarsi a soluzioni veramente conformi. Lo sforzo iniziale di adeguamento, secondo la guida di William Fry, potrà tradursi in un vantaggio competitivo, poiché la trasparenza e la sicurezza ispirano fiducia nei clienti e consolidano la reputazione aziendale.


Sistemi proibiti e High-Risk: conformità e opportunità per le aziende

La ricerca sottolinea come la normativa distingua fra sistemi proibiti, sistemi ad alto rischio e soluzioni generiche. I sistemi proibiti comprendono, per esempio, quelli che impiegano tecniche subdole di manipolazione o sfruttano vulnerabilità specifiche di certe categorie di persone (minori o soggetti fragili). Rientra nei divieti anche l’uso di AI per social scoring discriminatorio, oltre a pratiche di riconoscimento facciale indiscriminato. Per i sistemi di questo tipo, le imprese non possono immetterli sul mercato europeo e, se lo fanno, rischiano di doverli ritirare con pesanti conseguenze finanziarie.


Al fianco di questo divieto assoluto, la normativa impone un regime di supervisione particolarmente stringente per i sistemi ad alto rischio, che spaziano dalla valutazione dei candidati in ambito lavorativo, ai dispositivi medicali, fino a sistemi utilizzati nella gestione di infrastrutture critiche. Adottare tecnologie AI in tali settori implica l’obbligo di condurre conformità preventiva, con procedure di qualità e un robusto sistema di governance sui dati. Il documento di William Fry evidenzia, ad esempio, come i fornitori debbano tenere aggiornati registri interni di funzionamento del sistema, favorendo meccanismi di audit sia interni sia da parte di organismi notificati. Ciò include la capacità di registrare eventi (logging) e la necessità di analizzare in modo continuo il grado di accuratezza e robustezza del modello.


Per i dirigenti aziendali, saper distinguere sistemi AI proibiti da quelli ad alto rischio o a rischio minore è strategico. Se un’azienda decide di impiegare un modello per analisi predittive in ambito marketing, potrebbe trovarsi esente dai vincoli più pesanti, ma non dalle responsabilità collegate alla protezione dei dati dei consumatori. Se, invece, lo stesso modello è utilizzato in ambito sanitario per elaborare diagnosi o supportare scelte terapeutiche, si entra in un campo regolato come high-risk. L’impegno a strutturare procedure di risk management solide e a tenere informato il personale sui criteri di utilizzo sicuro della tecnologia agevola la prevenzione di sanzioni e tutela il brand.


La guida di William Fry consiglia di istituire team interni o di ricorrere a consulenze specialistiche per condurre analisi dedicate alla classificazione del rischio. Così facendo, l’impresa può documentare la propria due diligence e dimostrare di aver implementato correttamente i passaggi previsti dalla legge. Un elemento di rilievo è la trasparenza verso gli interessati: se il sistema AI rientrasse fra quelli ad alto rischio, i consumatori dovrebbero essere informati e, in alcuni casi, avere la possibilità di chiedere chiarimenti sui processi automatizzati che li riguardano. Investire in formazione e sensibilizzazione interna permette di gestire al meglio persino eventuali incidenti o anomalie, grazie alla definizione di piani di emergenza e canali di segnalazione rapida verso le autorità.


In definitiva, la corretta segmentazione tra sistemi vietati e sistemi ad alto rischio non costituisce soltanto un requisito legale, ma diviene uno strumento per selezionare approcci di AI sostenibili. L’organizzazione che si pone come obiettivo una governance responsabile e sicura potrà integrare l’AI in maniera coerente con i valori di affidabilità e nel rispetto delle normative che promuovono l’innovazione responsabile.


Modelli generali di AI: sfide nella gestione dei dati aziendali

Un aspetto centrale emerso nel documento è la regolamentazione di modelli di intelligenza artificiale con uso generale, ossia sistemi che possono essere integrati in molteplici applicazioni. Questi modelli, se dotati di alte capacità di calcolo e destinati a un uso sistemico, sono soggetti a specifiche responsabilità nella documentazione, nell’indicare i limiti del modello e nel controllare le sue evoluzioni. Viene sottolineato che, se un modello generico si trasforma in uno strumento high-risk a causa di modifiche apportate da chi lo distribuisce o utilizza, occorre rivalutare i vincoli normativi applicabili.


Per le aziende che impiegano tali modelli, uno dei passaggi fondamentali è la disponibilità di una documentazione accurata, specie in riferimento al dataset di addestramento. Un uso disinvolto di dati reperiti sul web potrebbe comportare violazioni di diritti d’autore o problemi di privacy, se i dati contengono informazioni personali. Secondo la guida, chi fornisce modelli di AI generici dovrebbe fornire agli utilizzatori indicazioni trasparenti sulla provenienza dei dati, sulla liceità del loro impiego e sull’eventuale applicazione del GDPR. Questo vale tanto più quando l’azienda cliente intenda personalizzare il modello per scopi specifici che lo rendano potenzialmente ad alto rischio.


Un ulteriore spunto riguarda la cooperazione tra provider del modello generico e utilizzatori finali. Nel momento in cui un’impresa italiana acquista un modello di machine learning sviluppato da un’entità extra-UE, può essere chiamata a farsi garante della conformità, se i risultati di quello strumento vengono adottati su scala europea. L’AI Act prevede, inoltre, che i dati di input siano monitorati e gestiti con attenzione, per evitare che l’algoritmo venga esposto a distorsioni o subisca attacchi informatici (come data poisoning). Sul piano pratico, le imprese possono dotarsi di procedure di convalida interna e test periodici, oltre a definire contratti che obblighino i fornitori a rispettare standard di sicurezza e protocolli antimanomissione.


Il tema dei dati resta nevralgico anche sotto il profilo delle sanzioni. La violazione delle norme che impongono trasparenza e tracciabilità di un modello AI può costare caro, e in molti casi gli importi delle multe superano le sanzioni previste dal Regolamento generale sulla protezione dei dati (GDPR). Da ciò discende l’esigenza di un’alleanza tra uffici legali, dipartimenti IT e management. Vanno definiti contratti e politiche aziendali che preservino la titolarità e la sicurezza dei dati, tenendo presente che lo stesso AI Act richiede di indicare eventuali contenuti sintetici generati, in modo che l’utente finale sappia quando ha di fronte un output artificiale.


Formazione AI: un asset strategico per le aziende

La diffusione sempre più ampia di strumenti di intelligenza artificiale ha dato vita a un nuovo obbligo legale, l’AI literacy, che nel documento viene messo in luce come uno dei punti meno discussi ma tra i più significativi. L’AI Act prevede che le organizzazioni si impegnino a garantire un adeguato livello di consapevolezza e competenza in materia di AI fra i propri dipendenti e collaboratori, soprattutto se questi ultimi interagiscono con sistemi considerati a rischio. Per un imprenditore, questa non è soltanto una formalità, bensì un investimento in cultura tecnologica che può migliorare l’efficacia e la sicurezza operativa.


La guida sottolinea che i programmi formativi dovrebbero coprire vari aspetti: comprensione dei principi di funzionamento dei modelli di apprendimento automatico, riconoscimento dei potenziali errori o distorsioni e padronanza delle procedure di segnalazione di eventuali malfunzionamenti. Se un manager non è in grado di leggere i report di audit su un sistema ad alto rischio, o se un dipendente di un ufficio HR non comprende come si generano determinate valutazioni automatiche in fase di recruiting, l’azienda rischia di trovarsi esposta legalmente e reputazionalmente. Da qui la necessità di corsi interni, workshop e documentazione chiara.


Si tratta di un cambio di mentalità che avvicina l’AI al concetto di governance diffusa. Ogni persona coinvolta deve sapere come comportarsi se si verifica un incidente o se si notano comportamenti anomali dell’algoritmo. Diventa rilevante anche sensibilizzare i vari team sui temi della protezione dei dati: la normativa esige di adottare misure tecniche e organizzative adeguate, e la sensibilità del personale nel segnalare rischi e violazioni contribuisce a mitigare eventuali sanzioni. La formazione, inoltre, deve essere continua, perché gli sviluppi tecnologici sono rapidi e i requisiti di legge in evoluzione possono trasformarsi in obblighi nuovi, come l’adozione di determinati protocolli di sicurezza informatica.


Per le imprese che vogliano dare un taglio strategico a questo percorso, l’alfabetizzazione interna in materia di AI diventa anche uno strumento di competitività: personale formato utilizza le soluzioni in modo più proficuo, e la cultura della trasparenza favorisce la costruzione di nuovi prodotti e servizi basati su intelligenza artificiale rispettosa dei diritti delle persone. Ciò può tradursi in un rafforzamento delle relazioni con i clienti, rassicurati dalle competenze specifiche e dall’attenzione alla conformità. Così, una richiesta normativa apparentemente solo formale diventa occasione per evolvere il know-how aziendale e presidiare meglio il mercato.


Sandbox regolatorie e AI: innovazione e biometria sotto controllo

Un altro elemento approfondito nel documento è il ruolo degli ambienti di sperimentazione regolamentata, noti come regulatory sandboxes. Si tratta di spazi controllati dove imprese e autorità di regolamentazione collaborano per testare nuove applicazioni basate sull’intelligenza artificiale. Questi strumenti sono particolarmente preziosi per verificare che soluzioni innovative, come quelle legate alla biometria (tecnologie per il riconoscimento e l’analisi delle caratteristiche fisiche o comportamentali di una persona) o al riconoscimento delle emozioni (sistemi che analizzano espressioni facciali o toni vocali per interpretare stati emotivi), siano sicure e rispettino le normative prima di una diffusione su ampia scala.

L’AI Act prevede che entro agosto 2026 ogni Stato membro dell’Unione Europea istituisca almeno un sandbox nazionale. Questi spazi saranno progettati per agevolare la sperimentazione di tecnologie avanzate, consentendo l’elaborazione di dati reali con l’approvazione e il monitoraggio degli organismi di controllo, garantendo così un equilibrio tra innovazione e tutela dei diritti.


Nei settori biometrici, la normativa è particolarmente attenta a evitare l’uso di tecnologie in grado di dedurre o classificare caratteristiche sensibili. Alcuni sistemi sono vietati, come quelli che cercano di inferire da parametri biometrici l’orientamento politico o altri dati protetti. Altri rientrano nell’area dei sistemi high-risk, soggetti a procedure di valutazione e all’obbligo di informare chiaramente le persone interessate, soprattutto se i dati biometrici sono raccolti per finalità di identificazione o categorizzazione. L’evoluzione di questi strumenti può risultare molto vantaggiosa per le imprese, in termini di analisi dei comportamenti di consumo o di servizi personalizzati, ma va sempre calibrata con il rispetto di restrizioni chiare e con la previsione di sanzioni severe.


Anche l’emotion recognition diventa un tema caldo per i manager, perché la sua implementazione incontra limiti precisi: nelle aziende e nelle scuole è proibito utilizzare sistemi che deducono lo stato emotivo delle persone, a meno che non sussistano esigenze mediche o di sicurezza. Siamo di fronte a un passaggio normativo che riprende principi etici e li trasforma in divieti per tutelare la dignità degli individui. Se un’azienda volesse introdurre sistemi di analisi delle emozioni dei dipendenti, rischierebbe pesanti sanzioni e possibili contestazioni legali. Al contrario, in uno scenario controllato di sandbox, potrebbe essere valutata la legittimità di alcuni test se volti unicamente al miglioramento dei prodotti.


Le sandbox offrono un vantaggio duplice: da un lato garantiscono la sperimentazione in un quadro normativo flessibile, dall’altro consentono alle autorità di raccogliere dati reali per verificare l’impatto delle tecnologie e per redigere linee guida più precise. Le piccole e medie imprese hanno la possibilità di accedere a tali ambienti con priorità, ottenendo sostegno e supporto personalizzato. Chi partecipa in modo leale e trasparente, inoltre, gode di protezioni da eventuali sanzioni, purché rispetti le indicazioni del piano di sandbox concordato. È una nuova modalità di interazione tra pubblico e privato, che favorisce il progresso tecnologico senza trascurare la tutela dei diritti fondamentali.

 

Conclusioni

Il documento “The William Fry AI Guide” propone un quadro realistico e articolato su come l’AI Act inciderà sulle dinamiche imprenditoriali e di governance, offrendo esempi di conformità e suggerendo misure di adeguamento. Oltre a definire sanzioni e obblighi tecnici, la normativa sollecita un cambio di passo strategico per molte imprese: dall’adozione superficiale di algoritmi misteriosi, si passa a una pianificazione integrata che coinvolga tutti i reparti aziendali. Si incontrano soluzioni simili anche in altre realtà esterne all’UE, indice che un approccio globale alla regolamentazione dell’intelligenza artificiale sta emergendo.


La chiave per imprenditori e manager è dunque interpretare il corpus normativo in modo proattivo, ponendosi domande sui propri processi di selezione, sulle strategie di risk management e sulla formazione del personale. I sistemi generativi o predittivi possono accelerare i processi decisionali, ma vanno gestiti in modo trasparente e rispettoso dei diritti di tutti. Guardando alle tecnologie già disponibili, si nota come la necessità di sicurezza e affidabilità sia un’esigenza condivisa da imprese e consumatori in molteplici settori, dalla finanza alla sanità. Un’analisi realistica delle potenzialità e dei limiti dell’AI aiuta a ottimizzarne i vantaggi.


La prospettiva finale che emerge è quella di una disciplina ancora in definizione, che lascia spazi di interpretazione e di sperimentazione. Al contempo, la direzione è chiara: le imprese che vogliono posizionarsi in modo vincente devono saper gestire i rischi, potenziare la formazione interna e mantenere un dialogo aperto con le autorità. La flessibilità derivante dalla partecipazione a sandbox e la capacità di affrontare le sfide in modo etico e lungimirante consentiranno di coltivare fiducia nei clienti, di proteggere il proprio patrimonio di dati e di cogliere opportunità di crescita sostenibile.


Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page