di Oliviero Casale*, Rick Fernandez** e Paola Rinaldi***
1. L’emergere dell’Organizzazione Agentica
Il 2025 è l’anno in cui l’intelligenza artificiale smette di essere un semplice strumento di automazione per trasformarsi in una infrastruttura cognitiva distribuita. I documenti CEPS, da “AI at Work” (Nurski, 2024) alla “State of AI in 2025”, mostrano un mutamento netto: la produttività non cresce più per automatizzazione dei task, ma per riconfigurazione dei processi attraverso agenti autonomi capaci di interpretare obiettivi, orchestrare dati e prendere decisioni operative.
Secondo le analisi CEPS, oltre il 41 per cento delle competenze oggi richieste nelle professioni europee è soggetto a riconfigurazione profonda entro il 2030 a causa degli agenti AI. Il documento “Shaping Tomorrow’s Workforce” (Alcidi, 2024) evidenzia che tre dinamiche convergono:
- accelerazione del mismatch fra skill disponibili e skill emergenti;
- frammentazione delle catene del valore;
- crescente ibridazione tra lavoro umano e agenti intelligenti.
Nel report “The Agentic Organization” (2025), la trasformazione è descritta come il passaggio da organizzazioni in cui la tecnologia assiste il lavoro, a organizzazioni in cui la tecnologia co-agisce e, in molti casi, coordina interi processi.
In questa direzione, le analisi del McKinsey Global Institute contenute in “Agents, robots, and us. Skill partnerships in the age of AI” mostrano che più del cinquanta per cento delle ore lavorate nelle economie avanzate è tecnicamente automatizzabile attraverso la combinazione di agenti e robot, ma che il valore maggiore emerge quando le organizzazioni riprogettano i flussi di lavoro in una logica di partnership fra persone, agenti e sistemi fisici. Il rapporto individua sette archetipi occupazionali che combinano in misura diversa lavoro umano, agenti software e robot e mette in evidenza come la transizione non consista nella sostituzione del lavoro umano, ma nella sua riconfigurazione all’interno di processi sempre più agentici.
Il Technical Appendix del rapporto introduce inoltre uno Skill Change Index che misura l’esposizione delle competenze all’automazione entro il 2030, confermando che la maggior parte delle skill non viene eliminata, ma spostata in contesti operativi in cui gli agenti AI assumono una parte crescente delle attività ripetitive e di analisi.
È questo scenario che richiede un salto di qualità nella governance delle organizzazioni.
2. Dati di mercato e traiettorie economiche
L’adozione di agenti AI è già misurabile:
- Il report “The State of AI in 2025” prevede che entro il 2030 il mercato globale degli agenti autonomi supererà 1,2 trilioni di dollari, trainato soprattutto da manifattura avanzata, servizi finanziari e sanità.
- Il CEPS stima che il 65 per cento delle aziende europee con più di 250 dipendenti introdurrà almeno un agente AI operativo entro il 2027.
- Le simulazioni di scenario mostrano un potenziale aumento della produttività dal 18 al 26 per cento nei settori in cui gli agenti operano come livelli intermedi tra management e lavoro operativo.
- L’Europa, nel confronto globale, investe circa un quarto rispetto agli Stati Uniti nei sistemi agentici avanzati, come documentato nell’“EU Large-Scale Initiative on AI” (Renda, 2024).
A livello microeconomico, “Agents, robots, and us” stima che nello scenario di adozione intermedio circa un quarto delle ore di lavoro possa essere effettivamente automatizzato entro il 2030, generando un valore economico annuo di diversi trilioni di dollari. Il valore maggiore non deriva dai singoli casi d’uso, ma dalla riprogettazione dei workflow in cui gli agenti AI assumono la responsabilità di coordinare attività informative, suggerire decisioni e gestire eccezioni, mentre le persone concentrano il proprio contributo su creatività, giudizio e responsabilità finale.
2.1 Traiettorie occupazionali e competenze nell’organizzazione agentica
Le evidenze del McKinsey Global Institute mostrano che l’organizzazione agentica non riduce semplicemente la domanda di lavoro, ma ne sposta la struttura interna. Secondo “Agents, robots, and us”, più del settanta per cento delle competenze oggi richieste compare sia in attività automatizzabili sia in attività non automatizzabili, a conferma che il nodo critico non è la scomparsa delle skill, bensì la capacità di ricontestualizzarle in team ibridi dove persone e agenti condividono responsabilità operative. In questa prospettiva, la diffusione dell’AI generativa e degli agenti autonomi rende strategica la progettazione di percorsi di reskilling e upskilling che permettano alle organizzazioni di presidiare le aree di lavoro a maggiore intensità cognitiva, relazionale ed etica.
Questo quadro mette in luce l’urgenza di una regolazione tecnica e organizzativa, non più opzionale ma sistemica.
3. Perché la sola tecnologia non basta: serve un sistema di gestione
Le analisi CEPS concordano su un punto: senza un sistema di governance e di innovazione strutturato, le organizzazioni non riescono a sfruttare davvero il potenziale degli agenti AI.
È qui che le norme ISO diventano fondamentali.
3.1. ISO/IEC 42001:2024 – AI Management System
La ISO/IEC 42001 fornisce l’architettura per un Sistema di Gestione dell’Intelligenza Artificiale, centrato su:
- controlli organizzativi,
- tracciabilità,
- robustezza dei modelli,
- gestione del rischio,
- monitoraggio continuo.
Consente di governare agenti con livelli variabili di autonomia, come definiti in ISO/IEC 22989 (terminologia e concetti di AI) .
3.2. ISO/IEC 42005:2025 – AI Risk and Impact Assessment
La ISO/IEC 42005 estende le logiche della 42001 introducendo metodologie formali per:
- valutazione dei rischi lungo il ciclo di vita dell’agente;
- metriche sull’impatto socio-tecnico;
- allineamento con logiche di accountability (coerenti con i principi della ISO/IEC TR 24368 sulla dimensione etico-sociale dell’AI).
Insieme formano la parte “regolatoria” della governance agentica.
Questa esigenza è pienamente allineata con quanto emerge dal rapporto della European Union Agency for Fundamental Rights “Assessing High-Risk Artificial Intelligence. Fundamental Rights Risks”, che documenta come i provider e i deployer di sistemi ad alto rischio fatichino a valutare in modo sistematico gli impatti sui diritti fondamentali. Il report mette in evidenza che, in assenza di strutture di governance adeguate, la definizione di cosa sia un sistema di AI, la sua classificazione come high risk e la valutazione degli effetti su non discriminazione, accesso ai servizi, diritti sociali e garanzie procedurali vengono lasciate a pratiche frammentarie e a volte meramente formali.
4. L’innovazione come condizione strutturale: ISO 56001
4.1. La norma che permette di gestire gli agenti come iniziative di innovazione
A differenza delle norme sull’AI, la ISO 56001 non riguarda l’intelligenza artificiale in sé.
È la norma che governa il sistema di gestione dell’innovazione dell’organizzazione.
La ISO 56001 include:
- definizione del contesto e delle ambizioni di innovazione;
- leadership e cultura innovative;
- criteri di selezione;
- gestione del portafoglio;
- processi strutturati per trasformare opportunità in soluzioni;
- cicli di apprendimento e riesame.
La sua forza, per il modello agentico, è una:
permette di trattare ogni agente AI come una “iniziativa di innovazione” con un ciclo di vita governato.
Questo è pienamente coerente con la ISO 56007 – gestione di opportunità e idee e con la ISO 56003 – partnership per l’innovazione, utile quando gli agenti emergono da collaborazioni ecosistemiche.
Anche le evidenze empiriche raccolte dal McKinsey Global Institute confermano che i benefici maggiori dell’AI generativa e degli agenti autonomi emergono quando i flussi di lavoro vengono riprogettati in chiave sistemica e non quando ci si limita ad automatizzare singoli compiti. La classificazione di archetipi occupazionali proposta in “Agents, robots, and us” e la misurazione dello Skill Change Index mostrano che l’organizzazione agentica è, di fatto, una infrastruttura di portafoglio in cui il lavoro umano viene riallocato verso attività di governo, coordinamento e innovazione.
5. Dall’agente all’“iniziativa agentica”: costruire un portafoglio
5.1. Come la ISO 56001 struttura il ciclo di vita degli agenti
Usando i processi della ISO 56001, un agente IA può essere trattato come:
- opportunità (56007), inizialmente ad alta incertezza;
- concept da validare, con test, prototipi, verifiche etiche e tecniche;
- soluzione da sviluppare, integrata con 42001 e 42005 per la parte AI;
- asset operativo, inserito nella governance continua del sistema.
L’agente non è solo tecnologia: è una forma di innovazione continua.
5.2. Il portafoglio agentico
La norma richiede la creazione di un portafoglio bilanciato, che nel caso agentico comprende:
- agenti incrementali (supporto a processi esistenti);
- agenti adiacenti (nuove capacità operative);
- agenti radicali (autonomia decisionale significativa).
Questo è perfettamente coerente con le logiche di incertezza e di riduzione del rischio descritte nella ISO 56007 (front-end dell’innovazione).
6. L’integrazione di tutte le norme in un unico sistema agentico
Qui avviene la parte decisiva della trasformazione.
6.1. Il sistema integrato agentico
Le imprese possono realizzare un sistema di gestione dell’innovazione agentico ponendo al centro la ISO 56001, che fornisce il quadro organizzativo, concettuale e operativo attraverso il quale l’introduzione dell’autonomia strumentale degli agenti artificiali può essere governata in modo responsabile, tracciabile e coerente con la strategia. La ISO 56001 rappresenta il nucleo generativo del sistema agentico poiché definisce il modo in cui l’organizzazione interpreta il valore, gestisce l’incertezza, sviluppa portafogli di innovazione, struttura processi iterativi, integra apprendimento e adattamento e rende conto delle decisioni. L’impresa agentica nasce quindi come estensione naturale dell’impresa orientata all’innovazione e non come struttura separata o sostitutiva dei sistemi esistenti.

Attorno a questo asse si colloca l’insieme delle norme basate sulla Harmonized Structure che costituiscono l’infrastruttura organizzativa del sistema integrato agentico. La ISO/IEC 42001 introduce i requisiti per un sistema di gestione dell’intelligenza artificiale e fornisce la logica di supervisione significativa, di controllo umano, di tracciabilità delle inferenze e di documentazione delle pipeline informative che rende possibile un esercizio dell’autonomia artificiale entro limiti progettati e verificabili. La ISO/IEC 27001 garantisce la protezione della qualità informativa attraverso la sicurezza delle informazioni, componente indispensabile perché gli agenti operino su dati affidabili e coerenti con gli obiettivi del sistema. La ISO 53001 estende l’orizzonte del sistema verso lo sviluppo sostenibile e collega l’azione agentica ai principi che guidano l’allineamento con gli Obiettivi di Sviluppo Sostenibile, creando un’integrazione tra innovazione, responsabilità e valore condiviso.
All’interno di questo quadro, la famiglia delle norme tecniche dell’intelligenza artificiale fornisce la struttura concettuale e operativa necessaria per comprendere la natura degli agenti e per governare il loro ciclo di vita. La ISO/IEC 22989 stabilisce il vocabolario fondamentale dell’intelligenza artificiale, chiarisce la semantica di sistemi, modelli, dati, autonomia, goal, comportamento e incertezza e costituisce il fondamento linguistico attraverso cui l’organizzazione può interpretare in modo non ambiguo cosa sia un agente, come agisca e quale sia il significato operativo della sua autonomia. La ISO/IEC 23053 presenta l’architettura dei sistemi basati su machine learning e descrive pipeline, modelli, dataset, task e processi di verifica e validazione, offrendo una mappa tecnica che consente di comprendere come l’autonomia computazionale emerga dalle trasformazioni informative e dalle strutture inferenziali.
La gestione dell’incertezza è sostenuta dalla ISO/IEC 23894, che introduce una lettura organica del rischio come effetto dell’incertezza e che estende la logica della ISO 31000 alle specificità dell’AI. Il documento articola l’incertezza in sorgenti, elementi e impatti e fornisce criteri per interpretare deviazioni, instabilità dei modelli, dipendenze dai dati e implicazioni etiche e sociali. La valutazione degli impatti è strutturata dalla ISO/IEC 42005, che rende esplicito che i sistemi di AI generano effetti non solo tecnici ma anche individuali, organizzativi e sociali e che tali effetti devono essere documentati, analizzati e collegati al ciclo di vita del sistema. La ISO/IEC 5339 descrive i processi del ciclo di vita dei sistemi di AI e consente di collocare ogni agente all’interno di una sequenza organizzata di fasi che vanno dalla pianificazione al ritiro, rendendo possibile una gestione sistematica, verificabile e coerente del suo comportamento nel tempo. La ISO/IEC TR 20226 introduce la prospettiva ambientale e mostra come l’azione agentica sia parte di una filiera di risorse, consumi energetici e impatti materiali che devono essere compresi e valutati lungo tutto il ciclo di vita.
Il sistema integrato agentico si completa con le norme che riguardano l’infrastruttura della certificazione. La ISO/IEC 42006 stabilisce i requisiti per gli organismi che certificano i sistemi di gestione dell’intelligenza artificiale e rafforza la credibilità dell’intero modello, poiché garantisce che gli audit e le valutazioni siano condotti con competenze adeguate, indipendenza verificabile e metodologie trasparenti.
Nel sistema integrato agentico l’organizzazione utilizza norme di innovazione, norme di AI, norme di sicurezza delle informazioni e norme di sostenibilità come elementi di una stessa struttura, non come insiemi separati di requisiti. L’impresa agentica nasce quindi come organismo capace di innovare attraverso agenti che operano entro limiti progettati e verificabili, in un quadro fondato sulla responsabilità ultima umana, sulla trasparenza epistemica e sulla proporzionalità tra autonomia, rischio e valore generato.
Il risultato è un metasistema normativo in cui l’AI non è tecnologia, ma parte del sistema di gestione dell’innovazione.
Conclusioni
L’organizzazione agentica non è un modello futuribile, ma una direzione ormai definita.
La differenza tra aziende che prospereranno e aziende che si limiteranno a inseguire la tecnologia non dipenderà dalla sofisticazione degli agenti AI, ma dalla capacità di:
- governare l’innovazione come sistema,
- integrare gli agenti nei processi organizzativi,
- rendere l’AI una componente del portafoglio strategico,
- operare entro un quadro normativo robusto e verificabile,
- costruire ecosistemi agentici basati su partnership e interoperabilità.
Il futuro è delle organizzazioni che diventeranno agentiche.
E la ISO 56001 è l’architrave tecnica che permette loro di farlo in modo affidabile, scalabile e responsabile
Le traiettorie descritte nei rapporti internazionali confermano questa direzione. Da un lato, “Agents, robots, and us” evidenzia che l’economia delle organizzazioni agentiche si fonda sulla capacità di combinare in modo dinamico lavoro umano, agenti digitali e sistemi fisici, ripensando competenze, ruoli e processi. Dall’altro, “Assessing High-Risk Artificial Intelligence. Fundamental Rights Risks” richiama la responsabilità delle organizzazioni nel garantire che tale trasformazione sia allineata al quadro dei diritti fondamentali e dell’AI Act, andando oltre una conformità meramente formale. L’integrazione tra portafoglio agentico, sistemi di gestione basati su ISO 56001 e norme per l’AI rappresenta quindi non solo un vantaggio competitivo, ma una condizione di legittimità e di sostenibilità dell’impresa agentica nel contesto europeo.
Autori
OLIVIERO CASALE è General Manager di UniProfessioni e Innovation Manager certificato; consigliere della Fondazione Communia;
coordinatore del World Industry 5.0 Forum by Confassociazioni; componente di ISO TC/279 (Innovation management); Cultore della Materia presso il Dipartimento di Ingegneria Industriale dell’Università di Bologna e Segretario di AICQ Emilia-Romagna e Marche.
PAOLA RINALDI è laureata in Fisica e PhD in Ingegneria elettrotecnica; titolare del corso di Affidabilità, Controllo Qualità e Certificazione di Processo e di Prodotto nel C.d.L. in Ingegneria Gestionale nell’Università di Bologna; Vicepresidente di AICQ Emilia-Romagna e Marche e certificata come Circular Economy Advisor.
RICK FERNANDEZ è Presidente 20-20 Innovation Inc., Direttore IMSP (Innovation Management Systems Professionals.com), Presidente di TAG statunitense TC279 Gestione dell’innovazione e Componente del Chairman Advisory Group ISO/TC279 Innovation Management.
Bibliografia
- Nurski, Laura. “AI at Work: Why There’s More to It than Task Automation.” Centre for European Policy Studies, 2024.
- Alcidi, Cinzia, et al. “Shaping Tomorrow’s Workforce: Rethinking Skills Policies for the Age of AI.” Centre for European Policy Studies, 2024.
- McKinsey & Company. “The Agentic Organization: Contours of the Next Paradigm for the AI Era.” McKinsey & Company, 2025.
- McKinsey & Company, QuantumBlack AI. “The State of AI in 2025: Agents, Innovation, and Transformation.” McKinsey & Company, 2025.
- Renda, Andrea. “EU Large-Scale Initiative on AI: From Vision to Practice.” Centre for European Policy Studies, 2024.
- McKinsey Global Institute. “Agents, Robots, and Us: Skill Partnerships in the Age of AI.” McKinsey Global Institute, 2025.
- McKinsey Global Institute. “Agents, Robots, and Us: Skill Partnerships in the Age of AI. Technical Appendix.” McKinsey Global Institute, 2025.
- European Union Agency for Fundamental Rights. “Assessing High-Risk Artificial Intelligence: Fundamental Rights Risks.” FRA, 2025.
- European Union. “Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 on Artificial Intelligence and Amending Regulations (EU) 2022/2065 and (EU) 2022/1925 and Directives 2000/31/EC, 2005/60/EC, 2013/36/EU and 2014/65/EU.” Official Journal of the European Union, 12 July 2024.
- ISO/IEC 42001:2023. Information Technology — Artificial Intelligence — Management System.
- ISO/IEC 42005:2025. Information Technology — Artificial Intelligence — AI System Impact Assessment.
- ISO/IEC 42006:2025. Information Technology — Artificial Intelligence — Requirements for Bodies Providing Audit and Certification of Artificial Intelligence Management Systems.
- ISO/IEC 22989:2022. Information Technology — Artificial Intelligence — Artificial Intelligence Concepts and Terminology.
- ISO/IEC 23053:2022. Framework for Artificial Intelligence (AI) Systems Using Machine Learning (ML).” ISO, 2022.
- ISO/IEC 23894:2023. Information Technology — Artificial Intelligence — Guidance on Risk Management.
- ISO/IEC 5339:2024. Information Technology — Artificial Intelligence — Guidance for AI Applications.
- ISO/IEC TR 20226:2025. Information Technology — Artificial Intelligence — Environmental Sustainability Aspects of AI Systems.
- ISO 56001:2024. Innovation Management System — Requirements.
- ISO 56007:2023. Innovation Management — Tools and Methods for Managing Opportunities and Ideas — Guidance
- ISO 56003:2019. Innovation Management — Tools and Methods for Innovation Partnership — Guidance.
- ISO/IEC 27001:2022. Information Security, Cybersecurity and Privacy Protection — Information Security Management Systems — Requirements.
- ISO 31000:2018. Risk Management — Guidelines.
- ISO/UNDP 53001. Management Systems for Sustainable Development Goals (SDGs) — Requirements. Draft International Standard, ISO/PC 343, forthcoming.
- Oliviero Casale, Rick Fernandez, “FROM THE F.L.I.P. PARADIGM TO THE S.P.I.A³ FRAMEWORK”, Collana UniProfessioni, 2025.
- Oliviero Casale, Rick Fernandez, Alvaro Reinoso, Paola Rinaldi. Antifragility and Innovation Management Systems, 2024.
- Casale, Oliviero, Paola Rinaldi. Paradigma 5.0, Gambini editore, 2024.
- Casale, O., Rinaldi, P., Lavalle, A., Castagna, F., de Falco, S., Modaffari, D. A., Pieragostini, E., & Lanzafame, R. (2025). FORMALISING INDUSTRY 5.0. In FORMALISING INDUSTRY 5.0 – A Proposal for a European Governance Framework of the Paradigm 5.0. Italy. ISBN: 9791224306818. Zenodo. https://doi.org/10.5281/zenodo.17332991