Questo testo è stato tradotto utilizzando il sistema di traduzione automatica di Salesforce. Partecipa al nostro sondaggio per fornire un feedback su questo contenuto e dirci cosa vorresti vedere dopo.
Note
Introduzione
Questo documento presenta un punto di vista che descrive l'architettura IT di cui le aziende avranno bisogno nei prossimi 3-5 anni per cogliere appieno il valore di una forza lavoro agente; descrive la trasformazione IT necessaria per supportare la distribuzione su larga scala degli agenti AI. L'obiettivo è fornire una guida strategica e un'architettura di riferimento per aiutare i CIO, i CDO e i leader IT a pianificare il loro percorso verso la trasformazione in Agentic Enterprise.
I potenti modelli di intelligenza artificiale consentono la creazione di una forza lavoro agente in grado di rilevare l'ambiente, ragionare sui dati, prendere decisioni autonome, eseguire operazioni e collaborare efficacemente con i lavoratori umani. Questa nuova forza lavoro promette un cambiamento radicale in termini di innovazione, produttività e agilità, creando valore per azionisti e clienti. Per realizzare questa visione, le organizzazioni devono affrontare una trasformazione aziendale e IT per diventare Agentic Enterprises.
Funzionalità aziendali dell'azienda agente
Oggi, l'azienda tradizionale affronta inefficienze operative derivanti da silos informativi, dipendenti sepolti nel lavoro manuale, incentivi disallineati nelle strutture organizzative e loop di feedback disgiunti tra strategie e risultati. Questi problemi causano esperienze cliente non ottimali, processi inefficienti e opportunità di crescita mancate.
Agentic Enterprise supera queste limitazioni integrando una forza lavoro digitale di agenti AI intelligenti con lavoratori umani. Con questa nuova forza lavoro aumentata dall'intelligenza artificiale, un'organizzazione può promuovere l'innovazione per la crescita, promuovere l'eccellenza operativa e creare resilienza a livello aziendale con diversi tipi di nuove funzionalità aziendali.
Nuove capacità aziendali per promuovere l'innovazione:
Aumento della produttività umana: La velocità, la scalabilità e la natura sempre attiva degli agenti di intelligenza artificiale consentono alle aziende di automatizzare il lavoro ripetitivo e ai lavoratori umani di concentrarsi su operazioni di valore superiore e più creative.
Miglioramento della capacità adattiva: Poiché il ragionamento degli agenti AI può essere osservato, possono imparare e distribuire in modo dinamico nuove competenze, consentendo all'azienda di migliorare continuamente le prestazioni per raggiungere gli obiettivi aziendali e adattarsi rapidamente alle nuove opportunità di mercato.
Esempio in azione — Innovare l'esperienza del cliente nei servizi finanziari: Una società di gestione patrimoniale può utilizzare un agente AI per reinventare il proprio modello di coinvolgimento del cliente. L'agente monitora autonomamente i portafogli, identifica i momenti chiave per un riesame del cliente e prepara il piano pre-chiamata per il consulente, rettificando il piano man mano che emergono notizie. Ciò consente al consulente umano di offrire un'esperienza cliente proattiva e personalizzata su larga scala, rafforzando le relazioni e scoprendo nuove opportunità.
Nuove funzionalità aziendali per proteggere e garantire la resilienza dell'organizzazione:
Capacità del personale elastico: Le aziende possono scalare rapidamente la loro capacità di far fronte ai picchi di carico di lavoro dovuti alle mutevoli condizioni aziendali, senza i costi e i ritardi di un aumento della forza lavoro interamente umana.
Resilienza operativa predittiva: La natura 24 ore su 24, 7 giorni su 7, degli agenti AI consente loro di anticipare, modellare e mitigare autonomamente i rischi operativi, di conformità e di sicurezza in tempo reale, garantendo che l'azienda mantenga il Trust dei propri clienti e stakeholder.
Esempio in azione — Protezione dei dati dei clienti: Una grande azienda può distribuire un agente di governance dei dati AI per analizzare il contesto normativo alla ricerca di modifiche alle leggi sulla privacy dei dati, individuare e classificare le informazioni sensibili nelle serie di dati aziendali e quindi applicare la policy di governance appropriata. L'agente può esaminare le richieste di accesso ai dati e instradare le eccezioni a un analista umano per la revisione, riducendo il rischio di conformità e consentendo al contempo di utilizzare i dati in modo affidabile.
Nuove funzionalità aziendali che ottimizzano l'eccellenza operativa:
Esecuzione autonoma dei processi: Una forza lavoro digitale può eseguire operazioni complesse in più fasi 24 ore su 24, 7 giorni su 7 alla velocità della macchina (con gli esseri umani aggiornati), riducendo i costi e scalando i processi in modo efficiente.
Orchestrazione transfrontaliera: Gli agenti dell'intelligenza artificiale possono lavorare all'interno dei silos di informazioni e incentivi che normalmente limitano i lavoratori umani, promuovendo l'agilità per i processi interfunzionali.
Esempio in azione — Ottimizzazione dell'imbuto di marketing nella vendita al dettaglio: Un team di marketing al dettaglio può impiegare un agente AI per accelerare il processo della campagna in risposta alle nuove tendenze dei consumatori. L'agente può generare piani di marketing, collaborare con i team di marketing, di prodotto e di vendita per la revisione e quindi creare automaticamente collaterale digitale ed eseguirlo in più canali, modificando dinamicamente la campagna in base al feedback in tempo reale.
Architettura IT dell'azienda agente
I limiti dell'architettura IT tradizionale
L'architettura IT dell'azienda può essere descritta utilizzando un costrutto di livello. I livelli raggruppano logicamente le funzionalità tecniche correlate e facilitano il ragionamento strutturato, ma non implicano necessariamente implementazioni specifiche o il grado in cui un livello dovrebbe essere progettato in modo monolitico o più eterogeneo. In questa visualizzazione a livelli (Figura 1), l'architettura IT tradizionale è costituita da cinque livelli principali: Infrastruttura, dati, integrazione, applicazione ed esperienza. Due livelli trasversali, Security e IT Operations, si estendono su questi livelli per garantire governance, monitoraggio e protezione.
L'architettura IT tradizionale è stata progettata per un paradigma in cui l'intelligenza aziendale risiedeva in lavoratori umani che intraprendevano azioni nelle applicazioni per accedere ai dati, applicare logica aziendale, facilitare la collaborazione ed eseguire flussi di lavoro. Non è progettato per un paradigma in cui gli agenti dell'intelligenza artificiale possono ragionare e intraprendere azioni per determinati casi d'uso precedentemente eseguiti da esseri umani (o non eseguiti affatto) mentre gli esseri umani supervisionano gli agenti dell'intelligenza artificiale e si concentrano su operazioni più creative e ambigue.
Benché l'architettura tradizionale supporti oggi distribuzioni sottoscala di agenti AI, non è in grado di offrire appieno le funzionalità aziendali dell'organizzazione agente descritte sopra. La realizzazione di queste funzionalità richiede un'architettura IT progettata per la distribuzione su larga scala di agenti di intelligenza artificiale potenti che possono gestire casi d'uso ampi anziché essere limitati a distribuzioni limitate destinate a casi d'uso ristretti.
Gli agenti dell'intelligenza artificiale continueranno a migliorare nei prossimi 5 anni e l'architettura IT dovrà evolversi per realizzare il valore di agenti dell'intelligenza artificiale più potenti e intelligenti, per diventare a prova di futuro. In primo luogo, gli agenti diventeranno più intelligenti man mano che i modelli di intelligenza artificiale sottostanti (ad esempio, LLM multimodali) e le architetture cognitive degli agenti si evolveranno (ad esempio, pianificazione a più fasi, decomposizione delle operazioni e così via). In secondo luogo, gli agenti dell'intelligenza artificiale avranno migliori capacità di apprendimento e adattamento con miglioramenti della memoria, capacità di auto-riflessione e la capacità di imparare dai feedback. In terzo luogo, gli agenti AI avranno una maggiore capacità di interagire con altri agenti, strumenti e dati, come evidenziato dall'ecosistema in rapida evoluzione di standard tecnologici aperti (ad esempio, Model Context Protocol, Agent2Agent e così via). Sebbene queste tre tendenze tecnologiche consentiranno agli agenti dell'intelligenza artificiale di essere più potenti nell'esecuzione di operazioni più astratte e complesse, introdurranno anche numerose sfide per l'architettura IT odierna.
In primo luogo, gli agenti AI si basano fondamentalmente su modelli AI, sia sviluppati internamente che di origine esterna, che evolvono rapidamente e richiedono una gestione dei modelli AI/ML sofisticata, condivisa e standardizzata. Oggi, i modelli di intelligenza artificiale sono agganciati per casi d'uso specifici in un'applicazione, non come funzionalità condivise per il riutilizzo con strumenti comuni per la formazione, la distribuzione, la governance e la gestione del rischio. In futuro, le aziende dovranno essere in grado di utilizzare modelli di intelligenza artificiale diversi per vari casi d'uso agentici che richiedono strumenti che consentano agli agenti di sostituire i modelli sottostanti (ad esempio, modello di base e modello più piccolo specifico del dominio) in base al contesto aziendale. Ciò richiede la gestione di modelli di intelligenza artificiale sviluppati internamente o ospitati con strumenti unificati per il ciclo di vita per garantire coerenza, riutilizzabilità, scalabilità ed efficienza. Analogamente, l'accesso ai modelli di intelligenza artificiale ospitati esternamente richiede un framework di controllo a livello aziendale per garantire prestazioni, sicurezza, conformità, disponibilità e affidabilità ottimali.
In secondo luogo, gli agenti AI hanno schemi di scalabilità e requisiti operativi distinti, ad esempio hosting, sviluppo, ragionamento, apprendimento, gestione della memoria e operazioni, che richiedono un confine architettonico separato e dedicato per gli agenti. L'integrazione di questa funzionalità direttamente nell'odierna architettura di applicazione statica e deterministica introdurrebbe una complessità e un rischio architetturale inutili. Inoltre, gli agenti AI dovrebbero interagire con le applicazioni esistenti tramite interfacce standardizzate o sistemi di messaggistica per l'interazione in tempo reale.
In terzo luogo, gli agenti di intelligenza artificiale devono essere in grado di ragionare su serie di dati diverse e collaborare tra loro, spesso in pile di applicazioni in silo, ma nell'architettura odierna non esiste una funzionalità semantica comune che fornisca una comprensione condivisa per questi agenti per ragionare su serie di dati diverse. Di conseguenza, sebbene gli agenti monouso possano essere distribuiti con successo, la loro scalabilità per operare in gran numero su operazioni complesse tra silos rimane difficile e rischiosa.
Infine, l'attuale architettura IT aziendale non dispone di un modo efficace per orchestrare, ottimizzare e governare i processi aziendali end-to-end che includono i flussi di lavoro dinamici eseguiti da agenti più potenti, che aumenteranno e in alcuni casi sostituiranno il ruolo svolto dai lavoratori umani in quel processo. Oggi, gli strumenti di automazione vengono utilizzati per gestire flussi di lavoro lineari e deterministici che in genere seguono una sequenza predefinita, documentata in linguaggi specifici dei processi e si basano su una logica statica che cambia raramente. Le tecnologie AI possono migliorare alcuni di questi processi lineari (ad esempio, utilizzando modelli ML anziché regole aziendali codificate per calcolare le soglie di approvazione dei prestiti), ma gli aspetti strategici ed esecutivi della maggior parte dei processi aziendali critici rimangono per loro natura dinamici e flessibili. Operazioni come lo sviluppo di strategie di marketing, la risoluzione di problemi complessi dei clienti o la ricerca di clienti potenziali hanno obiettivi chiari (soddisfazione dei clienti, velocità di risoluzione dei casi e così via) ma non seguono una sequenza di esecuzione fissa e predefinita.
Attualmente, le aziende tradizionali si affidano principalmente agli esseri umani per coordinare ed eseguire questi processi aziendali complessi (ad esempio, impostare la strategia e gestire programmi complessi). Man mano che gli agenti dell'intelligenza artificiale continueranno a evolversi (maggiore capacità di intelligenza, apprendimento e interazione) nei prossimi 3-5 anni, la loro capacità di eseguire tali processi dinamici in autonomia aumenterà in modo significativo, introducendo complessità e sfide di integrazione che superano di gran lunga le funzionalità degli strumenti di integrazione e automazione esistenti. La natura adattiva e dinamica degli agenti AI crea un forte bisogno di nuove funzionalità di orchestrazione per garantire un controllo a livello aziendale, una visibilità completa e un allineamento coerente con gli obiettivi strategici a livello aziendale, in particolare nella gestione di flussi di lavoro complessi, lunghi e in più fasi che includono agenti AI, persone, strumenti di automazione e altri sistemi deterministici.
L'architettura IT di Agentic Enterprise stabilisce una piattaforma per azioni intelligenti integrando perfettamente lavoratori umani, agenti AI e sistemi deterministici. Questa architettura consente sia agli agenti umani che agli agenti dell'intelligenza artificiale di accedere dinamicamente a Knowledge aziendale unificata da fonti di dati diverse e di sfruttarla, arricchita da contesto semantico, per eseguire in modo efficiente flussi di lavoro e processi complessi in linea con gli obiettivi aziendali strategici. L'architettura IT esistente di un insieme di piattaforme e soluzioni puntuali in silo si evolverà verso un insieme di servizi applicativi componibili, strumenti semantici e di dati e reti di agenti AI supervisionati e governati da nuovi strumenti di orchestrazione intelligente dei processi aziendali.
Questa architettura consente agli agenti di percepire, ragionare e agire nei rispettivi ambiti, lavorare all'interno e tra i domini aziendali e imparare, migliorare e adattarsi continuamente. Ciò richiede una progettazione incentrata su meccanismi efficaci per accedere a dati e Knowledge (comprensione semantica), protocolli e interfacce di comunicazione flessibili e standardizzati (ad esempio, da agente ad agente, da agente a sistemi deterministici e da agente a umano) e, in modo critico, orchestrare flussi di lavoro e processi tra agenti, esseri umani e strumenti di automazione e sistemi deterministici.
Principi di architettura
Per realizzare la visione architettonica di una piattaforma per azioni intelligenti, si consiglia di seguire questi principi di progettazione come procedura ottimale:
Componibilità e modularità: Progettare gli elementi architettonici come componenti modulari con interfacce standardizzate per consentire un assemblaggio rapido e dinamico delle capacità degli agenti, dei flussi di lavoro e delle superfici rivolte al pubblico. Assegnare priorità a contratti di interfaccia chiari e astrazione per consentire agli agenti dell'intelligenza artificiale la massima flessibilità di composizione dei flussi di lavoro.
Prima i dati e la semantica: Garantire un accesso completo, preciso, rapido, sicuro ed economico ai dati, con una comprensione semantica condivisa per consentire agli agenti di ragionare in modo efficace tra i sistemi in silo. Ciò richiede il trattamento dei dati (e dei metadati) come prodotto, con strumenti che garantiscano qualità, discendenza, governance e accesso, nonché un modo per fornire una comprensione semantica condivisa tra agenti e persone.
Osservabilità IT e aziendale incorporata: Incorporare funzionalità di monitoraggio, tracciamento, valutazione e spiegabilità end-to-end nell'intera architettura per ottenere informazioni sul ragionamento, i comportamenti, le interazioni di sistema e l'impatto degli agenti sui KPI aziendali per consentire l'ottimizzazione continua delle prestazioni degli agenti. Ciò include l'ottimizzazione dei costi (FinOps), le metriche di sostenibilità e la telemetria operativa mantenendo Trust, conformità e consumo responsabile delle risorse. Poiché gli agenti AI sono per loro natura non deterministici, l'osservabilità è fondamentale per garantire che gli agenti AI possano operare in modo affidabile, conforme e controllabile con la supervisione umana.
Truste in tutto: Applicare autorizzazioni dinamiche e granulari basate sull'intento delle operazioni dell'agente (accesso ai dati, azioni e così via) e implementare procedure di sicurezza complete che includono il teaming rosso, la scansione CVE automatica, il rilevamento delle vulnerabilità e i controlli di convalida basati sui rischi. Sono necessari controlli più granulari e dinamici dato il rischio che gli agenti causino rischi a catena a causa della loro capacità di operare a velocità della macchina. Assicurarsi che tutti gli output generati dall'intelligenza artificiale (da agenti o modelli) siano rigorosamente convalidati rispetto alle policy definite per conformità, sicurezza, tossicità e distorsione prima dell'uso o della consegna, richiedendo meccanismi di registrazione e spiegabilità con percorsi di controllo verificabili per decisioni, azioni, contenuti e previsioni dell'intelligenza artificiale.
Agente primo con supervisione umana: Abilitare gli agenti dell'intelligenza artificiale come strumento predefinito per risolvere i casi d'uso aziendali, escludendo altre considerazioni (ad esempio, costo, preparazione tecnica) e progettare sistemi IT in modo che siano accessibili per i flussi di lavoro degli agenti. Ciò include la possibilità per gli esseri umani di monitorare, intervenire e ignorare qualsiasi fase del processo di un agente. Gli agenti richiedono capacità di auto-riflesso per cercare in modo proattivo una guida umana se la loro fiducia nel processo decisionale scende al di sotto delle soglie pre-programmate.
Interazione reattiva e multimodale: Abilitare l'architettura per supportare meccanismi completi di invocazione e risposta degli agenti in tutti i tipi di interazione, inclusi protocolli da agente ad agente, input multimodali umani (voce, testo, visivo), eventi aziendali, segnali di sistema e dati in streaming. Abilitare le funzionalità di elaborazione basate sugli eventi e in tempo reale per garantire che gli agenti possano reagire a qualsiasi segnale tempestivo da qualsiasi fonte o formato.
Infrastruttura AI-ready: Assicurarsi che l'infrastruttura possa scalare in modo elastico con la ridondanza incorporata per gestire carichi di lavoro AI fluttuanti e integrare le pipeline ML/LLM nell'architettura dei dati e delle applicazioni, mantenendo la conformità ai requisiti di residenza dei dati.
Ecosistema aperto: Assegnare priorità all'interoperabilità ed evitare il blocco tecnologico privilegiando standard aperti, protocolli e interfacce ben definite (API, eventi) per trarre vantaggio dall'ecosistema tecnologico.
Livelli architettura
Per abilitare e scalare con successo la trasformazione agente, le aziende devono andare oltre il semplice miglioramento dei livelli attuali; devono valutare la possibilità di introdurre esplicitamente quattro livelli architetturali aggiuntivi (Figura 2) progettati specificamente per soddisfare le esigenze degli agenti AI.
Il livello agente è dedicato allo sviluppo e alla gestione degli agenti AI, che comprende capacità cognitive come pianificazione, ragionamento, memoria, utilizzo degli strumenti, gestione dello stato e controllo del ciclo di vita. Questo livello soddisfa i requisiti tecnici e operativi specifici degli agenti AI, garantisce l'interoperabilità tra applicazioni e archivi di dati tramite protocolli standardizzati e facilita la collaborazione tra agenti. Il livello di applicazione esistente si evolverà in servizi di applicazione per essere composto dinamicamente per i flussi di lavoro degli agenti.
Il livello semantico viene introdotto per risolvere il divario tra i dati aziendali non elaborati e la comprensione semantica necessaria agli agenti dell'intelligenza artificiale. Codifica e gestisce in modo esplicito entità aziendali, concetti, definizioni e interrelazioni, creando un'ontologia aziendale e una rappresentazione di Knowledge aziendale per consentire una comprensione semantica condivisa che supporta flussi di lavoro multi-agente più complessi che eseguono operazioni di livello superiore. Oltre a un catalogo di dati, il livello semantico traduce una query per linguaggio naturale in query precise su archivi di dati specifici, armonizza i risultati e restituisce una risposta contestuale e più completa per l'agente. Nel frattempo, il livello di dati esistente viene unificato tramite l'adozione di lakehouse centralizzati e l'accesso ai dati viene ampliato tramite un data fabric predisposto per l'intelligenza artificiale per supportare i principi del modello operativo mesh di dati.
Il livello AI/ML centralizza la gestione delle funzionalità di intelligenza artificiale aziendali, inclusi modelli di linguaggio di grandi dimensioni, modelli di azione di grandi dimensioni e modelli ML specifici del dominio, gestendo sia i modelli di intelligenza artificiale sviluppati internamente durante il loro ciclo di vita che l'accesso/utilizzo controllato ai servizi di intelligenza artificiale esterni. A differenza delle architetture tradizionali in cui i modelli AI sono incorporati nelle applicazioni, questo livello stabilisce i modelli AI come componenti di prima classe e servizi condivisi nell'azienda. Si concentra sulle funzionalità AI controllate dall'azienda (non sulle funzionalità AI fornite da fornitori esterni). Questo livello fornisce informazioni per vari agenti e altri carichi di lavoro AI nell'azienda con meccanismi standardizzati per Trust, sicurezza, conformità e distribuzione.
L'Enterprise Orchestration Layer è l'astrazione funzionale per coordinare, governare e ottimizzare flussi di lavoro e processi aziendali complessi in più fasi che coprono agenti AI, persone, strumenti di automazione e sistemi deterministici. Questo livello sfrutta un modello di orchestrazione mista che consente ai singoli agenti e sistemi di gestire autonomamente le operazioni coreografate localmente utilizzando protocolli aperti come MCP e A2A, fornendo al contempo una supervisione end-to-end centralizzata e il coordinamento dell'intero processo. Per implementare il modello di orchestrazione mista, questo livello rappresenta i processi aziendali critici in formati semanticamente completi leggibili che definiscono sia le fasi deterministiche (modellate in fase di progettazione) che le fasi dinamiche (decise dagli agenti in fase di esecuzione) di un processo aziendale, creando la base del modello di processo per la governance e l'ottimizzazione.
Tradizionalmente, porzioni significative dei processi aziendali gestiti dalle persone rimangono non documentate o inaccessibili in forme leggibili dai computer. Tuttavia, l'osservabilità dettagliata delle attività degli agenti AI, che include dati completi e metadati sulle loro operazioni e azioni, consente di acquisire, documentare e integrare il lavoro dinamico, precedentemente non strutturato, con flussi di lavoro lineari deterministici per creare modelli di processo completi. La documentazione dettagliata del processo acquisisce le interdipendenze delle operazioni e i percorsi di esecuzione precedentemente invisibili, consentendo all'azienda di ottimizzare continuamente l'efficienza operativa, risolvere efficacemente i colli di bottiglia e codificare sistematicamente le procedure consigliate identificate dagli agenti in playbook riutilizzabili a livello aziendale. Ciò si traduce in un gemello digitale olistico dei singoli processi e, se scalato, dell'intera azienda.
Ad esempio, processi complessi come l'esecuzione di strategie di vendita complete o l'inserimento di nuovi dipendenti comportano numerose fasi interdipendenti in cui il livello di orchestrazione può garantire livelli appropriati di coinvolgimento umano (ad esempio, la gestione delle eccezioni), un'autonomia limitata per gli agenti AI e imporre la conformità. Durante questi processi, il livello di orchestrazione dall'alto verso il basso aggiunge prevedibilità e governance, tiene traccia e valuta continuamente gli indicatori di prestazione chiave (KPI), garantisce l'integrità transazionale dei flussi di lavoro e la logica di ritiro e mantiene la visibilità in ogni fase del flusso di lavoro per garantire l'allineamento con gli obiettivi aziendali generali. Per implementare questa funzionalità, questo livello utilizza policy, regole e guardrail del livello di sicurezza e governance (tramite policy-as-code) e obiettivi aziendali e KPI memorizzati nel livello semantico. Data la natura autonoma e rapida delle interazioni basate sull'intelligenza artificiale, affidarsi esclusivamente a una coreografia decentralizzata rischia di generare disallineamenti strategici o violazioni della conformità, soprattutto nei flussi di lavoro a più fasi di lunga durata. L'approccio di orchestrazione mitiga questi rischi integrando le regole aziendali a livello aziendale, i controlli di conformità e l'applicazione delle policy direttamente in flussi di lavoro complessi e integrando la supervisione umana nei momenti critici.
Ciascuno di questi 11 livelli contribuisce con funzionalità specifiche alla distribuzione di agenti AI su larga scala in modo sicuro, affidabile ed efficace che sblocca tutto il potenziale dell'intelligenza artificiale agente per trasformare il modo in cui viene svolto il lavoro in un'azienda. La sezione seguente descrive la funzione del livello, le nuove modifiche dovute all'aumento degli agenti AI e le sue funzionalità tecnologiche chiave.
Livello esperienza
Funzione: Il Livello di esperienza funge da interfaccia principale per gli utenti umani, abilitando l'interazione multimodale acquisendo input (testo, voce, visivo) e fornendo risposte pertinenti al contesto su più dispositivi. Trasmette facilmente le intenzioni degli utenti al livello agente per l'azione, fornendo anche l'interfaccia utente dinamica e le visualizzazioni che facilitano l'inoltro al livello superiore e le approvazioni all'interno dei flussi di lavoro agentici.
Cosa c'è di diverso rispetto a oggi: L'intelligenza artificiale aumenterà le interfacce basate su GUI tradizionali con elaborazione del linguaggio naturale, consapevolezza contestuale e supporto proattivo alle decisioni. Gli agenti dell'intelligenza artificiale saranno in grado di avviare interazioni in modo proattivo, fornendo consigli personalizzati in tempo reale in tutti i canali e le modalità.
Capacità tecnologiche chiave:
AI conversazionale e assistenti digitali: Abilitare l'unità operativa per impostazione predefinita per offrire assistenza AI a supporto degli utenti umani.
Interfaccia utente Attribuzione e trasparenza: Rendere spiegabili le risposte nell'interfaccia utente, ad esempio visualizzare le citazioni, le fonti dei file/sistemi e l'approccio/ragionevolezza delle decisioni.
Servizio di notifica proattivo e ambientale: Consente agli agenti di inviare in modo proattivo approfondimenti o avvisi agli utenti sul canale e sul fattore di forma più appropriati, in base al contesto corrente dell'utente.
Esperienze Omnicanale: Offre un'esperienza unificata, coerente e senza interruzioni in tutti i canali con continuità del journey, in cui le conversazioni e le operazioni seguono la persona anziché l'app.
Capacità multimodali: Consente alle persone di interagire con agenti e applicazioni tramite testo, voce, immagine, tocco, video e AR/VR in modo che gli agenti possano comprendere e presentare le informazioni nella modalità più efficiente.
Personalizzazione sensibile al contesto e interfaccia utente dinamica: Abilita esperienze utente in tempo reale sensibili al contesto (tempo, posizione, azioni utente) per consentire la personalizzazione, inclusa la generazione immediata dell'interfaccia utente.
Livello agente
Funzione: Il livello agentico funge da ambiente di runtime predefinito per l'esecuzione del lavoro nell'azienda in cui gli agenti AI scompongono le operazioni dal livello esperienza ed eseguono le operazioni assemblando dinamicamente i flussi di lavoro utilizzando gli strumenti del livello applicazioni e servizi app e del livello dati. Lo stato di configurazione degli agenti AI viene memorizzato e gestito in questo livello. Gli agenti vengono istanziati per operazioni specifiche e le istanze specifiche degli agenti vengono ritirate in seguito. Questa implementazione consente agli agenti di essere sempre richiamati dallo stato di configurazione più recente in base alle ottimizzazioni offline (utilizzando funzionalità AI/ML, osservabilità e livelli di orchestrazione). Questo livello è responsabile della gestione completa del ciclo di vita, del coordinamento e della governance degli agenti AI.
Cosa c'è di diverso rispetto a oggi: Questo livello emergerà dall'attuale serie disparata di piloti e distribuzioni di agenti limitate. Benché esistano bot basati su regole, sono pochi i programmi software adattativi, non deterministici e orientati agli obiettivi distribuiti su larga scala.
Capacità tecnologiche chiave:
Ambiente Runtime agente: Gestisce il ciclo di vita, l'esecuzione e l'allocazione delle risorse per gli agenti AI.
Suite di gestione del ciclo di vita degli agenti: Include framework di sviluppo, tool di sviluppo e test e sistemi di gestione per le attività degli agenti e il controllo delle versioni.
Motore di ragionamento agente: Un framework cognitivo che consente agli agenti di scomporre gli obiettivi, pianificare e decidere quali strumenti utilizzare per risolvere problemi complessi.
Memoria agente e punto vendita contesto: Consente alle istanze degli agenti di richiamare e mantenere il contesto relativo alle interazioni precedenti, garantendo coerenza e personalizzazione.
Protocolli di interoperabilità degli agenti: Interfacce standardizzate per la comunicazione da agente ad agente (A2A) e per l'interfacciamento degli agenti con sistemi esterni (ad esempio tramite il protocollo contesto del modello).
Registro strumenti: Insieme curato di strumenti interni ed esterni supportati che gli agenti possono invocare per eseguire una determinata operazione.
Registro agenti: Un ecosistema curato di soluzioni AI e agenti predefiniti che supporta l'individuazione e l'abbinamento delle funzionalità.
Applicazione policy agente distribuita: Consente una governance a livello aziendale consentendo agli agenti di autocontrollare la conformità prima di intraprendere azioni.
Framework di autoriflessione e adattamento degli agenti: Fornisce un meccanismo per consentire a un agente di analizzare le proprie prestazioni e, con l'approvazione umana, attivare miglioramenti o suggerire modifiche a se stesso.
Livello AI/ML
Funzione: Questo livello funziona come un hub di intelligenza centralizzato, offrendo modelli di intelligenza artificiale come un insieme di servizi condivisi che possono essere utilizzati dal livello agente (e dalle applicazioni) per potenziare le sue capacità di ragionamento e decisione con framework di sicurezza e monitoraggio integrati.
Cosa c'è di diverso rispetto a oggi: Tradizionalmente, i modelli AI erano incorporati in applicazioni specifiche. Nell'architettura IT di Agentic Enterprise, il livello AI/ML sarà una serie di servizi centralizzati di prima classe che supportano molte applicazioni e agenti, supportando l'intero ciclo di vita del modello dallo sviluppo al servizio in tempo reale su larga scala.
Capacità tecnologiche chiave:
Modelli di base predefiniti: Modelli ML di grandi dimensioni addestrati su un ampio spettro di dati, in grado di eseguire un'ampia varietà di operazioni generali.
Generazione aumentata di recupero (RAG): Una pipeline incentrata sull'intelligenza artificiale che basa i modelli di base in dati specifici dell'azienda per migliorare la precisione e ridurre le allucinazioni.
AI Trust, Safety e Governance Hub: Una suite di strumenti integrati nel ciclo di vita del modello per applicare principi di intelligenza artificiale responsabili come il rilevamento delle distorsioni, la spiegabilità e il monitoraggio della sicurezza.
Gateway modello: Motore di instradamento che funge da singolo punto di ingresso per tutte le richieste di inferenza del modello, gestendo le chiamate a vari modelli interni ed esterni per ottimizzare costi, prestazioni e conformità.
Area di lavoro sviluppo modello: Un ambiente di sviluppo integrato per i data scientist con strumenti per la preelaborazione dei dati, l'addestramento del modello e la sperimentazione.
MLOps & Lifecycle Automation Pipeline (MLOps e pipeline di automazione del ciclo di vita): Motore CI/CD per il machine learning, che automatizza il ciclo di vita completo dei modelli dall'addestramento alla distribuzione e al ritiro.
Serving del modello e runtime di inferenza: Un ambiente scalabile e a bassa latenza per la distribuzione di modelli addestrati come endpoint API protetti per il consumo in tempo reale.
Registro modelli e asset: Un repository centralizzato e controllato dalle versioni per tutti gli asset AI/ML, inclusi modelli, serie di dati e codice sorgente, che garantisce riproducibilità e verificabilità.
Generazione e gestione dei dati sintetici: Strumento per generare e gestire dati sintetici che mantengono le proprietà statistiche dei dati reali senza esporre informazioni sensibili.
Livello orchestrazione Enterprise
Funzione: Enterprise Orchestration Layer è il piano di controllo per il lavoro end-to-end in un'azienda agente. Garantisce che i flussi di lavoro e le interazioni degli agenti rispettino gli obiettivi aziendali e le policy di governance. Utilizza la telemetria osservabile da altri livelli per creare modelli di processi aziendali completi, consentendo l'ottimizzazione rispetto agli indicatori di prestazioni chiave tratti dal livello semantico. Questo livello fornisce il contesto condiviso e la memoria di lunga durata a ogni nuova istanza di un agente AI per i flussi di lavoro critici.
Cosa c'è di diverso rispetto a oggi: Questo livello offre una visibilità unificata dei processi aziendali creando modelli leggibili dai computer che acquisiscono sia fasi strutturate e deterministiche che il lavoro dinamico e non strutturato eseguito da persone e agenti. Supera i modelli di collaborazione e governance incentrati sulle persone di oggi codificando a livello di programmazione gli obiettivi aziendali e le regole di conformità come vincoli nei flussi di lavoro degli agenti per governare la forza lavoro degli agenti.
Capacità tecnologiche chiave:
Motore di esecuzione flusso di lavoro ibrido: Runtime centrale che esegue il "modello di orchestrazione misto", fornendo una supervisione centralizzata e consentendo la coreografia degli agenti locali.
Process Governance & Constraint Engine: Un servizio di governance in tempo reale che utilizza e applica regole aziendali, policy e vincoli dichiarativi a tutti i processi in volo.
Memoria condivisa e gestione del contesto: Un livello di memoria condiviso accessibile a tutti gli attori di un flusso di lavoro per mantenere continuità e coerenza in più fasi.
Process Modeling Studio: Un ambiente in fase di progettazione per la creazione e la gestione di modelli di processo leggibili dai computer e ricchi di contenuti semantici che definiscono fasi deterministiche e dinamiche orientate agli obiettivi.
Ottimizzazione e simulazione dei processi: Una funzionalità che costruisce simulazioni digitali dei processi aziendali per analisi avanzate, simulazioni What-If e ottimizzazione predittiva.
Process Discovery & Health Monitoring (Rilevamento dei processi e monitoraggio dello stato): Inserisce modelli di processo e dati in tempo reale per generare rapporti sulle metriche aziendali dello stato dei processi.
Digital Twin Process Modeling (Modellazione processo Digital Twin): Uno specchio in tempo reale dei flussi di lavoro live per testare, simulare le modifiche e ottimizzare senza influire sulla produzione.
Livello Servizi applicazione e app
Funzione: Questo livello espone le funzionalità delle applicazioni aziendali esistenti come strumenti e servizi componibili e modulari che gli agenti possono utilizzare. Funge anche da runtime di presentazione per l'incorporamento delle funzionalità degli agenti nell'esperienza utente. Le applicazioni continuano a essere il sistema dei record ma vengono riprogettate per essere funzionalità "headless" per gli agenti.
Cosa c'è di diverso rispetto a oggi: Le applicazioni si evolveranno da interfacce utente monolitiche a "servizi di back-end" che gli agenti possono chiamare dinamicamente tramite API ed eventi. Questo livello sarà integrato in modo nativo con agenti e modelli AI e la proliferazione di LLM di generazione codice porterà a un aumento del numero di micro-applicazioni personalizzate create dagli agenti.
Capacità tecnologiche chiave:
Servizi di applicazione modulari: Logica aziendale scomposta dalle applicazioni tradizionali, pubblicate come azioni leggibili automaticamente che gli agenti possono chiamare.
SDK di incorporamento degli agenti: Toolkit e librerie che consentono agli sviluppatori di incorporare in modo sicuro gli agenti direttamente nelle interfacce utente delle applicazioni.
Servizi di generazione interfaccia utente dinamica: Servizi che consentono a un agente AI di generare o modificare i componenti dell'interfaccia utente in tempo reale in base al contesto dell'utente.
Framework dell'interfaccia utente nativi AI: Framework front-end progettati con supporto incorporato per la gestione delle interfacce utente basate sull'intelligenza artificiale, ad esempio la gestione dei dati probabilistici e delle risposte di testo in streaming.
Sistemi di coinvolgimento infusi dagli agenti: Applicazioni di produttività e collaborazione aziendali che incorporano funzionalità degli agenti AI tramite componenti visivi.
Sviluppo di applicazioni low-code / no-code ottimizzate AI: Strumenti che consentono a utenti e agenti di creare app e servizi personalizzati utilizzando linguaggio naturale e prompt.
Guardrail dell'app per l'utilizzo da parte degli agenti: Controlli lato applicazione per l'utilizzo da parte degli agenti, ad esempio limitazione dei tassi, autorizzazioni limitate e telemetria.
Livello semantico
Funzione: Il livello semantico offre una comprensione unificata di dati e Knowledge in tutta l'azienda, consentendo sia agli esseri umani che agli agenti AI di interpretare e agire in modo coerente sulle informazioni. Utilizza strumenti di rappresentazione Knowledge come ontologie e grafici Knowledge per tradurre le query in linguaggio naturale in query di dati precise e sensibili al contesto.
Cosa c'è di diverso rispetto a oggi: Mentre le aziende odierne dispongono di archivi di metadati diversi, l'architettura IT di Agentic Enterprise richiede un EKG (Enterprise Knowledge Graph) centralizzato che collega i dati tra i domini con relazioni semantiche definite esplicitamente. Questo fornisce il contesto completo che gli agenti di intelligenza artificiale possono attraversare per eseguire ragionamenti complessi, creando requisiti per una serie di funzionalità tecniche che supportano i grafici Knowledge che coprono più domini funzionali.
Capacità tecnologiche chiave:
Servizio metadati: Fornisce metadati descrittivi, tra cui discendenza dei dati, proprietà e classificazioni.
Glossario aziendale e gestione tassonomia: Uno strumento che consente agli utenti aziendali di definire e concordare condizioni aziendali standard.
Gestione dei modelli semantici: Area di lavoro per ingegneri Knowledge per creare, gestire e governare modelli semantici e ontologie.
Enterprise Knowledge Graph (EKG): Un'istanziazione in fase di esecuzione dell'ontologia aziendale che memorizza e mappa le relazioni tra entità aziendali.
Motore di inserimento e armonizzazione metadati: Una pipeline automatica che compila e gestisce Enterprise Knowledge Graph da vari sistemi di origine.
Motore di query semantiche: Interpreta le query in linguaggio naturale e costruisce query strutturate basate sull'ECG per recuperare i dati da fonti diverse.
Motore di ragionamento semantico: Analizza e deriva Knowledge implicito e relazioni nascoste dall'ECG.
Livello dati
Funzione: Il livello di dati è la fonte fondamentale della verità e consente di gestire e fornire un accesso sicuro e regolato a tutti i dati aziendali che il livello semantico può interpretare, il livello AI/ML da utilizzare per l'addestramento, le applicazioni da utilizzare per le transazioni e gli agenti per il ragionamento.
Cosa c'è di diverso rispetto a oggi: Il livello di dati si evolve per essere più unificato, in tempo reale e incentrato sulla governance, spesso centrato su un data lakehouse su scala cloud. Deve gestire un volume e una varietà maggiori di dati e passare dall'elaborazione orientata ai batch allo streaming in tempo reale per supportare gli agenti reattivi. La governance e la qualità dei dati assumono un'importanza ancora maggiore per evitare che dati scadenti creino output AI difettosi.
Capacità tecnologiche chiave:
VectorDB: Database specializzato ottimizzato per l'archiviazione e la query di incorporamenti vettoriali ad alta dimensione, fondamentali per RAG.
Pipeline di dati analitici intelligenti: Un servizio automatico basato sui metadati per l'inserimento, la trasformazione e il caricamento dei dati (ETL/ELT) nel livello di dati.
Enterprise Data Lakehouse: Un repository centrale per dati strutturati, semi-strutturati e non strutturati, ottimizzato per carichi di lavoro di analisi e intelligenza artificiale.
Federazione e ricerca dati copia zero: Tecniche di accesso, query e ricerca dei dati in più punti vendita senza spostamento fisico dei dati.
Da linguaggio naturale a SQL: Una tecnica per convertire query in linguaggio naturale in SQL.
Servizio Catalogo dati aziendali e Discovery: Inventario centralizzato e ricercabile di tutti gli asset di dati dell'azienda.
Gestione dati master e di riferimento (MDM): Gestisce il "golden record" per entità aziendali critiche come Cliente e Prodotto.
Servizio di qualità dei dati adattiva: Un servizio di monitoraggio continuo che utilizza l'intelligenza artificiale per rilevare e risolvere automaticamente i Problemi di qualità dei dati in tempo reale.
Contratti sui dati: Accordi a lettura ottica tra produttori di dati e consumatori che specificano lo schema, la semantica e gli SLA dello scambio di dati.
Data Store specializzati AI: Database progettati per casi d'uso AI specifici, ad esempio serie temporali o database di grafici.
Fabbrica di dati AI-Ready: Livello di astrazione dei dati logico che offre una visualizzazione unificata e virtualizzata dei dati in sistemi fisici diversi.
Elaborazione dei dati in tempo reale: Funzionalità per l'elaborazione e l'analisi continua di stream di dati multimodali alla velocità della macchina.
Livello infrastruttura
Funzione: Il livello Infrastruttura supporta tutti gli altri livelli, fornendo le funzionalità di elaborazione, storage, rete e cloud necessarie per eseguire carichi di lavoro AI e agenti su larga scala in modo resiliente ed economico.
Cosa c'è di diverso rispetto a oggi: I carichi di lavoro AI richiedono maggiore scalabilità ed elasticità per gestire la natura probabilistica dei sistemi agentici. L'infrastruttura deve supportare il provisioning rapido, hardware specializzato come le GPU e traffico di rete a bassa latenza e ad alta produttività per la comunicazione tra agenti.
Capacità tecnologiche chiave:
Infrastruttura come codice: Provisioning e gestione automatizzati dell'infrastruttura con opportunità di distribuzione CI/CD.
Infrastruttura AI ibrida e multi-cloud: Sfrutta l'elasticità del cloud pubblico e l'infrastruttura specializzata per i carichi di lavoro di intelligenza artificiale generativa.
Calcolazione, archiviazione e rete ottimizzati per AI: Alloca e scala in modo dinamico le risorse dell'infrastruttura in base alla domanda variabile dei carichi di lavoro AI.
Infrastruttura Edge AI: Consente la distribuzione di modelli e agenti AI ai margini della rete per i casi d'uso con requisiti di latenza o privacy specifici.
Infrastruttura di autoguarigione: Utilizza l'intelligenza artificiale per gestire il ripristino del sistema senza input manuale, garantendo un'elevata disponibilità.
Informatica AI sostenibile: Approcci efficienti dal punto di vista energetico per mitigare l'impatto ambientale dei carichi di lavoro AI.
Autoscala sensibile ai costi e alle emissioni di CO2: Utilizza FinOps e i segnali di sostenibilità per favorire la scalabilità e il posizionamento della capacità.
Livello di integrazione
Funzione: Il livello di integrazione funge da tessuto di comunicazione universale per tutti i sistemi (legacy e nuovi) tramite API, eventi, protocolli e middleware per garantire che gli agenti possano individuare e interagire con servizi, dati e strumenti in modo semplice.
Cosa c'è di diverso rispetto a oggi: L'integrazione deve evolvere per supportare gli schemi di comunicazione dinamici molti-a-molti degli agenti AI, anziché limitarsi a gestire interazioni statiche predeterminate tra pochi sistemi noti. Richiede l'elaborazione dei dati in tempo reale e deve adattarsi all'individuazione e alla collaborazione ad hoc tra gli agenti.
Capacità tecnologiche chiave:
Opportunità in corso di realizzazione di connettività dati operativa: Strumenti assistiti dall'intelligenza artificiale per la mappatura automatica degli schemi, la trasformazione dei dati e la generazione di flussi di lavoro, incluse le funzionalità basate su API, basate sugli eventi e Reverse ETL.
Gestione API adattiva e Service Mesh: Gateway API e tecnologia Service Mesh in grado di registrare, individuare e governare dinamicamente i servizi con l'imposizione di policy adattive per gli agenti.
Adattatori Semantic Knowledge: Componente di integrazione che fornisce un vocabolario e un modello di dati condivisi tra agenti e applicazioni per un'interpretazione coerente dei dati.
Fabbrica di integrazione basata sugli eventi: Backbone di messaggistica e streaming a bassa latenza e ad alta produttività che consente la comunicazione disaccoppiata e asincrona.
Gateway protocollo agente: Gateway per i servizi MCP che consente agli agenti di scoprire in modo sicuro gli strumenti e attivare le azioni, collegando MCP ad API ed eventi interni.
Catalogo e marketplace di capacità componibili: Un catalogo centralizzato e gestito per tutte le funzionalità aziendali (API, servizi, competenze degli agenti, modelli e serie di dati) annotato con metadati semantici per la composizione on-demand.
Livello Operazioni IT e osservabilità
Funzione: Questo livello monitora e gestisce lo stato e le prestazioni operative degli agenti e dell'intero sistema (principio incorporato di osservabilità), offrendo trasparenza e controllo generando approfondimenti per consentire l'ottimizzazione di controllo, debug, spiegabilità, costi e risorse della forza lavoro dell'azienda.
Cosa c'è di diverso rispetto a oggi: Questo livello diventa ancora più cruciale se si considera il rischio che gli agenti dell'intelligenza artificiale creino errori alla velocità della macchina. Deve espandersi oltre il monitoraggio delle infrastrutture per includere il comportamento imprevedibile degli agenti autonomi, che richiedono nuovi tipi di telemetria e la capacità di comprendere la correttezza semantica, non solo le prestazioni tecniche.
Capacità tecnologiche chiave:
Piattaforma di monitoraggio e osservabilità in tempo reale: Raccoglie continuamente registri, metriche e tracce in tutto l'ambiente IT, con estensioni per le metriche ML e il comportamento degli agenti.
Gestione dei costi di FinOps & Cloud: Responsabile del monitoraggio, dell'analisi e dell'ottimizzazione dei costi di infrastruttura associati all'intelligenza artificiale e ai carichi di lavoro degli agenti.
Monitoraggio specifico di agenti e ML: Registra ogni fase dell'esecuzione di un agente in un itinerario di controllo immutabile e profila continuamente i comportamenti degli agenti per rilevare deviazioni dalle norme stabilite.
AIOps, Gestione degli incidenti e del cambiamento: Utilizza AI/ML per prevedere potenziali problemi IT, identificare le cause principali e creare flussi di lavoro di risoluzione.
Loop di feedback sull'apprendimento chiuso: Integra la telemetria osservabile dagli agenti nelle opportunità in corso di realizzazione MLOps, abilitando la riconversione automatica del modello o la pronta rettifica.
Motore di osservabilità semantica: Integra l'osservabilità con il livello semantico per la contestualizzazione per consentire il rilevamento di anomalie semantiche nel comportamento degli agenti.
Livello di sicurezza e governance
Scopo: Questo livello incorpora Trust e sicurezza in tutta l'architettura proteggendo gli asset aziendali dalle minacce, gestendo i rischi e garantendo la conformità ai requisiti normativi. Comprende la gestione dell'identità, il rilevamento delle minacce, le misure di sicurezza specifiche di GRC e AI.
Cosa c'è di diverso rispetto a oggi: Il livello di sicurezza deve evolvere per gestire le nuove superfici di attacco presentate dai modelli e dagli agenti di intelligenza artificiale, ad esempio l'iniezione rapida e l'avvelenamento del modello. La gestione delle identità e degli accessi deve passare da controlli statici basati sui ruoli ad autorizzazioni dinamiche basate sugli intenti che vengono concesse just in time e revocate immediatamente dopo l'uso.
Capacità tecnologiche chiave:
Sicurezza di input/output e guardrail LLM: I guardrail aziendali sono stati applicati al prompt e al momento della risposta per bloccare contenuti non sicuri, fughe di informazioni personali e jailbreak.
Architettura Zero Trust con verifica AI: Autenticazione continua ottimizzata dall'analisi comportamentale basata su AI, con accesso just in time granulare per gli agenti in base alla loro operazione specifica.
Framework di sicurezza degli agenti: Modelli di autorizzazione a grana fine, monitoraggio dei comportamenti dannosi e meccanismi di contenimento per interrompere in modo sicuro le attività degli agenti.
Sicurezza del modello AI: Una strategia di difesa approfondita con controlli in ogni fase del ciclo di vita del modello per proteggersi da avvelenamento, estrazione e attacchi contrari.
AI che protegge la privacy: Tecniche come l'apprendimento federato e la privacy differenziale per proteggere i dati sensibili.
GRC ottimizzato AI: Utilizzo di agenti AI per monitorare continuamente la conformità dell'architettura IT ai controlli.
Motore di policy come codice: Un'unica fonte di dati per definire le regole aziendali e i vincoli di conformità in un formato dichiarativo e leggibile dai computer per impostare guardrail per il comportamento degli agenti.
Continuo Red-Teaming: Test automatici e in corso dei modelli e degli agenti di intelligenza artificiale per identificare le vulnerabilità prima che gli aggressori le sfruttino.
Roadmap architetturale di riferimento per l'azienda agente
La trasformazione in Agentic Enterprise richiede di seguire un journey in più fasi, impostando le basi tecnologiche e creando al contempo un valore aziendale tangibile (vedere la Figura 3 di seguito). Sebbene la roadmap precisa dipenda dalla strategia, dalla cultura, dal modello di governance AI e dal punto di partenza dell'architettura IT dell'azienda, la maggior parte delle organizzazioni dovrebbe adottare un approccio scaglionato poiché i continui investimenti IT potenziano gli agenti con una portata, una complessità e una creazione di valore crescenti. Il modello di maturità agenti di Salesforce offre alle aziende un utile framework di livelli di maturità per la strategia della trasformazione, descrivendo come le capacità degli agenti possono crescere dal recupero di informazioni di base (livello 1) all'orchestrazione di flussi di lavoro multi-dominio più complessi (livello 2 e 3) e multi-agente (livello 4). Per progredire con successo in queste fasi, l'architettura IT deve evolvere in modo concertato, con investimenti mirati in diversi livelli dell'architettura in ogni fase per soddisfare le esigenze delle distribuzioni più complesse e di valore più elevato degli agenti AI. Per ogni livello di maturità, le capacità tecnologiche specifiche richieste negli 11 livelli architettonici sono identificate con una logica per l'investimento.
Livello di maturità 1: Agenti di recupero delle informazioni
Obiettivo e valore aziendale: Migliorare la produttività dei lavoratori fornendo un'interfaccia conversazionale affidabile per interrogare Enterprise Knowledge. Il valore principale è aumentare le capacità umane, non sostituirle. Questi agenti assistono le persone recuperando informazioni e consigliando azioni.
Focus architettonico: L'obiettivo è creare una base di dati sicura e affidabile e i componenti AI di base necessari per il recupero delle informazioni. Governance e osservabilità sono fondamentali fin dal primo giorno per creare Trust tra gli utenti e controllare i costi.
Investimenti tecnologici chiave (figura 4):
In questa fase, l'IT dovrebbe concentrarsi sulla creazione di una pipeline affidabile da dati ad agenti e di altre funzionalità di base. Le tecnologie nel Data Layer, ad esempio VectorDB, sono essenziali per abilitare le tecniche di generazione aumentata di recupero (RAG) che supportano gli agenti di recupero delle informazioni. Questo è abbinato a un livello AI/ML centralizzato che include un gateway modello per un accesso sicuro e a costi controllati ai modelli di base e un AI Trust, Safety & Governance Hub per monitorare la presenza di output non sicuri e garantire la conformità. La gestione dei dati master e i glossari aziendali nel livellosemantico sono fondamentali per consentire agli agenti di recuperare informazioni accurate. Le funzionalità di runtime e ciclo di vita degli agenti sono necessarie per garantire che gli agenti creati in questa fase possano essere modificati ed estesi per i casi d'uso futuri. Per offrire valore e creare fiducia negli utenti, il livello Experience deve incorporare un'interfaccia utente Attribution & Transparency (Attribuzione e trasparenza), che rende spiegabili le risposte degli agenti visualizzando le citazioni e le fonti delle relative informazioni. Gli investimenti fondamentali in osservabilità e sicurezza (ad esempio zeroTrust) devono iniziare l'implementazione per preparare il terreno per le future distribuzioni degli agenti.
Livello di maturità 2: Orchestrazione semplice, agenti di dominio singolo
Obiettivo e valore aziendale: Automatizzare le operazioni di routine e orchestrare flussi di lavoro a bassa complessità all'interno di un unico dominio aziendale. Ciò migliora l'efficienza operativa e riduce il lavoro manuale, consentendo ai lavoratori umani di concentrarsi su attività di valore superiore.
Focus architettonico: Il cambiamento architetturale chiave è il recupero dei dati di sola lettura all'esecuzione di azioni. Ciò richiede l'avvio di un journey più lungo per modularizzare le funzionalità delle applicazioni (spesso esposte come API) a cui gli agenti possono accedere, l'implementazione di una sicurezza efficace per le azioni degli agenti e la creazione di funzionalità di sviluppo semantico e AI per migliorare l'intelligenza degli agenti AI.
Investimenti tecnologici chiave (figura 5):
Gli investimenti si concentrano tematicamente sul consentire agli agenti dell'intelligenza artificiale di agire con una governance adeguata. Il livello Applications and App Services subisce un cambiamento critico, poiché la logica aziendale monolitica viene scomposta in servizi applicativi modulari (API) che gli agenti possono chiamare. Questi sono protetti dai guardrail dell'app per evitare che gli agenti sovraccarichino i sistemi, con integrazioni negli strumenti di osservabilità. Per potenziare questi agenti, è necessario investire nel ragionamento degli agenti, nei protocolli degli strumenti (ad esempio MCP) e nei registri. Ciò introduce nuovi rischi, rendendo un Framework sicurezza agente dedicato e un modello AI e funzionalità di monitoraggio degli agenti essenziali per la governance e la sicurezza. Infine, le aziende possono iniziare a scalare le funzionalità AI/ML per i modelli personalizzati per potenziare questi agenti che si occupano di operazioni specifiche del dominio.
Livello di maturità 3: Agenti dell'orchestrazione multi-dominio
Obiettivo e valore aziendale:Automatizzare processi aziendali complessi e completi che si estendono oltre i confini organizzativi e funzionali (ad esempio "preventivo a cassa", "lead to order"). Il valore sta nello scomporre i silos, accelerare i tempi dei cicli dei processi e ottimizzare intere catene del valore all'interno dell'azienda. Sono possibili cambiamenti più elevati nella produttività dei lavoratori umani poiché le barriere organizzative iniziano a crollare e gli esseri umani iniziano a concentrarsi maggiormente sulla supervisione degli agenti AI.
Focus architettonico: L'architettura deve ora supportare questioni tecniche trasversali. Una comprensione semantica condivisa in tutta l'azienda, un motore di orchestrazione centralizzato per la governance e un tessuto di integrazione disaccoppiato e basato sugli eventi diventano gli elementi abilitanti critici.
Investimenti tecnologici chiave (figura 6):
Gli investimenti tecnologici sono focalizzati tematicamente sull'orchestrazione di processi su scala aziendale tra persone, agenti e sistemi deterministici. L'Enterprise Orchestration Layer diventa il fulcro dell'investimento, richiedendo un motore di esecuzione del flusso di lavoro per coordinare le attività e un motore Process Governance & Constraint Engine per applicare le regole aziendali e le policy di conformità ai processi in volo poiché gli agenti lavorano in più domini, spesso con policy e definizioni semantiche diverse. Questo coordinamento tra domini è possibile solo con un livello semantico maturo dotato di un **Enterprise Knowledge Graph (**EKG), che crea una comprensione condivisa del modo in cui le entità aziendali si correlano tra i domini. Il livello di integrazione deve evolversi per includere un Framework di integrazione basato sugli eventi, che utilizza una dorsale streaming per disaccoppiare i sistemi e abilitare la comunicazione resiliente e asincrona tipica dei processi aziendali di lunga durata. Dato il valore più elevato di questi flussi di lavoro e i rischi associati, diventano fondamentali ulteriori investimenti nella sicurezza e nel monitoraggio (ad esempio AIOps, policy-as-code). Infine, ulteriori investimenti devono essere effettuati nel livello Applicazione e Servizi (ad esempio, LCNC abilitato per AI, esperienze utente più dinamiche e multimodali) man mano che gli utenti umani iniziano a monitorare e collaborare con agenti AI più capaci.
Livello di maturità 4: Multi-agente, orchestrazione multi-dominio
Obiettivo e valore aziendale: Riprogettare e ottimizzare le operazioni aziendali in tutti i domini per favorire cambiamenti di produttività ed efficienza. Questa fase consente di creare una simulazione digitale olistica (digital twin) dell'azienda per il miglioramento continuo e la pianificazione strategica nei principali processi aziendali e flussi di lavoro.
Focus architettonico: La fase finale si concentra sull'abilitazione di una collaborazione dinamica ed emergente tra gli agenti. Ciò richiede protocolli di comunicazione A2A avanzati, capacità di autoapprendimento degli agenti, ulteriori investimenti nella maturazione dei livelli Orchestrazione, Dati e Semantica e un'infrastruttura completamente dinamica e self-healing per supportare le crescenti esigenze dei carichi di lavoro di intelligenza artificiale dinamici man mano che gli agenti vengono ridimensionati in tutta l'azienda.
Investimenti tecnologici chiave (figura 7):
Gli investimenti tematici si concentrano sulla creazione di un sistema autonomo e automigliorante. Nel livello agente, un Framework Autoriflessione e adattamento fornisce un meccanismo che consente a un agente di analizzare i propri registri delle prestazioni e attivare miglioramenti. Questo apprendimento è supportato dall'IT Operations and Observability Layer, che implementa un Closed Learning Feedback Loop per reinserire automaticamente i dati osservabili nelle pipeline MLOps per la riaddestramento del modello, che può anche sfruttare la generazione di dati sintetici per ottimizzare ulteriormente le prestazioni del modello. Con le reti di agenti distribuite tra i reparti e le attività di modularizzazione delle applicazioni in corso, diventano necessari ulteriori investimenti nella sicurezza e, soprattutto, un catalogo di funzionalità componibile per consentire agli agenti di comporre dinamicamente le funzionalità per risolvere operazioni più astratte e di valore più elevato. Questi processi sono tutti orchestrati e ottimizzati tramite una nuova funzionalità Digital Twin Process Modeling che utilizza dati in tempo reale per creare simulazioni per l'analisi "what-if" e l'ottimizzazione predittiva, consentendo all'azienda di testare e distribuire in modo sicuro nuove distribuzioni agentiche.
Conclusione
La roadmap verso un'azienda agente segue un'evoluzione dell'architettura IT. Gli architetti Enterprise saranno i driver cruciali di questa trasformazione, guidando le decisioni di investimento critiche, insieme ad altri partner nel business e nell'IT, necessarie all'organizzazione per realizzare il valore dalle nuove capacità aziendali dell'azienda Agentic Enterprise.
We use cookies on our website to improve website performance, to analyze website usage and to tailor content and offers to your interests.
Advertising and functional cookies are only placed with your consent. By clicking “Accept All Cookies”, you consent to us placing these cookies. By clicking “Do Not Accept”, you reject the usage of such cookies. We always place required cookies that do not require consent, which are necessary for the website to work properly.
For more information about the different cookies we are using, read the Privacy Statement. To change your cookie settings and preferences, click the Cookie Consent Manager button.
Cookie Consent Manager
General Information
Required Cookies
Functional Cookies
Advertising Cookies
General Information
We use three kinds of cookies on our websites: required, functional, and advertising. You can choose whether functional and advertising cookies apply. Click on the different cookie categories to find out more about each category and to change the default settings.
Privacy Statement
Required Cookies
Always Active
Required cookies are necessary for basic website functionality. Some examples include: session cookies needed to transmit the website, authentication cookies, and security cookies.
Functional Cookies
Functional cookies enhance functions, performance, and services on the website. Some examples include: cookies used to analyze site traffic, cookies used for market research, and cookies used to display advertising that is not directed to a particular individual.
Advertising Cookies
Advertising cookies track activity across websites in order to understand a viewer’s interests, and direct them specific marketing. Some examples include: cookies used for remarketing, or interest-based advertising.