Torna a tutti gli articoli

Agentic Experience e Composable Architecture: progettare dati e API per un web dove l’80% del traffico non è umano

Il cambio di paradigma: dagli utenti agli agenti

Per anni abbiamo ottimizzato siti e piattaforme pensando a una traiettoria lineare: l’utente visita, naviga, confronta, decide. In un mondo agentico, una quota crescente del percorso viene delegata. Le persone non “navigano” sempre direttamente, ma conversano con un sistema che esplora fonti e opzioni, sintetizza, seleziona e, in alcuni casi, compie azioni concrete.

Questo cambio di prospettiva ha due implicazioni immediate.

La prima è che la tua interfaccia non è solo la UI, motivo per cui diventa fondamentale anche il modo in cui esponi dati e funzionalità a sistemi automatici: API, schemi, regole di accesso, qualità dei metadati.

La seconda è che non basta “esserci” online o in piattaforma. Devi essere comprensibile per chi decide e opera al posto dell’utente, perché una parte delle scelte verrà mediata da agenti che privilegiano ciò che è leggibile, affidabile e interoperabile.

Dual design: UI per le persone, AX per gli agenti

Quando l’interazione diventa conversazionale e mediata da agenti, emerge un’esigenza di design “doppia”: una parte riguarda l’utente che ancora interagisce direttamente; l’altra riguarda l’agente che agisce al suo posto.

Da un lato quindi c’è la UI (Human Experience), che resta importante, ma tende a diventare più essenziale. Deve essere chiara, fluida, orientata all’obiettivo, capace di accompagnare l’utente nelle decisioni e nelle eccezioni.

Dall’altro lato cresce l’importanza della AX (Agent Experience), ovvero lo strato che permette a un agente di capire cosa può fare, con quali limiti, con quali dati, e con quale affidabilità. Qui non conta l’estetica: contano struttura, semantica, contratti e stabilità.

In concreto, l’AX si gioca su alcuni elementi chiave:

  • API pulite e versionate, con contratti chiari e comportamenti prevedibili.
  • Dati strutturati e coerenti nel tempo (stessa entità, stessa rappresentazione).
  • Metadati e tassonomie che rendono i contenuti interpretabili, senza ambiguità.
  • Osservabilità: sapere cosa è stato chiamato, quando, con quale esito e con quale costo.

Se progetti solo la UI, rischi di ottimizzare una parte dell’esperienza e di perdere rilevanza in quella che cresce.

Dalla SEO alla GEO: essere “scelti” significa essere “letti”

La SEO nasce per aiutare i motori di ricerca a capire contenuti e pagine. La GEO (Generative Engine Optimization) sposta il baricentro, poichè in questo caso non si tratta solo di essere indicizzati, ma anche di rendere le informazioni utilizzabili da motori generativi e agenti.

La GEO è quindi un requisito architetturale, perché riguarda come i dati sono esposti, descritti e governati.

  • Se i dati non sono esposti in modo semanticamente leggibile, un agente non li userà.
  • Se non esiste un accesso affidabile e governato, un agente non potrà agire.
  • Se la semantica è ambigua o incoerente, l’agente commetterà errori o, più spesso, sceglierà alternative più semplici da interpretare.

Il rischio, a quel punto, è l’invisibilità digitale: non sparisci dalla rete, ma diventi irrilevante per chi media le scelte.

La soluzione: data governance orientata agli agenti

Quando diciamo “data governance”, spesso pensiamo a compliance, accessi e qualità, ma in un contesto agentico serve una governance che faccia anche un’altra cosa: rendere i dati parlabili, ovvero costruire le condizioni perché un agente possa interpretare correttamente il contesto e usare i dati senza generare ambiguità o comportamenti inattesi. In pratica, una governance orientata agli agenti comprende:

  • un glossario e una tassonomia condivisa (nomi, entità, relazioni);
  • coerenza tra sistemi (stesso concetto, stessa rappresentazione);
  • metadati utili al ragionamento (fonte, aggiornamento, affidabilità);
  • policy di accesso e responsabilità (chi può leggere, scrivere, autorizzare);
  • audit e tracciabilità (cosa è stato usato per prendere una decisione).

MCP: standardizzare l’integrazione per evitare debito tecnico

Con più agenti e più strumenti, il rischio più comune è tornare all’accumulo, questa volta sulle integrazioni: connettori ad hoc, bridge improvvisati, dipendenze fragili. È lo stesso film, solo con attori nuovi.

Qui entra in gioco il Model Context Protocol (MCP), descritto come un modo per standardizzare l’accesso degli agenti a dati e strumenti, ridurre l’attrito e impedire che ogni nuova integrazione diventi un progetto a sé.

La standardizzazione vale proprio perché ogni integrazione fatta bene una volta non va rifatta quando arriva lo strumento successivo.

Guardrail: governance operativa e FinOps per l’AI a consumo

C’è un tema che molti sottovalutano: il modello economico cambia. Molta AI si paga a consumo, quindi token, chiamate e runtime hanno un costo diretto, e in un sistema di agenti che operano in autonomia la spesa può diventare volatile molto in fretta, perché un loop o un comportamento anomalo può consumare budget prima che qualcuno se ne accorga.

Per questo la governance non è solo una questione di qualità e compliance, ma anche e soprattutto di controllo operativo e finanziario. Alcuni guardrail diventano fondamentali:

  • budget cap e soglie di consumo per use case e per agenti;
  • rate limiting e controlli sulle chiamate;
  • kill switch come freno d’emergenza;
  • audit log per ricostruire decisioni e azioni;
  • human-in-the-loop nei punti critici (autorizzazioni, spese, cambi di stato).

Ed è proprio qui che possono entrare in gioco le FinOps.

I nuovi ruoli: skill debt e responsabilità

L’automazione non elimina lavoro: lo sposta. Quando gli agenti agiscono su processi reali, servono nuove responsabilità e questo introduce un tipo di debito meno visibile del debito tecnico: lo skill debt, cioè la distanza tra ciò che la tecnologia abilita e ciò che l’organizzazione sa governare.

Tre ruoli aiutano a chiarire la catena del valore:

  • Originator: definisce obiettivi, policy e criteri di successo. I nuovi ruoli: skill debt e responsabilità
  • Orchestrator: costruisce i workflow, collega sistemi, governa l’integrazione.
  • Evaluator: misura, verifica, monitora, corregge (qualità, sicurezza, costo).

Gestire questo skill debt è parte della soluzione poichè senza competenze e responsabilità, la tecnologia resta fragile e non scala.

Conclusione

Se l’interazione si sposta verso gli agenti, la domanda diventa molto concreta: i tuoi dati e le tue capability sono leggibili, interoperabili e governabili?

La GEO traduce questa trasformazione in scelte operative: progettare API, semantica e guardrail in modo che gli agenti possano lavorare con te, dentro processi reali e con costi sotto controllo.

In pratica, la differenza tra una demo e un sistema in produzione si misura su tre criteri: dati con semantica stabile, workflow end‑to‑end, governance su rischio e spesa. l’AI smette di essere un esperimento e diventa una capacità ripetibile. Quando uno di questi elementi manca, l’AI funziona in condizioni ideali ma si inceppa nell’uso reale.