COME FUNZIONA L'AGENTE AI?
- Star Consulting

- 23 set
- Tempo di lettura: 6 min

Come Star Consulting lavoriamo tutti i giorni su dati, modelli e processi decisionali.
Per questo guardiamo con interesse agli AI agent di nuova generazione: non solo conversano, ma agiscono su strumenti esterni, orchestrano ricerche, producono deliverable pronti all’uso.
Vogliamo fornirvi un approfondimento sugli agenti AI, in pratica come costruire assistenti e automatizzare compiti conoscitivi e operativi.
Che cos’è un Agente basato su AI?
La documentazione ufficiale lo definisce un agente “multi-skill” capace di passare dall’analisi dati alla ricerca live sul web, dalla scrittura di report e presentazioni alla costruzione di app e siti, fino all’orchestrazione di workflow con connettori verso tool esterni.
Il punto non è l’ennesimo “prompt migliore”, ma l’integrazione di più azioni in un unico flusso: raccogliere, verificare, trasformare e consegnare risultati in formati utilizzabili (PPT/PDF, dashboard, app web).
Perché interessa davvero chi fa sport trading?
Nel mondo dello sport la velocità operativa è importante ma non basta: serve tracciabilità.
Uno strumento che unisce navigazione in tempo reale, sintesi strutturata e output presentabili riduce l’attrito tra domanda analitica e decisione.
L'Agente ci porta in questa dimensione “end-to-end”: dall’idea al risultato, senza dover passare ogni volta da un altro software per impaginare o incollare grafici.
In chiave sport trading ciò significa poter iterare dossier pre-evento, schede squadra, briefing su arbitri o trend di lega con una cadenza sostenuta, mantenendo memoria del percorso informativo.
Non è un dettaglio di marketing ma un cambio di paradigma: l’agente non solo “scrive”, sceglie fonti, le organizza e produce materiali in un formato che possiamo condividere internamente, archiviare e versionare.
Questo consente un ciclo di apprendimento più stretto: domanda → evidenze → decisione → post-mortem, con gli stessi materiali già pronti per il back-testing.
Come lavora l'agente AI?
Parliamo della ricerca con browsing live e la produzione di report.
Diverse fonti recenti mettono nero su bianco che l'Agente può estrarre contenuti aggiornati dal web, organizzare citazioni, costruire sintesi con tabelle e visual, e generare direttamente un deck o un PDF.
È il ponte fra il mondo frammentato delle fonti e un documento che unisce narrazione, evidenze e limiti.
Nel quotidiano significa passare da un’ipotesi (“la squadra X ha statisticamente una fase di "calando" nell’ultimo terzo di gara”) a un memo con finestre temporali, definizioni coerenti e riferimenti primari, invece di una lista di link.
Un altro punto chiave, spesso trascurato: workflow e integrazioni.
L’agente può collegarsi a servizi di terze parti (database di dati sportivi), programmare consegne ricorrenti e orchestrare piccole pipeline: non un sostituto dei nostri ETL, ma uno strato utile per task informativi e operativi a bassa complessità, dove la frizione di “mettere insieme tre strumenti” scoraggia l’automazione.
Nel contesto di un reparto analisi, questo abilita cicli di aggiornamento di brief “leggeri” senza chiamare in causa ogni volta gli sviluppatori.
Adottare l'Agentenon rende superflua la metodologia: la rafforza.
La qualità dipende da perimetro, fonti, finestre temporali e formato d’uscita.
Budget di token e impatti operativi
Immaginiamo di voler generare un dossier pre-match entro 24 ore, con aggiornamenti “just-in-time” su indisponibilità, meteo e segnali di mercato.
La differenza rispetto a una “ricerca normale” – una singola query con poche fonti e una risposta una tantum – è che un agente fa più passaggi: pianifica le sottodomande, visita molte pagine, normalizza i contenuti, li confronta, poi sintetizza.
Ogni passaggio consuma token, cioè unità di calcolo usate sia per leggere/inglobare testo (input) sia per scrivere ragionamenti e output (output).
Più fonti, più passi e più revisioni significano più token, con impatti su costo, latenza e quote del piano che si utilizza.
Come si imposta, in pratica.
Prima si definisce la consegna: una pagina di executive “leggibile in 5 minuti” più un documento esteso.
Si fissa un perimetro informativo (finestre temporali, indicatori, tipologie di fonti ammesse) e si stabilisce un budget di token per fase.
Un impianto tipico prevede:
1) una passata di scouting per capire cosa c’è,
2) una passata di ingest controllato delle sole fonti pertinenti,
3) un momento di consolidamento in cui l’agente evidenzia divergenze e lacune,
4) la sintesi in due formati (executive e dossier),
5) un refresh mirato a ridosso del match.
Ogni blocco ha un tetto di token; se lo si supera, l’agente deve fermarsi o chiedere di ridurre il campo.
Perché il budget è cruciale?
Perché la lettura profonda è “tokenizzata”.
Un articolo lungo può valere anche 1.000–2.000 token dopo la pulizia; trenta fonti già significano decine di migliaia di token solo di ingest.
A questo si sommano i token di ragionamento (il modello mantiene nel contesto parti rilevanti per confrontarle) e i token di output (i caratteri che leggete).
Nelle ricerche normali si rimane spesso sotto le poche migliaia di token complessivi; in un ciclo agentico con browsing, consolidamento e doppia consegna si arriva facilmente nell’ordine delle decine di migliaia di token.
Questo si traduce in: tempi più lunghi, costi più alti per run e maggior probabilità di incappare in limiti di piano se si lanciano molte indagini in parallelo.
Facciamo un conto esemplificativo, puramente indicativo.
Supponete che l’agente selezioni 20 pagine utili e, dopo deduplica, ne inglobi 1.500 token ciascuna. Sono ~30.000 token di ingest.
Aggiungiamo 8.000 token di ragionamento distribuiti tra consolidamento e verifica, più 2.000 token di output (executive + dossier compresso): siamo intorno a 40.000 token.
Se si programma un refresh a T-6 ore con altre 10 fonti recenti (altri ~15.000 token) e una chiosa finale, il totale può superare 55.000 token. La stessa analisi, svolta “a mano” con tre fonti e una singola risposta, raramente supera i 3.000–5.000 token.
La differenza è la profondità (e la tracciabilità) che l’agente offre, ma va messa a budget.
Questo ha implicazioni pratiche.
Primo, costo: più token = più spesa.
Conviene quindi adottare un filtro in due tempi: una scansione rapida e a basso costo per escludere fonti fuori tema, seguita dall’ingest solo delle pagine ad alta utilità.
Secondo, latenza: più token comportano tempi maggiori; per non perdere opportunità informative, l’agente deve segmentare il lavoro e consegnare prima l’executive, poi l’esteso.
Terzo, qualità: quando il budget è ampio, l’agente potrebbe sintetizzare “sommari di sommari”; senza regole chiare, si introduce rumore.
È preferibile imporre standard minimi (definizioni, finestre, criteri di esclusione) e pretendere note metodologiche su come sono state risolte le discrepanze tra fonti.
Nel nostro esempio, l’impostazione passo-passo con controllo dei token procede così.
All’avvio, l’agente crea un indice delle domande e una lista di fonti candidate.
Da lì, applica un pre-filtro leggero che usa pochi token: legge titoli, abstract, metadata e decide cosa vale la pena inglobare per intero.
Solo le fonti che soddisfano i criteri entrano nell’ingest profondo; le altre vengono archiviate come “di contorno”.
Concluso l’ingest, l’agente costruisce una matrice di confronti che non ripete tutto il testo ma conserva gli estratti indispensabili a sostenere le tesi, con citazione e data.
Quando trova cifre divergenti, non fa medie meccaniche: espone il perché (finestre diverse, definizioni non allineate, errori palesi) e segnala cosa servirebbe per dirimere il punto.
A quel momento, genera l’executive focalizzato su tesi, tre leve probanti e aree di incertezza; l’esteso rimane navigabile, con riferimenti e una breve nota metodologica.
Arrivati a T-6 ore, l’agente spende pochi token per verificare solo ciò che è instabile: indisponibilità, previsioni meteo, eventuali annunci ufficiali.
In caso di novità, aggiorna l’executive con un addendum datato, senza riscrivere l’intero dossier. Questo approccio “incrementale” mantiene il costo sotto controllo, perché evita di rilanciare ogni volta tutto l’ingest; e migliora l’affidabilità percepita, perché chi legge vede cosa è cambiato e perché.
Resta un punto di governance che spesso fa la differenza: bisogna riservare token alla fase di sintesi. Consumare tutto il budget nell’ingest significa arrivare alla fine con poco spazio per un ragionamento chiaro e per un output presentabile.
È prudente assegnare a priori una quota minima alla sintesi (ad esempio il 20–25% del budget totale) e imporre all’agente di rispettarla.
Allo stesso modo, conviene limitare la dimensione dei chunk testuali: porzioni troppo grandi aumentano il costo e riducono la precisione del recupero; porzioni troppo piccole frammentano il contesto e rendono la sintesi più fragile.
Trovare il compromesso è parte del lavoro.
Analizzare e saper padroneggiare l'Agente è una buona porta d’ingresso: capire di cosa si tratta, saper impostare un primo assistente e muoversi verso un modo di lavorare orientato al risultato, non al singolo prompt.
La piattaforma, per come è progettata, è particolarmente interessante quando serve chiudere il cerchio tra raccolta, verifica e presentazione, mantenendo il filo delle fonti.
Con le dovute cautele su costi, qualità e governance dei dati, può diventare un amplificatore del lavoro analitico nei team di sport trading e investimenti, proprio come sta facendo il nostro team.
La nostra raccomandazione è semplice: partire da un caso d’uso circoscritto, definire standard minimi (fonti, finestre, formato), misurare tempo risparmiato e qualità dell’output, quindi scalare.
Gli agenti non sostituiscono la competenza: la rendono più veloce, più tracciabile, più condivisibile.
Ed è esattamente il tipo di leva che cerchiamo quando costruiamo processi robusti di analisi in ambito sportivo e finanziario.
























