Contenuto Partner
VB Staff
29 ottobre 2025
Presentato da Elastic
Mentre le organizzazioni si affrettano a implementare soluzioni di intelligenza artificiale agentica, l'accesso ai dati proprietari da ogni angolo e fessura sarà fondamentale.
Ormai, la maggior parte delle organizzazioni ha sentito parlare di IA agentica, sistemi che "pensano" raccogliendo autonomamente strumenti, dati e altre fonti di informazione per fornire una risposta. Ma ecco il problema: affidabilità e rilevanza dipendono dalla fornitura di un contesto accurato. Nella maggior parte delle imprese, questo contesto è disperso tra varie fonti di dati non strutturati, inclusi documenti, e-mail, applicazioni aziendali e feedback dei clienti.
Mentre le organizzazioni guardano al 2026, risolvere questo problema sarà la chiave per accelerare le implementazioni dell'IA agentica in tutto il mondo, afferma Ken Exner, chief product officer di Elastic.
"Le persone stanno iniziando a rendersi conto che per fare IA agentica correttamente, bisogna avere dati rilevanti", dice Exner. "La rilevanza è fondamentale nel contesto dell'IA agentica, perché quell'IA agisce per conto vostro. Quando le persone faticano a costruire applicazioni di IA, posso quasi garantirvi che il problema è la rilevanza."
Agenti ovunque
La sfida potrebbe entrare in un periodo decisivo, mentre le organizzazioni si affannano per ottenere un vantaggio competitivo o per creare nuove efficienze. Uno studio Deloitte prevede che entro il 2026, oltre il 60% delle grandi imprese avrà implementato l'IA agentica su larga scala, segnando un aumento significativo dalle fasi sperimentali all'implementazione mainstream. E il ricercatore Gartner prevede che entro la fine del 2026, il 40% di tutte le applicazioni aziendali incorporerà agenti specifici per le attività, rispetto a meno del 5% nel 2025. L'aggiunta di capacità di specializzazione delle attività evolve gli assistenti IA in agenti IA consapevoli del contesto.
Entra l'ingegneria del contesto
Il processo per inserire il contesto rilevante negli agenti al momento giusto è noto come ingegneria del contesto. Non solo garantisce che un'applicazione agentica abbia i dati di cui ha bisogno per fornire risposte accurate e approfondite, ma aiuta il modello linguistico di grandi dimensioni (LLM) a capire quali strumenti deve trovare e utilizzare per quei dati, e come chiamare quelle API.
Sebbene esistano ora standard open-source come il Model Context Protocol (MCP) che consentono agli LLM di connettersi e comunicare con dati esterni, ci sono poche piattaforme che permettono alle organizzazioni di costruire agenti IA precisi che utilizzano i propri dati e combinano recupero, governance e orchestrazione in un unico luogo, nativamente.
Elasticsearch è sempre stata una piattaforma leader per il cuore dell'ingegneria del contesto. Recentemente ha rilasciato una nuova funzionalità all'interno di Elasticsearch chiamata Agent Builder, che semplifica l'intero ciclo di vita operativo degli agenti:
- sviluppo
- configurazione
- esecuzione
- personalizzazione
- osservabilità
Come funziona Agent Builder
Agent Builder aiuta a costruire strumenti MCP su dati privati utilizzando varie tecniche, inclusa Elasticsearch Query Language, un linguaggio di query a pipeline per filtrare, trasformare e analizzare i dati, o la modellazione del flusso di lavoro. Gli utenti possono quindi prendere vari strumenti e combinarli con prompt e un LLM per costruire un agente.
Agent Builder offre un agente conversazionale configurabile e pronto all'uso che consente di chattare con i dati nell'indice, e offre anche agli utenti la possibilità di crearne uno da zero utilizzando vari strumenti e prompt sui dati privati.
"I dati sono il centro del nostro mondo in Elastic. Stiamo cercando di assicurarci che abbiate gli strumenti necessari per mettere al lavoro quei dati", spiega Exner. "Nel momento in cui aprite Agent Builder, lo puntate a un indice in Elasticsearch e potete iniziare a chattare con qualsiasi dato a cui lo connettete, qualsiasi dato indicizzato in Elasticsearch — o da fonti esterne tramite integrazioni."
L'ingegneria del contesto come disciplina
L'ingegneria dei prompt e del contesto sta diventando una disciplina. Non è qualcosa per cui è necessaria una laurea in informatica, ma emergeranno più corsi e migliori pratiche, perché c'è un'arte in tutto questo.
"Vogliamo rendere molto semplice fare questo", dice Exner. "La cosa che le persone dovranno capire è: come si guida l'automazione con l'IA? Questo è ciò che guiderà la produttività. Le persone che si concentreranno su questo vedranno più successo."
Oltre a ciò, emergeranno altri modelli di ingegneria del contesto. L'industria è passata dall'ingegneria dei prompt alla generazione aumentata dal recupero (RAG), dove le informazioni vengono passate all'LLM in una finestra di contesto, alle soluzioni MCP che aiutano gli LLM con la selezione degli strumenti. Ma non si fermerà qui.
"Data la velocità con cui le cose si stanno muovendo, vi garantisco che emergeranno nuovi modelli abbastanza rapidamente", afferma Exner. "Ci sarà ancora ingegneria del contesto, ma ci saranno nuovi modelli per come condividere i dati con un LLM, come farlo basare sulle informazioni corrette. E prevedo più modelli che renderanno possibile all'LLM di comprendere dati privati su cui non è stato addestrato."
Agent Builder è disponibile ora come anteprima tecnologica. Iniziate con una prova gratuita di Elastic Cloud e consultate la documentazione per Agent Builder qui.
Gli articoli sponsorizzati sono contenuti prodotti da un'azienda che paga per la pubblicazione o ha una relazione commerciale con VentureBeat, e sono sempre chiaramente contrassegnati. Per maggiori informazioni, contattate sales@venturebeat.com.