Noticias

Lo último en agregación de contenido IA, APIs de noticias y automatización

Model Context Protocol: Un primo standard per gli agenti LLM

Anthropic ha introdotto il Model Context Protocol (MCP) per standardizzare l'integrazione tra agenti LLM e fonti di dati esterne, mirando a un'architettura unificata per l'accesso a file, API e strumenti con preservazione del contesto. Inizialmente poco notato, il protocollo ha guadagnato ampia attenzione e adozione da parte di OpenAI e Google nel marzo 2025, con le prime implementazioni in ambienti di sviluppo e offerte cloud.
Fuente original →

Padroneggiare i server MCP con Spring Boot e AI - entwickler.de

Il Model Context Protocol (MCP) standardizza lo scambio di contesto per applicazioni AI, connettendo strumenti e modelli indipendentemente da piattaforma e linguaggio. Spring AI integra l'MCP, offrendo agli sviluppatori Java un modo efficiente per consumare e creare server MCP all'interno delle applicazioni Spring Boot. L'articolo esplora le basi tecniche, le opzioni di deployment flessibile e l'integrazione pratica di server MCP, inclusi quelli basati su Node.js, in un ambiente Spring AI.
Fuente original →

Zhipu AI dalla Cina sviluppa il primo modello di IA specifico per OpenClaw

Zhipu AI, la startup cinese conosciuta anche come Z.ai, ha presentato GLM-5-Turbo, un modello di linguaggio di grandi dimensioni progettato specificamente per scenari OpenClaw, ossia complessi flussi di lavoro di agenti automatizzati. Questo modello si distingue per la sua ottimizzazione per compiti multi-agente e offre un costo API notevolmente inferiore rispetto ai principali concorrenti, posizionandosi come una soluzione specialistica nel dinamico mercato degli agenti IA.
Fuente original →

Sistemi AI più potenti con il Model Context Protocol (MCP)

I modelli di intelligenza artificiale, pur essendo estremamente capaci, non possono autonomamente eseguire azioni o accedere a servizi esterni come database o API. Il Model Context Protocol (MCP), sviluppato da Anthropic, emerge come soluzione aperta e standardizzata per consentire ai modelli AI di interagire con strumenti e dati esterni. Questo protocollo definisce tre ruoli chiave – il modello, il server MCP e l'host – per facilitare tale comunicazione, superando le limitazioni delle soluzioni proprietarie come "Function Calling" di OpenAI.
Fuente original →

Agenti AI: Oltre l'hype, tra potenziale e insidie

Gli agenti AI rappresentano un'evoluzione nel campo dell'intelligenza artificiale, superando il semplice prompt engineering per consentire interazioni più complesse e autonome con i modelli linguistici di grandi dimensioni (LLM). Nonostante le loro promettenti capacità di automatizzare task complessi, permangono sfide significative legate all'affidabilità e al determinismo, rendendo il controllo umano indispensabile. È cruciale distinguere il reale potenziale dall'eccessivo "hype" che spesso circonda le nuove tecnologie AI.
Fuente original →

AI, gli small language models fanno il vero lavoro nelle aziende: ecco come

Mentre i grandi modelli linguistici dominano le discussioni e i benchmark, nelle aziende sono gli small language models (SLM) a guidare la trasformazione concreta. Questi sistemi più piccoli, veloci ed economici operano in "catene di montaggio digitali", gestendo milioni di richieste su dati proprietari con costi e latenze sotto controllo.
Fuente original →

Modelli linguistici specifici di dominio: la nuova frontiera dell'AI per le TLC

I modelli linguistici specifici di dominio (DSLM) rappresentano un'applicazione innovativa dell'intelligenza artificiale, progettata per operare in ambienti aziendali e pubblici sicuri, locali o su cloud privati. Questi sistemi sono specializzati nella generazione di contenuti e conoscenza basati su dati commerciali, tecnici e procedurali, focalizzandosi su specifici contesti verticali nel rispetto della sovranità e riservatezza dei dati. Offrono precisione e sicurezza essenziali per settori ad alta regolamentazione come le telecomunicazioni.
Fuente original →

Miglioramenti all'API di fine-tuning ed espansione del programma modelli personalizzati di OpenAI

OpenAI ha introdotto nuove funzionalità per la sua API di fine-tuning, offrendo agli sviluppatori maggiore controllo sulla personalizzazione dei modelli e migliorando l'efficienza. L'azienda ha inoltre ampliato il suo programma per modelli personalizzati, includendo il fine-tuning assistito e la possibilità di addestrare modelli completamente su misura, permettendo alle organizzazioni di creare soluzioni AI altamente specializzate con l'aiuto di esperti e dati proprietari. Queste innovazioni mirano a ottimizzare le prestazioni, la precisione e l'efficacia economica delle implementazioni AI.
Fuente original →

Anthropic lancia Claude Sonnet 4.6 con finestra di contesto da un milione di token

Anthropic ha presentato Claude Sonnet 4.6, un aggiornamento significativo del suo modello intermedio che riduce notevolmente il divario di prestazioni con i modelli Opus, mantenendo invariato il costo. Il nuovo modello, disponibile di default su claude.ai e con una finestra di contesto da un milione di token in beta, eccelle in compiti come il codage autonomo e il ragionamento su contesto lungo. Inoltre, migliora la resistenza agli attacchi di prompt injection e raggiunge prestazioni quasi umane in diverse applicazioni complesse.
Fuente original →

RAG come svolta tecnologica: i motivi del fallimento dei sistemi - Handelsblatt Live

La Retrieval Augmented Generation (RAG) promette di rivoluzionare la ricerca documentale permettendo ai modelli linguistici di interrogare vasti archivi con domande libere. Tuttavia, l'iniziale euforia è stata smorzata dalla consapevolezza che la performance dei sistemi RAG degrada con la scarsa qualità dei documenti sorgente. Per garantire il successo futuro, è cruciale ottimizzare i documenti in modo che siano interpretabili non solo dagli esseri umani, ma anche dall'intelligenza artificiale, adottando formattazioni e metadati specifici.
Fuente original →

Come il RAG influenza la protezione dei dati nei sistemi di intelligenza artificiale

La Generazione Aumentata dal Recupero (RAG) migliora l'affidabilità e l'uso di LLM con dati interni, ma introduce nuove sfide per la protezione dei dati. Le autorità tedesche riconoscono il potenziale del RAG per la sovranità digitale e la privacy by design, ma sottolineano la persistenza di rischi come la trasparenza e la gestione dei dati personali, richiedendo misure rigorose e basi giuridiche solide.
Fuente original →

IA e sviluppo software: il bilancio del Cigref

Il think tank del Cigref, dedicato all'IA generativa nell'ingegneria del software, ha pubblicato il bilancio dei suoi lavori per il 2025. Creato nel 2024 con cinque gruppi di lavoro, poi ampliato a sei nel 2025, ha esaminato temi come il "sviluppatore aumentato", il "vibe coding" e la modernizzazione delle applicazioni. I risultati evidenziano guadagni di produttività fino al 20%, l'emergere di nuovi strumenti e approcci, e la necessità di segmentare le applicazioni di grandi dimensioni per l'intervento dell'IA.
Fuente original →

Il formato Skill.md semplifica la portabilità delle competenze degli agenti IA

OpenAI e Anthropic hanno adottato un formato comune, Skill.md, per descrivere le competenze degli agenti IA, facilitando la portabilità delle capacità automatizzate tra ambienti concorrenti. Questo manifest Markdown, arricchito da metadati YAML, documenta funzioni, dipendenze e condizioni di esecuzione, trasformando strumenti specifici in componenti riutilizzabili e versionati, simili a pacchetti software. Tale standardizzazione permette agli agenti di operare in modo più stabile e duraturo in ambienti contenitorizzati, riducendo la dipendenza da un'unica piattaforma.
Fuente original →

Padroneggiare l'ingegneria del contesto per lo sviluppo basato sull'IA

L'ingegneria dei prompt si rivela inefficace su larga scala a causa delle finestre di contesto finite che impongono compromessi impossibili, generando allucinazioni in oltre il 60% delle implementazioni in produzione. Questa guida illustra pattern sistematici di architettura del contesto, come il recupero stratificato delle informazioni, la gestione dinamica dei token e l'integrazione multimodale. Tali approcci sono stati validati su sistemi di supporto aziendali che elaborano oltre 500.000 file contemporaneamente.
Fuente original →

Integrare agenti AI generativa OCI con app Oracle APEX per esperienze conversazionali RAG

Questo articolo esplora l'integrazione degli OCI Generative AI Agents con le applicazioni Oracle APEX per creare esperienze conversazionali avanzate basate su RAG. Tale sinergia permette alle app di fornire risposte precise e contestualizzate, attingendo a dati aziendali residenti in OCI Object Storage o Oracle Database 23ai. L'obiettivo è migliorare l'interazione utente attraverso interfacce di chat intelligenti e guidate dall'intelligenza artificiale.
Fuente original →

Prompt di IA: L'ingegneria del contesto è il futuro

L'ingegneria dei prompt, la formulazione attenta degli input per l'IA, è stata una tendenza dominante, ma ha generato un sovraccarico di consigli superficiali. Il futuro dell'interazione con l'IA si sposta verso l'ingegneria del contesto, un approccio più sofisticato che fornisce all'IA informazioni di base complete per ottenere risultati precisi e significativi. Questo metodo promette di aumentare la produttività e supportare l'autonomia tecnologica, come dimostrato dai guadagni di efficienza nel settore legale e da studi sulle migliori pratiche d'uso dell'IA.
Fuente original →

Modelli Linguistici Ricorsivi (RLM): dal MIT a RLMEnv di Prime Intellect per Agenti LLM a Lungo Orizzonte

I Modelli Linguistici Ricorsivi (RLM) mirano a superare il tradizionale compromesso tra lunghezza del contesto, accuratezza e costo nei grandi modelli linguistici (LLM). Invece di elaborare un prompt esteso in una singola passata, gli RLM trattano l'input come un ambiente esterno, ispezionandolo in modo ricorsivo tramite codice su segmenti più piccoli. Prime Intellect ha sviluppato RLMEnv, un ambiente basato su REPL, che permette agli agenti LLM di gestire contesti ampi attraverso la sintesi di programmi e l'utilizzo di modelli più piccoli, dimostrando significativi miglioramenti nell'accuratezza su complessi benchmark di ragionamento e contesto lungo.
Fuente original →

RAG non è morto, ma l'ingegneria del contesto è la nuova tendenza nel campo dell'AI

Sebbene il termine RAG (Retrieval-Augmented Generation) sia caduto in disuso tra gli sviluppatori, le sue funzionalità sono ora incluse nel più ampio concetto di "ingegneria del contesto", che comprende anche il Model Context Protocol (MCP). Aziende come Contextual AI stanno sviluppando nuovi strumenti, come Agent Composer, una piattaforma di orchestrazione per la creazione di agenti AI aziendali che gestisce il contesto e si integra con molteplici fonti di dati. Questo approccio fornisce una soluzione centralizzata e sicura per lo sviluppo di agenti personalizzati, rispondendo alle esigenze di sicurezza e governance delle imprese.
Fuente original →

Valutazione dei risultati per RAG: metriche e migliori pratiche - IBM

La valutazione riproducibile e sistematica delle soluzioni RAG è cruciale per il successo, affrontando la complessità intrinseca dei Large Language Models e delle loro componenti. L'articolo esplora diverse metriche e approcci, inclusi LLMaaJ (LLM as a Judge) che correla bene con il giudizio umano, e dettaglia sfide e metriche specifiche per i componenti di recupero e generazione, come MRR, NDCG@k e MAP, fornendo un quadro completo per la valutazione di questi sistemi avanzati.
Fuente original →
406 articles · Página 18 of 21