Nachrichten

Aktuelles zu KI-Content-Aggregation, News-APIs und Automatisierung

L'“ingegneria del contesto” in Silicon Valley: Karpathy decreta il tramonto del prompt-engineering

In Silicon Valley, l'“ingegneria del contesto” sta rapidamente eclissando il "prompt-engineering", grazie anche al supporto di figure influenti come Andrey Karpathy e il CEO di Shopify, Tobias Lütke. Questo approccio, definito "programmazione di atmosfera completamente nuova", è cruciale per il successo degli agenti AI, la cui emergenza è prevista per il 2025. L'ingegneria del contesto si concentra sulla fornitura di informazioni di sfondo complete e strumenti pertinenti ai Large Language Model (LLM), garantendo che abbiano tutto il necessario per risolvere problemi complessi in modo efficace.
Originalquelle →

PROMPTFLUX: Malware sfrutta l'API Gemini per mascherare il proprio codice

Google ha emesso un avviso riguardo a PROMPTFLUX, una nuova e sperimentale forma di malware identificata dal Google Threat Intelligence Group (GTIG) nel giugno 2025. Questa è la prima minaccia confermata che utilizza direttamente l'API Gemini per riscrivere il proprio codice VBScript in tempo reale, generando tecniche di offuscamento e aggiramento dinamiche. Ciò segna una svolta nell'uso dell'IA da parte dei cybercriminali, indicando un'escalation verso malware più adattabili e autonomi.
Originalquelle →

Function Calling: dal chatbot all'agente IA

I grandi modelli linguistici (LLM) sono limitati dai loro dati di addestramento statici, impedendo l'accesso a informazioni in tempo reale. Il Function Calling e gli agenti di intelligenza artificiale superano questa barriera, permettendo ai modelli di interagire con dati attuali e fonti esterne. Ciò trasforma le IA statiche in sistemi dinamici, capaci di reperire e utilizzare informazioni aggiornate per risposte più accurate e pertinenti.
Originalquelle →

L'IA vocale fallirà nelle banche se costruita come ChatGPT

L'implementazione dell'intelligenza artificiale vocale nelle banche fallirà se basata sulle architetture dei chatbot testuali come ChatGPT. Queste ultime soffrono di latenza elevata e costi insostenibili per interazioni in tempo reale. Per un'IA vocale produttiva e conforme alle normative, è necessaria una nuova architettura con elaborazione in streaming, memoria di sessione, orchestrazione dei prompt e livelli di conoscenza dedicati.
Originalquelle →

RAG è morto? L'ascesa dell'ingegneria del contesto e dei livelli semantici per l'IA agentica

La generazione aumentata da recupero (RAG), sebbene fondamentale per la prima ondata di IA aziendale, si sta rapidamente evolvendo in qualcosa di più complesso. Le organizzazioni hanno compreso che il semplice recupero di frammenti di testo non è sufficiente, richiedendo che il contesto sia governato, spiegabile e adattivo allo scopo di un agente. Questa evoluzione, ora spesso chiamata "ingegneria del contesto", integra grafi della conoscenza e livelli semantici per abilitare un'intelligenza artificiale agentica più responsabile e precisa.
Originalquelle →

Il luogo di lavoro connesso: Golem.de e la gestione dei dati con agenti digitali

Golem.de offre agli utenti due modalità di accesso: con pubblicità e tracciamento, accettando l'uso di cookie da parte di Golem e fino a 160 terze parti, o tramite l'abbonamento Golem Pur per una navigazione senza cookie analitici e pubblicitari. Il sito raccoglie dati personali, inclusi identificatori di dispositivo e comportamenti di utilizzo, per personalizzare contenuti e annunci, misurare le performance e migliorare l'esperienza utente, offrendo sempre la possibilità di revocare il consenso.
Originalquelle →

L'IA nel Facility Management: dai dati ai processi automatizzati. Intelligenza che muove.

Gli agenti di intelligenza artificiale stanno rivoluzionando il facility management, trasformando i dati della tecnologia edilizia, dell'energia e delle infrastrutture in processi operativi completamente automatizzati. A differenza dell'uso tradizionale dell'IA, che produce risposte verificate dagli utenti, questi agenti svolgono compiti in modo autonomo, passando direttamente dalle decisioni agli ordini e agli appuntamenti. Questo cambiamento riduce l'intervento umano, automatizzando intere catene di processo.
Originalquelle →

Quando l'IA si evolve rapidamente, raggiungi la sua frequenza dalla 'vetta'.

L'intelligenza artificiale sta vivendo un'evoluzione straordinariamente rapida, con cambiamenti più significativi nell'ultimo anno che nel decennio precedente. Concetti come RAG, MCP e agenti IA (Claude Code, OpenClaw) stanno ridefinendo l'interazione uomo-macchina e il modo in cui le applicazioni vengono sviluppate e utilizzate. In questo scenario dinamico, l'AMD AI Academy si propone di aiutare sviluppatori e utenti a rimanere al passo, sottolineando l'importanza crescente dell'hardware locale, come l'Agent Computer di AMD, per l'esecuzione efficiente e sicura degli agenti IA.
Originalquelle →

10 Concetti di IA Agente Spiegati in Meno di 10 Minuti

L'IA agente rappresenta sistemi capaci di prendere decisioni, agire, utilizzare strumenti e iterare verso un obiettivo con minima supervisione umana, distinguendosi dalle interazioni LLM tradizionali per la sua capacità di mantenere lo stato e interagire con strumenti esterni. La sua rapida adozione è alimentata dalla crescita delle capacità degli LLM, dall'espansione nell'uso aziendale e dalla disponibilità di framework open-source. L'architettura di questi sistemi si basa su LLM come motori di ragionamento, l'uso di strumenti tramite function calling e l'implementazione di sistemi di memoria.
Originalquelle →

L'IA agentica e l'ingegneria del contesto: la chiave per la rilevanza

Le soluzioni di intelligenza artificiale agentica, sistemi che agiscono autonomamente raccogliendo dati e strumenti, richiedono un contesto accurato e pertinente per garantire affidabilità ed efficacia. Questo contesto è spesso frammentato nelle aziende, ma l'ingegneria del contesto è la disciplina emergente che mira a risolvere tale problema. Elastic, con la sua piattaforma Elasticsearch e la nuova funzionalità Agent Builder, offre gli strumenti per aggregare e gestire i dati proprietari, semplificando lo sviluppo e l'implementazione di agenti AI precisi e basati sul contesto.
Originalquelle →

L'AI nel corporate banking: arriva la Retrieval-Augmented Generation (RAG)

Il settore del corporate banking, pur disponendo di un'immensa quantità di dati, si affida ancora a metodologie obsolete, in particolare nell'analisi dei bilanci. La Retrieval-Augmented Generation (RAG), che combina i Large Language Models (LLM) con meccanismi di recupero informazioni, è pronta a digitalizzare questo ambito. Questa tecnologia promette di rivoluzionare l'analisi finanziaria, fornendo risposte accurate e contestualizzate, superando le limitazioni dei soli LLM e portando le banche nell'era digitale.
Originalquelle →

Come preparare i dati per la Retrieval-Augmented Generation (RAG)

Per il successo dei sistemi RAG (Retrieval-Augmented Generation), che combinano l'IA generativa con i dati aziendali, la qualità dei dati e la pre-elaborazione sono fondamentali. Questo processo include attività come il filtraggio dei contenuti, la normalizzazione del testo, il chunking, il tagging dei metadati e la generazione di embedding. I team di sviluppo devono comprendere come il RAG rende i dati ricercabili, esplorare strategie di chunking efficaci e costruire una pipeline di dati robusta per l'embedding continuo in un database vettoriale.
Originalquelle →

Archivio di conoscenza privato: Cercare guide e documenti con IA locale

Trovare informazioni specifiche tra la mole di documenti personali archiviati può essere una sfida. Una soluzione innovativa impiega l'intelligenza artificiale locale e la tecnica Retrieval Augmented Generation (RAG) per trasformare il proprio archivio in un assistente personale. Questo approccio consente di interrogare i propri documenti in modo efficiente, garantendo privacy e risposte accurate direttamente sul proprio computer.
Originalquelle →

AGI a Zero-Shot: i termini essenziali dell'IA che devi conoscere

Questo glossario esplora i termini fondamentali dell'intelligenza artificiale generativa, da AGI a Zero-Shot, per aiutare a comprendere e partecipare alla discussione in evoluzione. Spiega concetti complessi in modo chiaro, essenziali per chiunque voglia approfondire il mondo dell'IA. L'articolo copre definizioni chiave, meccanismi e applicazioni pratiche di questi concetti.
Originalquelle →

Generazione aumentata con recupero (RAG) in Java: affrontare le allucinazioni degli LLM

La Generazione aumentata con recupero (RAG) emerge come una soluzione chiave per integrare i Large Language Models (LLM) nelle applicazioni Java, contrastando problemi come le allucinazioni e la mancanza di conoscenze di dominio specifiche. Questo approccio migliora l'accuratezza dei modelli fornendo dati esterni contestuali, eliminando la necessità di costosi e lunghi retraining del modello. RAG è particolarmente vantaggioso per l'EDP aziendale, consentendo l'uso di LLM open-source in modo efficiente e locale.
Originalquelle →

Come il RAG nell'IA influisce sulla protezione dei dati

La Retrieval-augmented Generation (RAG) migliora i Large Language Model (LLM) integrandoli con fonti di dati esterne, aumentando l'affidabilità e consentendo l'uso di dati interni aziendali. Sebbene promuova l'indipendenza digitale e la protezione dei dati per progettazione, le autorità di vigilanza avvertono che il RAG non elimina i rischi preesistenti dei LLM e richiede continue valutazioni sulla conformità, trasparenza e rispetto dei diritti degli interessati. La DSK tedesca ha pubblicato linee guida per un'implementazione sicura e conforme del RAG.
Originalquelle →

Da RAG a MCP: i fondamenti degli agenti IA per le aziende

Gli "agenti IA" stanno emergendo come una tecnologia trasformativa, promettendo di automatizzare processi, accelerare decisioni e rivoluzionare interi settori. Basati su grandi modelli linguistici e configurati tramite istruzioni precise, questi sistemi accedono autonomamente a dati aziendali e fonti esterne, comunicando tramite protocolli e interfacce. La loro capacità di agire in modo indipendente li rende strumenti potenti per l'innovazione aziendale.
Originalquelle →

Prestazioni RAG con contesti lunghi nei LLM - Databricks

La generazione aumentata da recupero (RAG) è l'uso più diffuso dell'IA generativa, che migliora la precisione dei modelli linguistici di grandi dimensioni (LLM) recuperando informazioni esterne. Con LLM che offrono contesti sempre più lunghi, Databricks ha condotto oltre 2.000 esperimenti su 13 modelli per valutare l'impatto sulla qualità delle applicazioni RAG. Lo studio rivela che l'aumento della lunghezza del contesto può migliorare la disponibilità di informazioni pertinenti, ma evidenzia anche punti di saturazione variabili e potenziali cali di performance in contesti molto estesi.
Originalquelle →

Cos'è ReWOO? Il framework IBM per ottimizzare i grandi modelli linguistici

ReWOO (Reasoning Without Observation) è un framework di IBM che rende i grandi modelli linguistici (LLM) più economici e precisi nelle applicazioni di ragionamento complesse. Separando il ragionamento dalle osservazioni esterne, permette agli LLM di pianificare internamente, riducendo significativamente l'uso di token (circa l'80% in meno rispetto a ReAct) e aumentando la robustezza in caso di guasti degli strumenti. Ciò rende i modelli di ragionamento economicamente più sostenibili su larga scala.
Originalquelle →

Agenti AI: una pietra miliare nello sviluppo software?

Il progresso dei modelli linguistici di grandi dimensioni (LLM) sta rallentando, spingendo l'innovazione verso i sistemi multi-agente. In un'intervista, gli esperti Paul Dubs e Christoph Henkelmann discutono come questi sistemi funzionano nella pratica, la loro distinzione dai workflow agentici e il futuro ruolo degli sviluppatori. Sottolineano la necessità di sfruttare la letteratura classica sugli agenti e dimostrano applicazioni pratiche con strumenti come Roo Code, evidenziando lo sviluppo iterativo e la delega tramite orchestratori.
Originalquelle →
406 articles · Seite 19 of 21