Actualités

Les dernières actualités sur l'agrégation de contenu IA, les API et l'automatisation

I problemi di sicurezza del Model Context Protocol

Il Model Context Protocol (MCP), rilasciato da Anthropic a fine 2024, è un protocollo in rapida diffusione che permette agli agenti di intelligenza artificiale di interagire direttamente con i servizi web, sostituendo le interfacce utente tradizionali per automatizzare compiti complessi. Nonostante il suo potenziale rivoluzionario, il MCP presenta significative lacune di sicurezza, non considerando adeguatamente molti aspetti critici e ignorando i rischi nelle sue implementazioni, rendendo i sistemi che lo utilizzano vulnerabili a accessi non autorizzati o manipolazioni. Alcuni fornitori stanno cercando di affrontare questi problemi con normative aggiuntive, ma l'ecosistema emergente richiede cautela.
Source originale →

Oltre il chatbot: progettare l'impresa agentica

Le attuali applicazioni di IA aziendale, spesso basate su sistemi RAG, si sono rivelate limitate a compiti passivi come la risposta a domande, incapaci di avviare o gestire processi di lavoro complessi. Per superare questa lacuna, è fondamentale adottare l'IA agentica, che permette ai modelli di perseguire obiettivi autonomamente attraverso passaggi iterativi e l'uso di strumenti. La trasformazione verso un'impresa agentica richiede una solida infrastruttura, la gestione dello stato, rigorosi sistemi di sicurezza e, soprattutto, una preparazione organizzativa per affrontare le ambiguità dei processi aziendali.
Source originale →

Agenti IA per automatizzare le attività chiave nella tua azienda

Gli agenti di intelligenza artificiale stanno evolvendo da semplici chatbot reattivi a entità autonome e intelligenti, capaci di eseguire azioni complesse. Grazie all'integrazione con sistemi aziendali tramite protocolli come MCP, questi agenti accedono a dati in tempo reale per automatizzare compiti critici come la gestione di reclami o processi di acquisto completi. Questa trasformazione mira a ottimizzare le operazioni, ridurre i costi e migliorare significativamente l'esperienza del cliente.
Source originale →

Azure AI Studio in anteprima: le prime impressioni su Microsoft GenAI

Azure AI Studio è la nuova piattaforma all-in-one di Microsoft, attualmente in fase di anteprima, pensata per lo sviluppo di applicazioni di intelligenza artificiale generativa (GenAI). Rivolta a sviluppatori esperti e data scientist, la piattaforma offre un vasto catalogo di modelli AI provenienti da diversi fornitori e strumenti avanzati per il fine-tuning tramite Retrieval Augmented Generation (RAG). Include inoltre funzionalità complete per la voce, il linguaggio, la visione e l'IA responsabile, promettendo di semplificare la creazione di copiloti e altre soluzioni basate sull'IA.
Source originale →

Modelli linguistici di grandi dimensioni: 12 alternative a GPT

Mentre ChatGPT è ampiamente riconosciuto come sinonimo di intelligenza artificiale generativa, il panorama dei modelli linguistici di grandi dimensioni (LLM) offre numerose alternative di alta qualità e specializzate. Questo articolo esplora dodici LLM meno noti, ma potenti, molti dei quali open-source, che possono essere cruciali per progetti di IA generativa, spaziando da soluzioni economiche a strumenti ottimizzati per la programmazione e la generazione di contenuti specifici. Ognuna di queste opzioni presenta caratteristiche uniche che possono renderla una scelta migliore di GPT per determinati scopi aziendali e di sviluppo.
Source originale →

L'intelligenza artificiale (IA): concetti fondamentali e il suo funzionamento secondo IBM

L'intelligenza artificiale (IA) è una tecnologia che permette a macchine e computer di emulare le capacità cognitive umane, come l'apprendimento, la risoluzione dei problemi e la creatività. In particolare, l'IA generativa, che si basa sul machine learning e sul deep learning, rappresenta l'avanguardia attuale, essendo capace di creare contenuti originali come testo, immagini e video. Questo articolo esplora i legami tra IA, machine learning, deep learning e IA generativa, delineando i loro principi e le loro applicazioni.
Source originale →

Soluzioni di IA generativa accelerate da NVIDIA

L'intelligenza artificiale generativa, potenziata dalle soluzioni NVIDIA, sta rivoluzionando numerosi settori creando contenuti, soluzioni e approfondimenti da diverse fonti. Passando dai chatbot di base all'IA agentica autonoma, essa consente un'automazione avanzata, una maggiore efficienza e la scoperta di modelli nascosti. Le "fabbriche di IA" di NVIDIA, infrastrutture strategiche, trasformano i dati grezzi in modelli di IA monetizzabili, promuovendo innovazioni in campi come i veicoli autonomi e la scoperta di farmaci.
Source originale →

Confluent presenta Streaming Agents: intelligenza artificiale agéntica scalabile e in tempo reale

Confluent ha lanciato Streaming Agents, una nuova funzionalità di Confluent Cloud per Apache Flink, progettata per facilitare la creazione e la scalabilità di agenti di intelligenza artificiale che monitorano, analizzano e agiscono su dati in tempo reale. Questa innovazione mira a superare le attuali barriere all'adozione dell'IA agéntica a livello aziendale, unificando l'elaborazione dei dati e i flussi di lavoro dell'IA per fornire un contesto aggiornato e preciso per decisioni autonome. Il servizio promette di accelerare l'implementazione dell'IA agéntica, generando flussi di lavoro più efficienti, un tempo di ritorno sull'investimento più rapido e nuove opportunità di business.
Source originale →

Le competenze AI più richieste per le imprese nell'era dell'IA operativa

Il mercato dell'IA aziendale è rapidamente passato dalla sperimentazione all'operatività, con i sistemi agentici che sostituiscono le pipeline statiche. Questa evoluzione tecnologica richiede un rapido aggiornamento delle competenze per scalare e gestire l'IA in sicurezza, soprattutto perché Gartner prevede che il 40% delle applicazioni aziendali integrerà agenti AI entro il 2026. Il successo dipenderà dalla capacità dei dipendenti di collaborare efficacemente con l'IA, rendendo essenziale un rinnovamento dei modelli di forza lavoro e delle relative skill.
Source originale →

Intelligenza artificiale e chirurgia cardiaca di nuova generazione: il prompt engineering

L'intelligenza artificiale (IA) sta rivoluzionando la chirurgia cardiaca, promettendo procedure più precise, personalizzate e meno invasive. L'applicazione del prompt engineering in questo contesto permette di ottimizzare l'interazione con i modelli di IA, estraendo informazioni cruciali per diagnosi, pianificazione e guida intraoperatoria. Questo approccio innovativo apre la strada a una nuova era per la cardiologia interventistica, migliorando significativamente gli esiti per i pazienti.
Source originale →

7 migliori strumenti LLM per eseguire modelli localmente (aprile 2026)

L'esecuzione locale dei modelli linguistici di grandi dimensioni (LLM) offre notevoli vantaggi in termini di privacy, accesso offline, personalizzazione e risparmio sui costi. Questo articolo esamina alcuni dei principali strumenti open source e desktop, come AnythingLLM, GPT4All, Ollama e LM Studio, che consentono agli utenti e alle organizzazioni di gestire e utilizzare gli LLM direttamente sui propri dispositivi, mantenendo il controllo completo sui dati e riducendo la dipendenza dai servizi cloud.
Source originale →

Linee guida per l'ingegneria del contesto: pratiche ottimali per il successo – 36Kr

L'ingegneria dei prompt viene ora riproposta come "ingegneria del contesto", un approccio più ampio e sofisticato per ottimizzare le istruzioni e il background forniti ai Large Language Models (LLM). Questo articolo, basato su un caso studio di un agente n8n, evidenzia tre misure fondamentali per migliorare l'efficienza degli LLM: l'output strutturato, l'iniezione dinamica del tempo e l'ottimizzazione della cache RAG. È una traduzione fornita dal "Divine Translation Bureau" di 36Kr, specializzato in nuove tecnologie e tendenze.
Source originale →

Sistemi KI autonomi: strategie per compiti basati sui dati

I sistemi di intelligenza artificiale autonomi richiedono nuove strategie per gestire il fabbisogno di dati specifici, con il prompt engineering e il fine-tuning che lasciano il posto ad architetture consapevoli del contesto. Questa evoluzione sposta il focus dall'interazione modello-centrica all'orchestrazione dei dati, introducendo il concetto di "Context Engineering". Tale approccio si basa sull'integrazione di sistemi modulari e tecniche come la Generazione Aumentata dal Recupero (RAG) per fornire ai modelli le informazioni necessarie in modo automatizzato e dinamico.
Source originale →

Assistenti OpenAI con Semantic Kernel

L'articolo esplora gli agenti IA avanzati basati sugli assistenti OpenAI, evidenziando come questi risolvano compiti complessi in modo autonomo. Spiega l'importanza di strumenti come il "function calling", che consente ai modelli di riconoscere l'intento e richiamare funzioni esterne, e il "code interpreter" per calcoli precisi. Viene anche descritta la funzione di "file search" per l'accesso a dati aggiornati, superando le limitazioni dei dati di addestramento statici.
Source originale →

Tutorial sui modelli linguistici di grandi dimensioni: 5 modi per eseguire LLM in locale

È sorprendente quanto sia facile eseguire modelli linguistici di grandi dimensioni (LLM) localmente sul proprio desktop con gli strumenti giusti. Questo tutorial esplora quattro metodi pratici per ospitare LLM sul proprio computer, garantendo la privacy dei dati e consentendo il testing di modelli specializzati. Le opzioni vanno da chatbot desktop user-friendly a soluzioni da riga di comando e includono test su diverse configurazioni hardware.
Source originale →

Agenti IA: Cognizant lancia il nuovo framework open-source

Cognizant è la prima azienda di servizi IT a rilasciare il Neuro AI Multi-Agent Accelerator, un framework open-source per lo sviluppo di sistemi multi-agente scalabili. Destinato a scopi di ricerca e accademici, questo strumento facilita la prototipazione e la creazione di reti di agenti IA per diversi casi d'uso, sfruttando un mercato in rapida crescita stimato a 47,1 miliardi di dollari entro il 2030. L'azienda offre anche una suite commerciale per implementazioni su larga scala, promuovendo l'innovazione e l'efficienza operativa.
Source originale →

Slackbot potenziato dall'AI: la trasformazione della collaborazione aziendale

La nuova versione di Slackbot, potenziata dall'intelligenza artificiale, si trasforma in un compagno di squadra proattivo in grado di gestire dati CRM e note in tempo reale. Questa evoluzione, frutto dell'integrazione tra Salesforce e Anthropic, mira a ridefinire la produttività aziendale, abbattendo le barriere tra applicazioni e conversazioni per una collaborazione più fluida e integrata.
Source originale →

Divisione e sovrapposizione dei 'chunk': comprendere il processo

La divisione in 'chunk' e la sovrapposizione sono tecniche fondamentali per gestire e elaborare grandi volumi di dati, specialmente nel campo dell'intelligenza artificiale e dell'elaborazione del linguaggio naturale. Questo processo consiste nel suddividere testi o set di dati estesi in unità più piccole e gestibili, i 'chunk', introducendo una sovrapposizione intelligente tra di essi. Tale strategia è cruciale per preservare il contesto attraverso i segmenti, prevenire la perdita di informazioni ai confini e migliorare significativamente l'accuratezza e la rilevanza delle analisi o delle interrogazioni successive.
Source originale →

Adulterazione del Knowledge Graph in architetture RAG per proteggere i dati IA: un informatico dalla parte del male

Le architetture RAG (Retrieval Augmented Generation) sfruttano i Knowledge Graph (KG) per fornire contesto ai modelli LLM, come in Microsoft 365 Copilot, ma i dati aziendali nei KG sono vulnerabili al furto. Questo articolo presenta un metodo di "adulterazione" del KG, inserendo nodi chiave semanticamente alterati, per rendere i dati rubati inutilizzabili e indurre allucinazioni nelle risposte. Il servizio legittimo può "disadulterare" l'informazione tramite metadati cifrati, garantendo risposte corrette solo agli utenti autorizzati.
Source originale →

Oracle espande AI Agent Studio per Fusion Applications con nuovo marketplace, LLM e vasta rete di partner

Oracle ha annunciato significativi aggiornamenti per AI Agent Studio per Fusion Applications, introducendo un nuovo marketplace che integra agenti IA sviluppati dai partner direttamente nelle applicazioni cloud per ottimizzare le operazioni. La piattaforma ora supporta un'ampia gamma di modelli linguistici di grandi dimensioni (LLM) come OpenAI, Anthropic, Google e Meta, e si avvale di oltre 32.000 esperti certificati per aiutare i clienti a implementare e ottimizzare l'IA. Queste espansioni mirano ad accelerare l'adozione dell'IA, migliorare l'efficienza e fornire soluzioni specifiche per l'industria.
Source originale →
406 articles · Page 10 of 21