Actualités

Les dernières actualités sur l'agrégation de contenu IA, les API et l'automatisation

LlamaIndex: estendi facilmente le tue applicazioni LLM con dati personalizzati

I modelli linguistici di grandi dimensioni (LLM), pur essendo versatili con dati pubblici, faticano a integrarsi con informazioni private o proprietarie. LlamaIndex emerge come una soluzione open-source che facilita l'estensione degli LLM con dati personalizzati, superando le limitazioni del fine-tuning e dell'apprendimento in-context. Fondato da Jerry Liu, il progetto ha già raccolto 8,5 milioni di dollari per abilitare la generazione e l'elaborazione di conoscenza personalizzata attraverso il Retrieval Augmented Generation (RAG).
Source originale →

Harness: di moda ora, ma presto storia? – 36Kr.com

La "Harness Engineering", o ingegneria della restrizione, è emersa per mitigare le difficoltà che i modelli linguistici di grandi dimensioni (LLM) incontrano con contesti lunghi, come la perdita di prestazioni e il salto di passaggi. Tuttavia, una nuova ricerca suggerisce che il problema non è la confusione o l'incapacità di trovare informazioni, ma piuttosto una "pigrizia" o una "deviazione del ragionamento" intrinseca del modello, che lo porta a ridurre gli sforzi computazionali in contesti complessi. Questo mette in discussione l'efficacia a lungo termine delle soluzioni attuali e apre nuove prospettive sulla necessità di modelli più "pazienti" e meno propensi a ridurre la loro capacità di ragionamento.
Source originale →

Snowflake Arctic: Il miglior LLM per l'IA aziendale, intelligente, performante e open source

Snowflake Arctic è il nuovo LLM di punta di Snowflake, progettato per l'IA aziendale, che si distingue per efficienza, intelligenza, prestazioni e la sua natura open source. Il modello offre un'eccellente "intelligenza aziendale" in ambiti come SQL, codice e gestione di istruzioni complesse, con un costo di addestramento significativamente inferiore rispetto ad altri LLM open source, superandoli anche con budget di calcolo ridotti. È ampiamente disponibile su piattaforme come Hugging Face, AWS e Microsoft Azure.
Source originale →

Ripristino dell'architettura della memoria: le LLM installano un "sistema operativo"

I modelli linguistici di grandi dimensioni (LLM) soffrono di un "deficit di memoria" a causa delle limitate finestre di contesto, compromettendo le interazioni a lungo termine. Per superare questo problema, si stanno sviluppando approcci che vedono la memoria come una risorsa di sistema fondamentale, come MemOS, che gestisce la memoria a lungo termine permettendo l'evoluzione continua e l'auto-aggiornamento dei modelli. Il testo esplora anche la relazione tra la capacità di elaborazione di contesti lunghi e i vari tipi di memoria, evidenziandone la collaborazione per migliorare le prestazioni delle LLM.
Source originale →

Alibaba: Qwen3-Coder apre la strada alla codifica autonoma guidata dall'IA

Alibaba ha lanciato Qwen3-Coder, un modello di intelligenza artificiale open source con 480 miliardi di parametri, specializzato nella codifica agentica. Presentato ufficialmente il 24 luglio 2025, mira a ridefinire lo sviluppo software autonomo e a posizionare Alibaba come fornitore chiave di soluzioni IA, sfidando i giganti tecnologici occidentali. Il modello è reso disponibile su piattaforme come Hugging Face e GitHub, supportando una strategia di apertura e differenziazione tecnologica.
Source originale →

Alchymia Labs lancia Regent, un modello linguistico di produzione senza limiti di contesto

Alchymia Labs ha introdotto Regent, un modello linguistico di produzione open source che offre un contesto illimitato e funzionalità avanzate per ambienti dove gli errori hanno un costo elevato. A differenza dei modelli basati su Transformer, Regent utilizza un'architettura Mamba-2 con punteggio di fiducia in tempo reale, capacità di ragionamento complessa e chiamata nativa a strumenti esterni, operando completamente offline su hardware locale. Questa innovazione è progettata per superare le limitazioni di affidabilità e accessibilità, rendendola ideale per i mercati emergenti e i settori sensibili all'accuratezza, eliminando la dipendenza dalla cloud e la necessità di riaddestramento per nuovi dati.
Source originale →

Thales lancia AI Security Fabric per la sicurezza delle applicazioni basate su IA e LLM

Thales ha introdotto AI Security Fabric, una soluzione di sicurezza d'esecuzione progettata per proteggere le applicazioni basate su intelligenza artificiale agentica e modelli LLM, affrontando i crescenti rischi e vulnerabilità derivanti dalla rapida adozione dell'IA. La piattaforma mira a salvaguardare dati, applicazioni e identità aziendali, offrendo protezione in tempo reale contro minacce specifiche come l'iniezione di prompt e la fuga di informazioni sensibili. Thales ha in programma di espandere le funzionalità della soluzione entro il 2026, includendo la prevenzione delle fughe di dati e un controllo d'accesso d'esecuzione end-to-end.
Source originale →

Cos'è il RAG o la generazione aumentata da recupero?

La Generazione Aumentata da Recupero (RAG) è una metodologia cruciale per l'IA generativa in ambito professionale, che previene le "allucinazioni" dei Modelli di Linguaggio su Larga Scala (LLM). A differenza dell'affinamento costoso e statico, il RAG arricchisce in tempo reale le query dell'utente con dati aziendali pertinenti e attuali, garantendo risposte accurate e aggiornate. Questo approccio integra le capacità generali dell'LLM con conoscenze specifiche e dinamiche, rendendo l'IA più efficace e affidabile.
Source originale →

Alchymia Labs lancia Regent, un modello di linguaggio di produzione con contesto illimitato

Alchymia Labs ha lanciato Regent, un modello di linguaggio di produzione open source che vanta un contesto illimitato, valutazione della precisione in tempo reale e capacità di operare completamente offline su hardware locale. Sviluppato in Africa con un'architettura radicalmente diversa dai modelli Transformer, Regent mira a superare le limitazioni di adozione dell'IA nei settori sensibili e nei mercati emergenti, eliminando la dipendenza dal cloud. Questo modello offre prestazioni di livello mondiale in ambienti ad alto costo d'errore.
Source originale →

Cosa sono i grandi modelli di linguaggio (LLM)? - Databricks

I grandi modelli di linguaggio (LLM) sono potenti forme di intelligenza artificiale generativa che impiegano l'elaborazione del linguaggio naturale per comprendere e produrre testo simile a quello umano. Addestrati su dataset massivi con algoritmi avanzati di machine learning, superano i predecessori in capacità linguistiche, offrendo contenuti complessi e automatizzazione di attività comparabili a quelle umane. Sono ampiamente adottati nel settore aziendale per automatizzare il supporto, scoprire insight e generare contenuti personalizzati, basandosi su architetture Transformer e tecniche di deep learning.
Source originale →

Applicazioni LLM: casi d'uso, componenti chiave e rischi da conoscere

Le applicazioni dei modelli linguistici di grandi dimensioni (LLM) vanno oltre le semplici interfacce di chat, integrandosi con sistemi esterni per svolgere compiti generativi, conversazionali, analitici o di supporto decisionale. Questa guida esplora le principali categorie, i casi d'uso comuni, i componenti fondamentali e i rischi associati alla loro implementazione in produzione. L'obiettivo è fornire una chiara comprensione del panorama attuale e delle scelte architettoniche per i sistemi LLM reali.
Source originale →

Otto buone pratiche per la generazione di dati sintetici - IBM

I dati sintetici, informazioni generate artificialmente, rappresentano un'alternativa o un complemento efficace ai dati reali per l'addestramento e il test dei modelli di intelligenza artificiale, offrendo vantaggi in termini di costi, disponibilità e privacy. Nonostante i benefici, la loro generazione può essere complessa e presentare sfide legate alla qualità e ai bias. Basandosi sulle intuizioni di IBM, questo articolo delinea cinque pratiche chiave per le aziende al fine di sfruttare al meglio i dati sintetici, concentrandosi sulla comprensione dei casi d'uso, sulla garanzia della qualità dei dati originali, sulla mitigazione dei bias, sulla scelta delle tecniche di generazione adeguate e sulla prevenzione del "model collapse".
Source originale →

Una lista di modelli linguistici di grandi dimensioni - IBM

L'IA generativa è alimentata dai modelli linguistici di grandi dimensioni (LLM), che si sono evoluti rapidamente da semplici modelli fondazionali a sistemi di IA agentiva, adattandosi a casi d'uso specifici come la generazione di codice o la gestione del linguaggio visivo. Con decine di LLM in costante sviluppo, gli sviluppatori aggiornano o creano nuovi modelli per rimanere al passo con i progressi. Questo articolo presenta un elenco di alcuni dei modelli LLM più attuali e popolari per aiutare le organizzazioni a scegliere quello più adatto alle loro esigenze.
Source originale →

Malware con prompt inganna l'IA per eludere la rilevazione delle minacce

Una recente scoperta di Check Point Research (CPR) ha rivelato un campione di malware che tentava di manipolare i modelli di intelligenza artificiale (IA) tramite "prompt injection" per essere classificato erroneamente come benigno. Sebbene il tentativo non sia riuscito, segna l'emergere di una nuova categoria di minacce denominata "AI Evasion", dove gli aggressori mirano a ingannare i sistemi di analisi basati sull'IA, evidenziando una crescente necessità di nuove strategie di difesa.
Source originale →

Iniezioni di prompt nei client e-mail AI: ricercatori svelano rischi di furto dati

Ricercatori di sicurezza di ERNW hanno rivelato gravi vulnerabilità nei client e-mail basati sull'intelligenza artificiale, come dimostrato in una recente analisi. Hanno scoperto che le iniezioni di prompt possono consentire agli aggressori di manipolare le e-mail, esfiltrare dati sensibili e persino alterare permanentemente le risposte dell'IA. Questi attacchi sono spesso possibili senza l'interazione diretta dell'utente, ponendo seri rischi per la privacy e la sicurezza.
Source originale →

AIOps: come potenziare l'amministrazione IT con l'IA

Molte aziende non ottengono il ROI promesso dagli strumenti di intelligenza artificiale per l'IT, con solo il 28% dei casi d'uso che raggiunge gli obiettivi e il 20% che fallisce, non per un'IA inadeguata, ma per una strategia di adozione incompleta. Per sfruttare appieno gli agenti IA, le aziende devono fornire loro dati specifici sulla propria attività, spesso attraverso una pipeline di ricerca contestuale (RAG). L'integrazione di questi agenti richiede anche una rigorosa gestione della sicurezza, inclusi controlli di autorizzazione e meccanismi di protezione.
Source originale →

KernelEvolve: L'agente di Meta che ottimizza l'infrastruttura AI

Meta ha introdotto KernelEvolve, un sistema agente per l'ottimizzazione dei kernel, integrato nel Ranking Engineer Agent per migliorare l'efficienza dell'infrastruttura AI. Questo sistema automatizza la generazione e l'ottimizzazione di kernel specifici per hardware eterogeneo, riducendo i tempi da settimane a ore e superando le prestazioni degli esperti umani. KernelEvolve è fondamentale per gestire la crescita esponenziale dei kernel necessaria per i modelli AI avanzati di Meta su diverse piattaforme hardware.
Source originale →

Volkswagen in Cina: piani per agenti IA

Volkswagen sta accelerando l'adozione di veicoli definiti dall'intelligenza artificiale in Cina, con l'introduzione di sistemi di IA basati su agenti nelle auto di serie già nella seconda metà del 2026. Questi agenti, parte della nuova China Electronic Architecture (CEA), comprenderanno le intenzioni degli utenti e agiranno in modo contestuale, con una forte enfasi sulla protezione dei dati personali. L'azienda ha anche presentato quattro anteprime mondiali alla Auto China 2026, rafforzando la sua strategia di elettrificazione e localizzazione per il mercato cinese.
Source originale →

RAG in pratica: dalla promessa alla realtà

La generazione aumentata tramite recupero (RAG) emerge come soluzione chiave per i modelli linguistici (LLM) che spesso mancano di dati attuali o specifici dell'azienda. Integrando fonti esterne e affidabili, il RAG consente agli LLM di fornire risposte precise, aggiornate e trasparenti. Un recente webinar di Smals Research ha approfondito la sua implementazione, evidenziando scelte cruciali di progettazione, l'importanza del recupero delle informazioni e le sfide comuni, tra cui la complessità della valutazione e la necessità di guardrail robusti.
Source originale →

Mathis Joffre, co-fondatore e responsabile ingegneria Blaxel: intervista su Unite.AI

Mathis Joffre, co-fondatore e responsabile dell'ingegneria di Blaxel, è protagonista di una serie di interviste pubblicate su Unite.AI, una piattaforma dedicata all'intelligenza artificiale e alle tecnologie correlate. Questo articolo introduce la figura di Joffre nel contesto di Unite.AI, evidenziando la vasta copertura della pubblicazione su strumenti, librerie, eventi, notizie e certificazioni nel campo dell'IA. L'intervista offre uno sguardo approfondito sul lavoro di un leader nel settore, riflettendo l'impegno di Unite.AI nel fornire approfondimenti sul panorama tecnologico.
Source originale →
406 articles · Page 4 of 21