Red Hat annuncia il lancio di Red Hat AI 3, l'ultima iterazione della sua piattaforma di intelligenza artificiale, destinata a rivoluzionare il modo in cui le aziende implementano e gestiscono i modelli di IA in ambienti produttivi. Questa nuova versione introduce funzionalità avanzate di inferenza distribuita, pensate per spingere i modelli di IA dal banco di prova direttamente alla produzione, risolvendo una delle sfide più significative che le organizzazioni affrontano oggi nell'adozione dell'IA.

La piattaforma Red Hat AI 3 si presenta come una soluzione unificata per la gestione dei carichi di lavoro di intelligenza artificiale in contesti ibridi e multicloud. Essa integra tre componenti chiave: Red Hat AI Inference Server, Red Hat Enterprise Linux AI (RHEL AI) e Red Hat OpenShift AI. Questa sinergia mira a fornire un ecosistema completo che non solo supporti l'addestramento e la personalizzazione dei modelli, ma soprattutto ne ottimizzi il dispiegamento e l'esecuzione su larga scala.

La sfida dell'IA in produzione

Il lancio di Red Hat AI 3 non è casuale, ma risponde a un'esigenza pressante nel panorama aziendale. Secondo il rapporto "The GenAI Divide" del MIT, una percentuale sconcertante del 95% delle aziende non riesce a ottenere ritorni finanziari tangibili dai propri investimenti in IA, nonostante abbiano destinato oltre 40 miliardi di dollari allo sviluppo di queste tecnologie. Il principale ostacolo identificato è proprio il passaggio dei modelli dalla fase di sperimentazione e test a quella di produzione, un processo che spesso si rivela un collo di bottiglia a causa della complessità tecnica e dei costi elevati associati all'inferenza su larga scala.

Red Hat AI 3 è specificamente progettata per sbloccare questo passaggio critico. La piattaforma consente l'esecuzione di modelli di linguaggio di grandi dimensioni (LLM) attraverso l'inferenza distribuita, sfruttando progetti comunitari all'avanguardia come vLLM e llm-d. Quest'ultima tecnologia, ora disponibile a livello generale in OpenShift AI 3.0, trasforma l'esecuzione di LLM in Kubernetes, combinando prestazioni elevate e scalabilità con l'integrazione di tecnologie avanzate come NVIDIA Dynamo, NIXL e DeepEP MoE.

Un'architettura aperta e flessibile per l'inferenza

La proposta di Red Hat si basa su un'architettura intrinsecamente aperta e flessibile, capace di operare su qualsiasi acceleratore hardware, dalle GPU NVIDIA a quelle AMD, e in qualsiasi tipo di ambiente: dai centri dati on-premise alle nuvole pubbliche, fino agli ambienti di IA sovrana. Questa versatilità è fondamentale e mira a un obiettivo chiaro: fornire ai CIO e ai responsabili IT un'infrastruttura che permetta di scalare l'IA senza compromettere il controllo, la sicurezza o l'efficienza operativa.

L'enfasi sull'inferenza è un elemento distintivo. Mentre le organizzazioni spostano la loro attenzione dall'addestramento dei modelli al loro utilizzo effettivo, la fase di inferenza emerge come il nuovo campo di battaglia per l'efficienza e il valore. Red Hat risponde con una piattaforma che non solo ottimizza i costi e i tempi di risposta, ma introduce anche meccanismi di programmazione intelligente e disaggregazione dei servizi per migliorare ulteriormente l'efficienza complessiva delle operazioni di IA.

Funzionalità chiave e innovazioni

Tra le novità più significative di Red Hat AI 3 spiccano diverse funzionalità che mirano a semplificare e potenziare l'adozione dell'IA in azienda:

  • Modello come Servizio (MaaS): Questa capacità permette ai team IT di fungere da fornitori interni di modelli, offrendo accesso on-demand a sviluppatori e applicazioni. È particolarmente utile in scenari dove la privacy dei dati impedisce l'uso di servizi pubblici di IA, consentendo alle aziende di mantenere i propri modelli e dati sotto stretto controllo.
  • Hub di IA e Gen AI Studio: L'Hub di IA centralizza la gestione di tutti gli asset di IA, dai modelli validati ai registri del ciclo di vita, garantendo governance e tracciabilità. Il Gen AI Studio, invece, offre un ambiente pratico e intuitivo per sperimentare con i modelli, testare i prompt e regolare i parametri, con supporto per casi d'uso come la chat o la generazione aumentata da recupero (RAG).
  • Supporto avanzato per gli Agenti di IA: Red Hat ha rafforzato il suo impegno verso gli agenti di IA, sistemi autonomi capaci di eseguire compiti complessi. La nuova versione di OpenShift AI include un livello API unificato basato su Llama Stack e il supporto per il Model Context Protocol (MCP), uno standard emergente che facilita l'interazione tra modelli e strumenti esterni, migliorando la capacità degli agenti di interagire con il mondo reale.
  • Kit di strumenti per la personalizzazione dei modelli: Basato su InstructLab, questo kit incorpora librerie Python e progetti come Docling per facilitare l'ingestione di dati non strutturati. Include anche funzionalità per generare dati sintetici e per ottimizzare i modelli, con un hub di valutazione integrato che permette di convalidare i risultati e migliorare la precisione dei modelli utilizzando i dati proprietari dell'azienda.

Strategia aziendale e prospettive del settore

Sebbene la proposta di Red Hat si basi su tecnologie aperte e standard comunitari, la sua ambizione è chiaramente orientata all'impresa. Joe Fernandes, vicepresidente della business unit AI di Red Hat, riassume così la visione: "Stiamo mettendo in condizione i team IT di rendere operativa l'IA di nuova generazione con maggiore fiducia, alle loro condizioni e su qualsiasi infrastruttura". Questa dichiarazione sottolinea l'impegno di Red Hat nel fornire agli utenti aziendali la flessibilità e il controllo necessari per adottare l'IA in modo efficace.

Dal lato degli analisti, Rick Villars di IDC prevede che il 2026 sarà un anno cruciale per la maturità dell'IA nelle aziende. "La vera sfida consiste nel mettere in pratica le conoscenze derivate dai modelli attraverso un'inferenza efficiente, sicura ed economicamente vantaggiosa", afferma Villars. In questa prospettiva, la necessità di piattaforme unificate capaci di orchestrare carichi di lavoro complessi in ambienti ibridi diventa sempre più evidente, e Red Hat AI 3 si posiziona proprio per rispondere a questa esigenza.

Collaborazioni hardware e casi di successo

La strategia di Red Hat è rafforzata da solide collaborazioni con i principali produttori di hardware. AMD e NVIDIA hanno integrato le loro tecnologie con Red Hat AI 3, garantendo prestazioni ottimali. Questo include le GPU Instinct e lo stack ROCm di AMD, così come le librerie di inferenza di NVIDIA. Tali integrazioni sono cruciali per assicurare prestazioni prevedibili e un ritorno sull'investimento misurabile, due condizioni indispensabili per l'adozione dell'IA a livello aziendale.

Sul terreno pratico, aziende come ARSAT, la compagnia argentina di telecomunicazioni, stanno già utilizzando Red Hat OpenShift AI per implementare soluzioni di IA agentica in produzione. Secondo Mariano Greco, CEO di ARSAT, la piattaforma ha permesso alla sua azienda di passare da una necessità operativa alla produzione in soli 45 giorni, migliorando i servizi offerti e liberando risorse preziose per l'innovazione. Questo esempio concreto dimostra l'efficacia della piattaforma nel ridurre i tempi di implementazione e nel generare valore tangibile.

Un punto di svolta per l'IA aziendale

L'evoluzione di Red Hat AI 3 segna un punto di svolta nella strategia dell'azienda. Non si tratta più solo di offrire strumenti per addestrare modelli, ma di costruire un'infrastruttura robusta e completa per eseguire l'IA in condizioni reali, con costi controllati e scalabilità garantita. In un momento in cui la pressione per dimostrare risultati tangibili dagli investimenti in IA si intensifica, questa differenza può rivelarsi decisiva per il successo delle strategie di trasformazione digitale delle imprese.