Red Hat Summit 2025: l'era "AI-first" ridefinisce il futuro IT
Red Hat sta entrando con decisione nell'era dell'"AI-first", integrando l'intelligenza artificiale in ogni aspetto delle sue operazioni e dei suoi prodotti: dal shell ai cluster, dalla virtualizzazione fino agli agenti autonomi. Cluster più intelligenti, modelli ottimizzati fin dal primo pull e la possibilità per i profili junior di operare autonomamente grazie a Lightspeed sono solo alcuni esempi. In occasione del suo Summit 2025, Red Hat ha iniziato a ridefinire le regole del gioco nel settore IT, con implicazioni significative per i responsabili dei sistemi informativi (DSI).
Come l'open source in passato, l'IA ha il potenziale per sbloccare un enorme potenziale umano ed economico. Aprendo il Red Hat Summit 2025, Matt Hicks, CEO di Red Hat, ha subito messo in chiaro che la conferenza sarebbe stata incentrata sull'intelligenza artificiale, delineando la visione dell'azienda su quello che è il tema IT più discusso del momento. In una sola frase, Hicks ha riassunto la nuova traiettoria "AI First" che non riguarda solo Red Hat stessa, ma anche tutte le sue aziende clienti. L'obiettivo è estendere la promessa di apertura, che ha decretato il successo di Linux e Kubernetes, all'era dei modelli di fondazione.
I tre pilastri della visione Red Hat per l'IA
Questa visione ambiziosa si fonda su tre pilastri fondamentali:
- Federe la comunità dell'IA open source: promuovere la collaborazione e lo sviluppo condiviso nell'ecosistema dell'intelligenza artificiale.
- Industrializzare progetti di IA collaborativi: trasformare le innovazioni dell'IA in soluzioni robuste e scalabili per l'uso aziendale.
- Offrire un trampolino di lancio verso l'IA senza sacrificare le applicazioni esistenti: permettere alle aziende di adottare l'IA progressivamente, integrando nuove capacità senza dover ripensare da zero le proprie infrastrutture.
Sfruttare il malcontento VMware e la crescita del cloud ibrido
Il portfolio di Red Hat agisce come un ponte, automatizzando il deployment e la manutenzione grazie a strumenti IA open source e liberando i team IT per attività a più alto valore aggiunto. Questa trasformazione arriva in un momento particolarmente opportuno, poiché Red Hat sta capitalizzando sul malcontento generato dai cambiamenti nelle licenze VMware in seguito all'acquisizione da parte di Broadcom. Secondo Ashesh Badani, direttore prodotto di Red Hat, la domanda di virtualizzazione e cloud ibrido è "fenomenale". A riprova di ciò, la soluzione OpenShift Virtualization ha quasi triplicato la sua base installata e raddoppiato il numero di cluster in produzione, dimostrando l'efficacia e l'attrattiva dell'approccio Red Hat in un mercato in evoluzione.
RHEL 10: il sistema operativo incentrato sull'IA
La notizia più importante del Red Hat Summit 2025 è stata senza dubbio l'ufficializzazione di RHEL 10, la decima evoluzione maggiore e la prima interamente incentrata sull'IA del suo onnipresente Red Hat Enterprise Linux. RHEL 10 introduce diverse innovazioni significative, tra cui:
- Un chiffrement post-quantistico, per garantire la sicurezza in un'era di minacce computazionali avanzate.
- Una modalità immagine che trasforma il sistema operativo in un container avviabile, semplificando e rendendo più sicuri i deployment.
- Profili cloud ottimizzati, sviluppati in collaborazione con i principali fornitori di servizi cloud come AWS, Google Cloud, Microsoft Azure e Oracle Cloud, per massimizzare le prestazioni e l'integrazione.
Lightspeed nel cuore di RHEL 10: l'IA conversazionale per gli amministratori
L'innovazione più rivoluzionaria di RHEL 10 risiede nell'integrazione di Lightspeed, un assistente di IA generativa direttamente incorporato nella Shell del sistema. Questo permette agli utenti di "conversare" con il sistema in linguaggio naturale. Gli amministratori possono formulare domande e ricevere assistenza pratica e consigli, coprendo un'ampia gamma di scenari, dalla risoluzione dei problemi comuni alla gestione di ambienti complessi. Ad esempio, un amministratore può richiedere un diagnostico SELinux, generare un playbook Ansible o correggere un file systemd semplicemente usando comandi in linguaggio naturale. Lightspeed non solo produce lo script necessario, ma lo spiega anche e invita l'utente a una revisione, promuovendo l'apprendimento e la verifica. Raj Das, direttore senior della gestione dei prodotti presso Red Hat, ha sottolineato come questo approccio "aiuti a colmare il divario di competenze che noi e i nostri clienti affrontiamo riguardo alle capacità Linux".
I vantaggi di RHEL 10 per i DSI
Questo aspetto rappresenta un fattore chiave per i responsabili dei sistemi informativi (DSI). Integrando un copilota operativo, il nuovo sistema riduce la dipendenza da profili senior e consente di applicare buone pratiche omogenee su tutti gli ambienti, inclusi quelli cloud grazie alla modalità immagine. Con RHEL 10, l'intera funzione DSI beneficia di:
- Una maggiore velocità di patching e aggiornamento.
- L'industrializzazione dell'Infrastructure as Code (IaC) senza aumentare il carico di supporto.
- Un sistema operativo robusto e affidabile per costruire le proprie soluzioni di IA "in-house".
Red Hat AI Inference Server: standardizzazione dell'inferenza IA
Basato su vLLM, il motore di inferenza open source universale compatibile con OpenAI e Hugging Face, il Red Hat AI Inference Server trasforma questo motore in un componente industriale e portatile. Può essere eseguito come soluzione stand-alone, ma è anche integrato nelle offerte RHEL AI e OpenShift AI. La sua forza principale risiede nell'offrire una soluzione veramente standardizzata, costruita su un motore di inferenza rinomato per le sue prestazioni e universalità. Questo permette di distribuire ed eseguire modelli di IA nel modo più semplice e rapido possibile in ambienti ibridi, che si tratti di una workstation, un server locale, un'infrastruttura Edge o direttamente nel Cloud.
Acquisizione di Neural Magic e ottimizzazioni integrate
Uno dei maggiori punti di forza della soluzione (e di vLLM) è la capacità di fornire un piano di esecuzione e controllo unico per sfruttare un'ampia gamma di hardware, inclusi:
- GPU Nvidia e AMD
- Acceleratori Intel Gaudi
- TPU di Google
- NPU (come Inferentia di AWS)
- Acceleratori IBM
- e altri.
Benefici dell'Inference Server per i DSI
L'adozione dell'Inference Server promette ai DSI una forte standardizzazione dei carichi di lavoro LLM, indipendentemente dai modelli, dagli acceleratori e dai cloud utilizzati. Questo approccio elimina la frammentazione degli stack software e, di conseguenza, favorisce l'adozione di politiche di sicurezza, audit e osservabilità unificate e allineate con Kubernetes. La soluzione facilita inoltre le strategie ibride e dovrebbe comportare una riduzione meccanica dei costi, in particolare grazie a una gestione più intelligente dell'utilizzo delle capacità di GPU, CPU e NPU disponibili.
Lightspeed per OpenShift: l'IA nell'orchestrazione dei container
Se l'IA conversazionale integrata in RHEL 10 è un'innovazione notevole, l'estensione di tale funzionalità al cuore dell'orchestratore di container e del gestore di cluster è ancora più potente. Come annunciato lo scorso anno, Red Hat sta estendendo il suo assistente di intelligenza artificiale Lightspeed anche per OpenShift. Questa implementazione è concepita come una risposta pragmatica e immediata al persistente deficit di competenze nel settore IT, che secondo le previsioni di IDC, entro il 2026 influenzerà più del 90% delle organizzazioni a livello globale.
Funzionalità avanzate di Lightspeed per OpenShift
Integrato direttamente nella console OpenShift, Lightspeed fornisce guida per i deployment, le migrazioni di macchine virtuali e i diagnostici, tutto in linguaggio naturale. Gli utenti possono porre domande in modo intuitivo e ricevere assistenza proattiva, passo dopo passo. Una nuova funzionalità, attualmente in preview, denominata "cluster-interaction", consente a Lightspeed di recuperare direttamente il contesto dai cluster dell'organizzazione, fornendo risposte ancora più rapide e precise. Inoltre, la funzione "bring your own knowledge" permette alle organizzazioni di introdurre la propria documentazione e i propri processi all'interno del sistema, personalizzando ulteriormente l'assistenza IA.
Vantaggi per i DSI con Lightspeed su OpenShift
In sintesi, anche in questo contesto, l'IA contribuisce a fluidificare l'expertise della piattaforma e a risolvere il deficit di competenze relativo a Kubernetes, il tutto riducendo il MTTR (Mean Time To Resolution). Il principale vantaggio per i DSI è la possibilità di implementare e documentare i propri standard all'interno del motore AI, sfruttando log più contestualizzati e, se necessario, garantendo la sicurezza di questo utilizzo potenzialmente critico mantenendo il modello "on-premise".
La strategia open source di Red Hat per l'IA
L'intera strategia di Red Hat è saldamente ancorata ai principi dell'open source, che garantisce trasparenza, collaborazione e flessibilità. L'obiettivo e la volontà dell'azienda sono chiari: rendere l'IA una risorsa tanto aperta, portatile e collaborativa quanto Linux lo è diventato per i sistemi operativi. Ciò richiederà l'adozione e la promozione di:
- Modelli aperti.
- Runtime e motori di inferenza aperti.
- Protocolli aperti.
La roadmap dell'IA open source di Red Hat
La roadmap di Red Hat per l'IA si basa su diversi pilastri chiave:
- vLLM: il motore di inferenza che abbiamo già analizzato.
- API aperte: per garantire interoperabilità e facilitare l'integrazione.
- Modelli Hugging Face: un'ampia gamma di modelli pre-addestrati accessibili e facili da implementare.
- Un nuovo progetto comunitario, copilotato da giganti del settore come Google Cloud, IBM Research, CoreWeave e Nvidia, denominato llm-d.
Il progetto llm-d: inferenza distribuita per Kubernetes
Il progetto "llm-d" è di importanza fondamentale. Esso estende le capacità di vLLM per migliorare la distribuzione dell'inferenza di modelli di grandi dimensioni sull'intero cluster Kubernetes, superando i limiti di un singolo server. Sopra vLLM, llm-d aggiunge uno strato di orchestrazione e frammentazione delle richieste, consentendo una gestione più efficiente e scalabile delle operazioni di inferenza su infrastrutture distribuite. Questo approccio è cruciale per massimizzare l'utilizzo delle risorse computazionali e accelerare l'elaborazione dei modelli IA più complessi in ambienti aziendali, consolidando la visione di Red Hat per un'IA aperta e accessibile.