Durante l'evento SnowflakeBUILD, Snowflake ha annunciato una serie di nuove e potenti funzionalità, progettate con l'obiettivo primario di accelerare la creazione e il deployment di applicazioni di intelligenza artificiale generativa (IA generativa) direttamente sui dati aziendali. Questi strumenti non solo puntano a rendere il processo più rapido ed efficiente, ma anche a garantire la massima fiducia e sicurezza nelle soluzioni sviluppate. I nuovi aggiornamenti sono stati concepiti per semplificare i flussi di lavoro complessi, fornire insight su vasta scala e, in definitiva, portare rapidamente le applicazioni di IA in produzione.
L'impatto di queste innovazioni è già evidente: clienti come Skaion hanno utilizzato queste funzionalità per implementare la loro soluzione di IA generativa in produzione in soli due giorni, un notevole miglioramento rispetto ai tempi tradizionali che potevano estendersi per mesi. Questo testimonia la capacità delle nuove offerte di Snowflake di trasformare radicalmente il ciclo di vita dello sviluppo dell'IA.
Accelerare le soluzioni AI con Snowflake Cortex AI e Snowflake ML
Le innovazioni di Snowflake si concentrano su come Snowflake Cortex AI e Snowflake ML stiano accelerando la messa in opera di soluzioni AI affidabili per le applicazioni di IA generativa più strategiche. L'attenzione è rivolta alla riduzione della complessità e all'aumento della velocità con cui le aziende possono sfruttare il potenziale dell'IA.
Elaborazione del linguaggio naturale (NLP) per le pipeline di dati
I grandi modelli di linguaggio (LLM) hanno dimostrato un potenziale di trasformazione senza precedenti in molti settori. Tuttavia, la loro integrazione nei pipeline di dati tradizionali, spesso tramite inferenza batch, può risultare complessa e gravosa. Con le nuove funzionalità di Snowflake, i developer possono ora, tramite una semplice query, derivare opinioni o categorizzare le recensioni dei clienti su milioni di record, migliorando drasticamente l'efficienza e risparmiando tempo prezioso. Un esempio lampante è TS Imagine, che ha implementato l'IA generativa su larga scala con Snowflake Cortex AI, ottenendo una riduzione dei costi del 30% e risparmiando 4.000 ore che prima erano dedicate a compiti manuali. Questa capacità trasforma la gestione dei dati testuali in un processo agile e potente.
Applicazioni conversazionali
La creazione di risposte affidabili e coinvolgenti alle domande degli utenti è ora più semplice che mai, aprendo la strada a casi d'uso potenti e innovativi. Questi includono l'analisi self-service e la ricerca di documenti tramite chatbot. La facilità con cui si possono costruire queste applicazioni significa che le aziende possono fornire interfacce utente più intuitive e informative, migliorando l'esperienza complessiva dei propri clienti e dipendenti.
Sviluppo e deployment di modelli basati su GPU
Lo sviluppo di modelli di machine learning (ML) potenti e avanzati richiede spesso infrastrutture specializzate. Snowflake consente ora ai developer di creare questi modelli utilizzando i loro pacchetti Python preferiti su GPU o CPU per l'inferenza in container, tutto sulla stessa piattaforma dove risiedono i loro dati governati. Questo approccio unificato elimina la necessità di spostare i dati, garantendo sicurezza e coerenza. Clienti come Avios, CHG Healthcare e Keysight Technologies stanno già sviluppando modelli basati su container all'interno di Snowflake ML, dimostrando la versatilità e la potenza della piattaforma.
Funzioni LLM Cortex: scelta del modello giusto
In un panorama tecnologico in rapida evoluzione, i modelli di IA sono disponibili in diverse dimensioni, finestre contestuali e capacità. Selezionare il modello più adatto al proprio caso d'uso specifico è fondamentale. Ad esempio, se i documenti sono in più lingue, un LLM con forti capacità multilingue è indispensabile. Tuttavia, per compiti NLP più semplici come la classificazione, un modello avanzato potrebbe essere eccessivo e un LLM più piccolo potrebbe essere più efficiente in termini di costi e prestazioni. Le funzioni LLM Cortex offrono modelli ottimizzati per casi d'uso specifici, come la traduzione, la riassunzione e la classificazione. Questi modelli scalabili possono gestire milioni di record, consentendo di creare in modo efficiente pipeline di dati NLP ad alte prestazioni. La gestione di dati LLM su milioni di record può presentare sfide di trasferimento e orchestrazione, facilmente risolvibili dalle funzioni SQL user-friendly di Snowflake Cortex. Tra le aggiunte recenti figurano il modello di integrazione multilingue di Voyage, i modelli Llama 3.1 e 3.2 di Meta e il modello Jamba-Instruct di AI21, offrendo una vasta selezione per ogni esigenza.
Cortex Playground per la sperimentazione
Con Cortex Playground (presto in public preview), i developer possono provare i modelli direttamente in Snowsight. Questa interfaccia no-code permette di sperimentare, confrontare e valutare rapidamente i modelli non appena vengono resi disponibili, accelerando il processo di selezione e iterazione. La sua intuitività democratizza l'accesso ai modelli avanzati, permettendo a un pubblico più ampio di innovare con l'IA.
Personalizzazione e fine-tuning serverless
Le tecniche di personalizzazione dei modelli sono essenziali per ottimizzare i modelli per casi d'uso specifici. Snowflake introduce il fine-tuning serverless (presto disponibile per tutti i clienti), consentendo ai developer di calibrare i modelli per un migliore rapporto costi-prestazioni. Questo servizio completamente gestito solleva i developer dalla necessità di creare o gestire la propria infrastruttura per l'addestramento e l'inferenza. L'eliminazione dell'onere infrastrutturale significa che le risorse possono essere dedicate all'innovazione e alla personalizzazione dei modelli.
Migliorare le applicazioni AI con il supporto multimodale
Inferenza LLM multimodale
Per risposte più ricche e contestualizzate, è fondamentale supportare l'elaborazione di dati multimodali. Grazie alle nuove funzionalità di IA generativa, i developer possono ora elaborare dati multimodali utilizzando le informazioni più pertinenti nelle loro applicazioni. Snowflake sta attivando l'inferenza LLM multimodale (presto in private preview) come parte della funzione Cortex COMPLETE per gli input di immagini, utilizzando i modelli Llama 3.2 disponibili in Snowflake Cortex AI. Il supporto per le integrazioni audio, video e immagini seguirà presto. Questo supporto multimodale esteso arricchisce le risposte per diverse attività come la sintesi, la classificazione e l'estrazione di entità su vari tipi di media, rendendo le applicazioni di IA più intelligenti e versatili.
Nuove funzioni SQL multimodali
Le query di database sono la forza trainante che trasmette le informazioni alle aziende e alimenta le esperienze basate sui dati per gli utenti. Tradizionalmente, SQL era limitato ai dati strutturati, organizzati con cura in tabelle. Snowflake presenterà nuove funzioni SQL multimodali (presto in private preview) che consentiranno ai team di dati di eseguire flussi di lavoro analitici su dati non strutturati, come le immagini. Con queste funzioni, i team possono eseguire attività come filtri semantici e join tra set di dati non strutturati utilizzando una sintassi SQL familiare. Questa è una vera rivoluzione, che estende la potenza di SQL a domini di dati precedentemente inaccessibili senza complessi processi ETL o strumenti esterni.
Garanzia di prestazioni e affidabilità
Throughput provvisorio e inferenza cross-region
Un'esperienza utente finale coerente è spesso un fattore critico, specialmente quando i developer vanno oltre le dimostrazioni di fattibilità. Grazie a Provisional Throughput (presto in public preview su AWS), i clienti di Snowflake possono riservare un throughput dedicato, garantendo prestazioni costanti e prevedibili per i loro carichi di lavoro. Inoltre, Snowflake ha lanciato l'inferenza cross-regioni, consentendo agli utenti di accedere ai loro LLM preferiti anche se non sono disponibili nella loro regione principale. Questo garantisce maggiore resilienza e flessibilità nell'implementazione di applicazioni AI su scala globale.
Semplificazione dello sviluppo di applicazioni AI conversazionali
Snowflake offre ora nuovi strumenti per semplificare ulteriormente lo sviluppo e il deployment di applicazioni di IA conversazionale, un'area di crescita significativa per molte aziende.
Cortex Search per dati non strutturati
All'inizio di quest'anno, Snowflake ha lanciato Cortex Search per aiutare i clienti a estrarre informazioni da dati non strutturati e a trasformare vaste collezioni di documenti in risorse pronte per l'IA senza la necessità di codifica complessa. Questa soluzione di recupero completamente gestita consente ai developer di creare applicazioni AI scalabili che estraggono informazioni da dati non strutturati nell'ambiente sicuro di Snowflake. Questa capacità è particolarmente potente quando abbinata alle funzioni di estrazione e suddivisione del testo che tengono conto del layout, che ottimizzano i documenti per il recupero semplificando il pre-processing tramite brevi funzioni SQL. Ciò significa che i dati non strutturati, un tempo difficili da interrogare, possono ora essere pienamente integrati nei flussi di lavoro dell'IA.
Nuove funzioni SQL per il pre-processing dei documenti
Ora è possibile rendere i documenti pronti per l'IA più velocemente grazie a due nuove funzioni SQL di pre-processing. Snowflake sta implementando soluzioni semplificate per l'elaborazione di documenti dallo storage Blob (ad esempio, Amazon S3) in rappresentazioni testuali per l'utilizzo in applicazioni di generazione aumentata di recupero (RAG). Gli utenti SQL possono ora sostituire i complessi pipeline di elaborazione dei documenti con semplici funzioni SQL di Cortex AI, come PARSE_DOCUMENT (public preview) e SPLIT_TEXT_RECURSIVE_CHARACTER (private preview). La funzione di analisi si occupa di estrarre il testo e il layout dai documenti, eliminando la necessità per i developer di spostare i dati grezzi dalla loro posizione di storage originale. La funzione di suddivisione del testo supporta la scomposizione del testo estratto in segmenti più gestibili, un passaggio cruciale per ottimizzare la qualità dell'inferenza LLM.
In sintesi, l'impegno di Snowflake nel fornire una piattaforma unificata per dati e IA continua a evolversi, offrendo strumenti sempre più sofisticati ma accessibili. Queste nuove funzionalità non solo accelerano lo sviluppo, ma migliorano anche l'affidabilità, la sicurezza e la capacità delle aziende di sfruttare appieno il potenziale trasformativo dell'IA generativa.