L'intelligenza artificiale generativa (GenAI) e i grandi modelli di linguaggio (LLM) stanno rapidamente trasformando il modo in cui lavoriamo a livello globale, offrendo nuove opportunità per l'innovazione e l'ottimizzazione dei processi. In questo scenario in continua evoluzione, Snowflake è orgogliosa di presentare una serie di prodotti innovativi progettati per portare nel mondo della GenAI la stessa facilità d'uso, sicurezza e governance che caratterizzano la sua piattaforma leader di mercato. Queste nuove offerte rivoluzionano il modo in cui le aziende possono sfruttare la potenza dei LLM, consentendo a qualsiasi utente di incorporare questi modelli avanzati nei processi analitici in pochi secondi.

Per gli sviluppatori, le possibilità sono ancora più vaste: possono creare applicazioni basate sull'IA generativa in pochi minuti o eseguire workload complessi in poche ore, come la messa a punto di modelli di base sui dati aziendali. Il tutto avviene senza mai uscire dal perimetro di sicurezza robusto e ben definito di Snowflake. Questi progressi permettono a sviluppatori e analisti di tutti i livelli di integrare l'IA generativa con i dati aziendali, che sono già protetti e governati, garantendo un'adozione sicura ed efficiente dell'IA. Esploriamo ora in dettaglio tutte le funzionalità che gli sviluppatori possono utilizzare per sfruttare l'IA generativa sui loro dati aziendali, in modo sicuro e senza sforzo con Snowflake.

Componenti fondamentali per l'IA generativa su Snowflake

Per integrare l'IA generativa in modo sicuro con i loro dati già governati, i clienti Snowflake hanno accesso a due componenti fondamentali che costituiscono il pilastro di questa nuova suite di offerte:

Snowflake Cortex

Snowflake Cortex (attualmente disponibile in anteprima privata) è un servizio intelligente e completamente gestito che fornisce accesso a modelli di IA, LLM e funzionalità di ricerca vettoriale all'avanguardia nel settore. Questo permette alle aziende di analizzare rapidamente i propri dati e di creare applicazioni di IA con una velocità e un'efficienza senza precedenti. Per consentire alle imprese di costruire rapidamente applicazioni LLM che comprendano le sfumature dei loro dati, Snowflake Cortex offre agli utenti l'accesso a un set crescente di funzioni serverless. Queste funzioni consentono l'inferenza su LLM generativi di punta, come il modello Llama 2 di Meta AI, modelli specifici per attività per accelerare l'analisi e una funzionalità di ricerca vettoriale avanzata e altamente performante.

La potenza di Snowflake Cortex non è limitata solo agli sviluppatori esperti. Snowflake Cortex è anche il servizio sottostante che abilita esperienze basate sui LLM che includono un'interfaccia utente completa e intuitiva. Tra queste spiccano Document AI (in anteprima privata), che automatizza l'elaborazione dei documenti, Snowflake Copilot (in anteprima privata), un assistente IA che facilita le interazioni con i dati, e Universal Search (in anteprima privata), una soluzione di ricerca avanzata che comprende il contesto aziendale.

Snowpark Container Services

Questo ambiente di runtime Snowpark aggiuntivo (presto disponibile in anteprima pubblica per alcune regioni AWS) permette agli sviluppatori di implementare, gestire e scalare facilmente workload containerizzati personalizzati, nonché modelli per compiti specifici. Un esempio lampante è la messa a punto di LLM open source, utilizzando un'infrastruttura sicura e gestita da Snowflake con istanze di processore grafico (GPU) dedicate. La caratteristica più importante è che tutte queste operazioni possono essere eseguite senza uscire dal proprio account Snowflake, garantendo coerenza e sicurezza.

Grazie a questi due componenti fondamentali – Snowflake Cortex e Snowpark Container Services – gli sviluppatori dispongono di una capacità illimitata per creare applicazioni LLM personalizzate e altamente efficaci, senza la necessità di spostare i propri dati al di fuori dello spazio governato e sicuro di Snowflake. Questo elimina la complessità del movimento dei dati e rafforza la governance.

Democratizzare l'accesso ai LLM per tutti gli utenti

Per democratizzare l'accesso ai dati aziendali e all'IA, e per garantire che la loro adozione non sia limitata a un piccolo gruppo di esperti, Snowflake propone un'innovazione che permette a qualsiasi utente di sfruttare LLM all'avanguardia senza la necessità di integrazioni personalizzate o sviluppo front-end. Questo include esperienze completamente basate su un'interfaccia utente, come Snowflake Copilot, che rende l'interazione con l'IA intuitiva e accessibile.

Inoltre, Snowflake offre l'accesso a funzioni SQL e Python basate su LLM che possono accelerare l'analisi in modo economicamente vantaggioso. Queste funzioni sfruttano sia modelli specializzati che modelli a uso generale, tutti disponibili tramite Snowflake Cortex, permettendo un'analisi dei dati più profonda e efficiente per un pubblico più ampio.

Costruire applicazioni LLM personalizzate in pochi minuti

Ora, gli sviluppatori possono creare applicazioni LLM che apprendono le sfumature uniche della loro attività e dei loro dati in pochi minuti. Questo è possibile senza la necessità di integrazioni complesse, distribuzione manuale di LLM o gestione di infrastrutture basate su GPU. Per costruire queste applicazioni LLM personalizzate con i propri dati, utilizzando la generazione aumentata di recupero (RAG) nativamente integrata in Snowflake, gli sviluppatori dispongono di strumenti potenti e flessibili:

Funzioni di Snowflake Cortex

Grazie a Snowflake Cortex, un servizio completamente gestito, tutti i clienti hanno accesso agli elementi di base necessari per lo sviluppo di applicazioni LLM senza la necessità di gestire un'infrastruttura complessa e costosa. Questo include un insieme di funzioni a uso generale che sfruttano LLM open source all'avanguardia nel settore e LLM proprietari ad alte prestazioni, al fine di facilitare il supporto di un'ampia gamma di casi d'uso attraverso l'ingegneria dei prompt. I modelli iniziali disponibili includono:

  • Per la funzione COMPLETE (completamento del testo):
    • Llama 2 di Meta AI
    • Mistral Large di Mistral AI
    • Mixtral 8x7B di Mistral AI
    • GPT-3.5 Turbo di OpenAI
  • Per la funzione EMBED_TEXT (generazione di embedding testuali):
    • nomic-embed-text di Nomic AI
    • e5-base-v2 di Microsoft

Inoltre, queste funzioni includono l'integrazione vettoriale e la funzionalità di ricerca semantica avanzata, che consentono agli utenti di contestualizzare facilmente le risposte del modello con i propri dati. Ciò porta alla creazione di applicazioni personalizzate e altamente pertinenti in pochi minuti. Questo include:

  • Funzione VECTOR_ENBEDDING (per la generazione di embedding vettoriali, fondamentale per RAG)
  • Funzione VECTOR_SEARCH (per la ricerca semantica basata su vettori, anch'essa cruciale per RAG)

Streamlit in Snowflake

Con Streamlit in Snowflake (attualmente in anteprima pubblica), i team possono accelerare ulteriormente la creazione di applicazioni LLM. Questo è possibile grazie alla capacità di sviluppare interfacce utente complete e interattive con solo poche righe di codice Python, eliminando la necessità di esperienza nello sviluppo front-end. Queste applicazioni possono poi essere implementate e condivise in modo sicuro all'interno di un'organizzazione tramite URL unici che sfruttano i controlli di accesso basati sui ruoli già esistenti in Snowflake. La generazione di tali URL è semplificata, richiedendo un solo clic, rendendo la distribuzione e la collaborazione estremamente efficienti.

Personalizzazione avanzata e flessibilità con Snowpark Container Services

Per personalizzare ulteriormente le applicazioni LLM, gli sviluppatori non incontrano praticamente alcuna limitazione in ciò che possono creare e distribuire all'interno di Snowflake con Snowpark Container Services (presto disponibile in anteprima pubblica in alcune regioni AWS). Questo ambiente di runtime Snowpark aggiuntivo è progettato per offrire massima flessibilità, consentendo agli sviluppatori di implementare, gestire e scalare facilmente i workload containerizzati, che includono compiti, servizi e funzioni di servizio. Tutto ciò avviene utilizzando un'infrastruttura sicura e gestita da Snowflake, che offre opzioni hardware configurabili, come i processori grafici NVIDIA, per supportare anche i carichi di lavoro più intensivi dal punto di vista computazionale.

Ecco altri esempi di adattamenti comuni che gli sviluppatori possono apportare all'applicazione LLM senza dover spostare i dati al di fuori dello spazio governato e sicuro di Snowflake:

  • Messa a punto di modelli su dati proprietari: gli sviluppatori possono facilmente effettuare il fine-tuning di modelli esistenti utilizzando i dati specifici della propria azienda, come documenti finanziari riservati, cartelle cliniche dettagliate o rapporti di ricerca interni. Questo garantisce che i LLM siano addestrati sulle informazioni più pertinenti e sensibili, migliorando significativamente la loro accuratezza e pertinenza per il contesto aziendale.
  • Costruzione di modelli personalizzati: è possibile creare modelli da zero, inclusi Small Language Models (SLM) più efficienti, progettati specificamente per affrontare compiti altamente specializzati che potrebbero non essere coperti efficacemente da modelli generici. Questo offre un controllo granulare sulle capacità del modello e ottimizza le risorse.
  • Implementazione e integrazione di modelli di terze parti: gli sviluppatori possono distribuire e integrare facilmente modelli di terze parti o modelli open source disponibili su piattaforme come Hugging Face. Questo apre un vasto ecosistema di modelli pre-addestrati e comunità, permettendo di sfruttare le ultime innovazioni senza dover ricreare tutto da capo.
  • Integrazione con applicazioni e sistemi esistenti: le nuove funzionalità facilitano l'integrazione dei LLM con le applicazioni e i sistemi esistenti all'interno dell'ecosistema Snowflake. Ciò garantisce una transizione fluida e permette di arricchire le applicazioni aziendali con capacità di IA generativa, sfruttando l'infrastruttura e i processi già consolidati.

In sintesi, Snowflake permette a tutti gli utenti di generare valore rapidamente e in sicurezza dai propri dati aziendali grazie ai LLM e all'IA. Sia che si desideri utilizzare l'IA in pochi secondi per un'analisi rapida, o che si necessiti della flessibilità per creare applicazioni LLM personalizzate e altamente complesse in pochi minuti, Snowflake Cortex, Streamlit in Snowflake e Snowpark Container Services forniscono gli elementi costitutivi necessari. E, cosa fondamentale, tutto ciò avviene senza chiedere di spostare alcun dato fuori dallo spazio sicuro e governato di Snowflake, mantenendo la conformità e la protezione dei dati al centro. Per maggiori informazioni e per iniziare, consultare le risorse fornite da Snowflake.

Rimani informato sulle ultime informazioni sui prodotti, i consigli degli esperti e le risorse di Snowflake, direttamente nella tua casella di posta!

Inviando questo modulo, dichiaro di aver compreso che Snowflake elaborerà i miei dati personali in conformità con la propria Informativa sulla privacy.