L'intelligenza artificiale generativa (nota anche come GenAI) e i Large Language Models (LLM) stanno trasformando radicalmente il modo in cui le persone lavorano in tutto il mondo. Snowflake presenta ora una serie di prodotti innovativi che combinano la semplicità, la sicurezza e la governance della piattaforma con la GenAI. Grazie a queste nuove offerte, ogni utente può integrare gli LLM in un processo analitico in pochi secondi; gli sviluppatori possono creare app basate sulla GenAI in pochi minuti o eseguire flussi di lavoro efficienti in poche ore, e, ad esempio, allineare con precisione i modelli fondamentali ai dati aziendali, il tutto all'interno del framework di sicurezza di Snowflake. Questi progressi consentono a sviluppatori e analisti di ogni livello di competenza di incorporare la GenAI nei dati aziendali già sicuri e controllati.

In questo articolo, vi mostreremo tutte le funzionalità che gli sviluppatori possono utilizzare per sfruttare in modo sicuro e senza sforzo l'AI generativa per i loro dati aziendali con Snowflake.

Componenti fondamentali per l'AI generativa con dati controllati

Per utilizzare l'AI generativa con dati già controllati, i clienti Snowflake possono accedere a due componenti fondamentali:

  • Snowflake Cortex

    Snowflake Cortex (disponibile in Private Preview) è un servizio intelligente e completamente gestito che offre accesso a modelli AI, LLM e funzionalità di ricerca vettoriale leader del settore, consentendo alle organizzazioni di analizzare rapidamente i dati e sviluppare applicazioni AI. Per consentire alle aziende di sviluppare rapidamente app LLM che comprendano i loro dati, Snowflake Cortex fornisce agli utenti l'accesso a un numero crescente di funzioni serverless. Queste consentono inferenze su LLM generativi leader del settore, come il modello Llama-2 di Meta AI, modelli specifici per attività per accelerare l'analisi e funzionalità avanzate di ricerca vettoriale.

    Tuttavia, non sono solo gli sviluppatori a poter beneficiare di Snowflake Cortex. Snowflake Cortex è anche il servizio sottostante che abilita esperienze basate su LLM con un'interfaccia utente (UI) completa. Questo include Document AI (in Private Preview), Snowflake Copilot (in Private Preview) e Universal Search (in Private Preview).

  • Snowpark Container Services

    Questo ambiente di runtime aggiuntivo di Snowpark (presto disponibile in Public Preview in regioni AWS selezionate) consente agli sviluppatori di distribuire, gestire e scalare senza sforzo carichi di lavoro e modelli containerizzati personalizzati per attività come l'affinamento di LLM open source utilizzando un'infrastruttura sicura e gestita da Snowflake con istanze GPU. E tutto questo all'interno del loro account Snowflake. Qui potete trovare maggiori informazioni e rimanere aggiornati.

Possibilità illimitate per le app LLM

Con questi due componenti, gli sviluppatori hanno possibilità illimitate per la creazione di applicazioni LLM all'interno dei confini controllati di Snowflake.

Democratizzare l'accesso all'AI

Per democratizzare l'accesso ai dati aziendali e all'AI, e per garantire che sia utilizzata da tutti e non solo da pochi esperti, Snowflake offre innovazioni che permettono a tutti gli utenti di sfruttare LLM all'avanguardia senza integrazioni specifiche o sviluppo frontend. Questo include esperienze complete basate su UI come Snowflake Copilot e l'accesso a funzioni SQL e Python basate su LLM. In questo modo, le analisi possono essere accelerate in modo efficiente in termini di costi utilizzando modelli specializzati e generali disponibili tramite Snowflake Cortex. Maggiori informazioni sono disponibili qui.

Sviluppare app LLM nativamente in Snowflake

Gli sviluppatori possono ora creare app LLM che catturano le sfumature uniche della loro azienda e dei loro dati in pochi minuti, senza integrazioni, configurazione manuale di LLM o gestione dell'infrastruttura basata su GPU. Per sviluppare queste applicazioni LLM basate sui loro dati e utilizzando la Retrieval Augmented Generation (RAG) nativamente in Snowflake, gli sviluppatori possono sfruttare quanto segue:

  • Funzioni di Snowflake Cortex

    Come servizio completamente gestito, Snowflake Cortex garantisce che tutti i clienti abbiano accesso ai blocchi costitutivi necessari per lo sviluppo di applicazioni LLM, senza la necessità di una complessa gestione dell'infrastruttura.

    Questo include una serie di funzioni generali che utilizzano LLM open source leader del settore e LLM proprietari potenti per supportare un'ampia gamma di casi d'uso con il prompt engineering. I modelli di base includono:

    • COMPARE_AND_CONTRAST_ANALYTICS
    • COMPLETE
    • SUMMARIZE
    • SENTIMENT
    • TRANSLATE
    • _TEXT_QA

    Inoltre, queste funzioni includono anche l'embedding di vettori e la funzionalità di ricerca semantica. Ciò consente agli utenti di contestualizzare le risposte del modello con i propri dati e di creare app personalizzate in pochi minuti. Questo include:

    • Rispondere alle domande del servizio clienti con basi di conoscenza interne.
    • Generare automaticamente testi di marketing.
    • Riassumere il feedback dei clienti.
    • Tradurre documenti in più lingue.
  • Streamlit in Snowflake

    Con Streamlit (Public Preview), i team possono sviluppare interfacce con poche righe di codice Python e creare così app LLM ancora più velocemente, senza alcuna esperienza di frontend. Queste app possono essere quindi distribuite e condivise in modo sicuro tramite URL personalizzati all'interno di un'organizzazione. Gli URL utilizzano i controlli di accesso basati sui ruoli esistenti in Snowflake e possono essere creati con un solo clic. Maggiori informazioni sono disponibili qui.

Personalizzazione avanzata con Snowpark Container Services

Per una personalizzazione ancora più precisa delle applicazioni LLM, gli sviluppatori non hanno praticamente limiti quando sviluppano e distribuiscono in Snowflake con Snowpark Container Services (presto in Public Preview in regioni AWS selezionate). Con questa opzione aggiuntiva sotto forma di ambiente di runtime Snowpark, gli sviluppatori possono distribuire, gestire e scalare senza sforzo carichi di lavoro containerizzati (job, servizi, funzioni di servizio). Questo è possibile utilizzando l'infrastruttura sicura e gestita da Snowflake con opzioni hardware configurabili, come ad esempio le GPU NVIDIA.

Ecco alcune altre personalizzazioni comuni che gli sviluppatori possono apportare alle app LLM, senza dover spostare i dati dall'ambiente sicuro controllato da Snowflake:

  • Affinare LLM open source sui dati aziendali.
  • Distribuire modelli personalizzati (ad esempio, visione artificiale).
  • Ospitare modelli proprietari.
  • Eseguire analisi geospaziali.
  • Eseguire applicazioni o modelli di terze parti.

Conclusione

Con Snowflake, tutti gli utenti possono ottenere rapidamente e in modo sicuro valore dai loro dati aziendali utilizzando LLM e AI. Che si tratti di utilizzare l'AI in pochi secondi o di creare app LLM personalizzate in modo flessibile in pochi minuti: Snowflake Cortex, Streamlit e Snowpark Container Services forniscono i blocchi costitutivi necessari, senza che i dati debbano essere spostati al di fuori dei confini sicuri e controllati di Snowflake. Maggiori informazioni per un facile avvio sono disponibili qui:

Ricevi il meglio, le novità più interessanti e gli ultimi aggiornamenti ogni settimana nella tua casella di posta.

Inviando questo modulo, dichiaro di aver compreso che Snowflake tratterà i miei dati personali in conformità con la loro Informativa sulla Privacy.

Le ultime novità sui prodotti Snowflake, approfondimenti di esperti e risorse direttamente nella tua casella di posta!