Snowflake Cortex, il servizio completamente gestito che offre accesso ai principali modelli linguistici di grandi dimensioni (LLM) del settore, è ora disponibile per tutti i clienti Snowflake. Questa integrazione consente alle aziende di incorporare in modo sicuro l'IA generativa nei propri dati governati, sfruttando le funzioni LLM su Cortex in regioni specifiche. Il team di Snowflake gestisce l'ottimizzazione dei modelli e l'infrastruttura GPU, garantendo prestazioni economicamente vantaggiose, in modo che i team dei clienti possano concentrarsi esclusivamente sullo sviluppo di applicazioni di IA innovative.

Le nuove funzionalità rilasciate oggi riflettono l'impegno di Snowflake nel fornire un'IA generativa efficiente, user-friendly e affidabile. Queste innovazioni combinano tre aree chiave di aggiornamento: l'aggiunta di nuovi LLM di ultima generazione, un recupero delle informazioni migliorato e una sicurezza dell'IA notevolmente rafforzata.

La sinergia di questi aggiornamenti genera un valore significativo in tutti i settori, con due casi d'uso particolarmente rilevanti che beneficiano direttamente delle nuove capacità. Primo, i chatbot per la documentazione, che permettono alle aziende di creare assistenti intelligenti in grado di rispondere a domande complesse basate sui propri documenti interni in modo rapido e preciso. Secondo, gli assistenti per il servizio clienti, che possono migliorare drasticamente l'efficienza e la qualità delle interazioni con i clienti, fornendo risposte immediate e pertinenti basate su un'ampia gamma di dati aziendali.

Nuovi modelli linguistici di grandi dimensioni (LLM) di ultima generazione

Con l'evoluzione continua dei modelli all'avanguardia, i clienti necessitano di flessibilità per testare e valutare rapidamente e in sicurezza i modelli, al fine di ottenere i migliori risultati per i loro specifici casi d'uso. Per rispondere a questa esigenza, Snowflake Cortex ha ampliato il supporto per una gamma di LLM leader del settore, offrendo una scelta più ampia e versatile ai suoi utenti. Tra i modelli ora supportati figurano:

  • Llama 3 (8B e 70B) di Meta
  • Mixtral (8x7B) di Mistral AI
  • Mistral (7B) di Mistral AI
  • Arctic di Snowflake

L'utilizzo di uno di questi modelli con i propri dati è incredibilmente semplice e intuitivo. È sufficiente modificare il nome del modello nella funzione COMPLETE, disponibile sia in SQL che in Python, per iniziare a sfruttare le loro capacità avanzate. Questa semplicità d'uso accelera il processo di sperimentazione e implementazione, consentendo agli sviluppatori di iterare rapidamente e integrare l'IA generativa nelle loro applicazioni senza complessità aggiuntive.

Recupero aumentato (RAG) migliorato

Per rispondere con precisione a domande di business utilizzando gli LLM, le aziende devono integrare i modelli pre-addestrati con i propri dati proprietari. La Generazione Aumentata dal Recupero (RAG) è una soluzione molto popolare per affrontare questa sfida, in quanto incorpora dati fattuali e in tempo reale nella generazione degli LLM, garantendo risposte più accurate e contestualmente rilevanti.

Grazie alla soluzione completamente integrata di Snowflake, i clienti possono ora testare e valutare facilmente i casi d'uso orientati a RAG, come le esperienze di chat basate su documenti. Arctic Embed è ora disponibile come opzione nella funzione Cortex EMBED. Le funzioni di distanza vettoriale e EMBED, insieme a VECTOR come tipo di dati nativo in Snowflake, sono attualmente disponibili in public preview e saranno presto disponibili per tutti i clienti. Poiché tutto questo è integrato nativamente nella piattaforma Snowflake, non è necessario configurare, gestire e governare un archivio vettoriale separato. Questa esperienza coerente accelera il percorso dall'idea all'implementazione e amplia la gamma di casi d'uso che le aziende possono supportare con l'IA generativa.

Siete pronti a creare il vostro chatbot per la documentazione in Snowflake? Provate la guida rapida passo-passo. Snowflake continua a sviluppare un recupero più avanzato ed efficiente affinché le aziende possano consultare i propri dati in sicurezza, in modo aperto e collaborativo per far progredire il settore. Con questo approccio, Snowflake ha reso open-source Arctic Embed, che è stato riconosciuto come il miglior modello di embedding di testo al mondo per il recupero. Recentemente, Snowflake ha anche annunciato una partnership con l'Università di Waterloo per continuare a far evolvere i benchmark di recupero, consolidando il suo impegno nell'innovazione e nella collaborazione con la comunità di ricerca.

Sicurezza dell'IA rafforzata

Presso Snowflake, la priorità è mantenere elevati standard di sicurezza per le applicazioni di IA generativa. Come parte della partnership in corso con Meta, il modello Llama Guard è integrato nativamente in Snowflake Arctic (e presto sarà disponibile per altri modelli) per filtrare in modo proattivo qualsiasi contenuto potenzialmente dannoso dai prompt e dalle risposte degli LLM. Snowflake Arctic, combinato con Llama Guard, riduce i contenuti discutibili nelle vostre applicazioni di IA generativa, garantendo così un'esperienza utente più sicura per tutti.

Llama Guard di Meta è stato ottimizzato sulla base del dataset raccolto da Meta stessa. Dimostra prestazioni robuste rispetto ai benchmark esistenti, eguagliando, se non superando, le prestazioni degli strumenti di moderazione dei contenuti attualmente disponibili. Il modello è in grado di identificare un insieme specifico di rischi per la sicurezza nei prompt degli LLM e di classificare le risposte generate dagli LLM a tali prompt, fornendo un livello di protezione critico. Snowflake prevede inoltre di offrire prossimamente ai propri clienti la possibilità di utilizzare Llama Guard con altri modelli in Cortex, estendendo la portata di questa funzionalità di sicurezza essenziale.

La sicurezza dei dati è fondamentale per lo sviluppo di applicazioni di IA generativa di produzione. Snowflake si impegna a rispettare gli standard di riservatezza e sicurezza dei dati più importanti del settore per consentire alle aziende di proteggere il loro bene più prezioso, i dati, durante tutto il loro ciclo di vita nell'ambito dell'IA, dall'ingestione all'inferenza. L'elevato livello di sicurezza può essere applicato a tutto Cortex; sia utilizzando una delle funzioni specifiche per un'attività, come summarize, sia un modello di base di Snowflake, Mistral AI, Meta o altro, quanto segue è sempre vero:

  • Governance dei dati unificata: Tutti i dati rimangono sotto il controllo e la governance di Snowflake, eliminando la necessità di spostarli o duplicarli al di fuori del perimetro di sicurezza.
  • Controlli di accesso granulari: Le policy di accesso basate sui ruoli e i controlli di sicurezza granulari garantiscono che solo gli utenti autorizzati possano accedere a dati specifici o ai modelli di IA.
  • Crittografia avanzata: Tutti i dati sono crittografati sia a riposo che in transito, proteggendoli da accessi non autorizzati.
  • Residenza dei dati: I clienti possono specificare la regione in cui risiedono i loro dati, garantendo la conformità con i requisiti normativi locali e la sovranità dei dati.
  • Nessun utilizzo dei dati dei clienti per l'addestramento: I dati dei clienti non vengono utilizzati per l'addestramento dei modelli LLM di Snowflake o di terze parti, preservando la privacy e la proprietà intellettuale.
  • Conformità e certificazioni: Snowflake aderisce a numerosi standard di conformità globali, fornendo un ambiente sicuro e affidabile per l'elaborazione dei dati sensibili.

Ulteriori dettagli sono disponibili nelle FAQ sulla fiducia e la sicurezza dell'IA e nel white paper AI Security Framework di Snowflake.

Costi e disponibilità

Le funzioni LLM di Snowflake Cortex comportano costi di calcolo, che dipendono dal numero di token elaborati. È possibile consultare la tabella dei consumi per conoscere il costo di ciascuna funzione in crediti per milione di token. Questa funzionalità è disponibile in determinate regioni. Per maggiori dettagli, si prega di fare riferimento alla matrice delle funzionalità per regione.

Snowflake Cortex consente alle aziende di accelerare la fornitura di applicazioni di IA generativa con gli LLM, mantenendo al contempo i propri dati all'interno del perimetro di sicurezza e governance di Snowflake. Provate voi stessi!

Volete interagire con i vostri colleghi e scoprire come utilizzare le ultime funzionalità di IA generativa con altri esperti del settore e Snowflake? Unitevi a noi allo Snowflake Data Cloud Summit a San Francisco dal 3 al 6 giugno.

Ricevete le migliori, più interessanti e più recenti novità direttamente nella vostra casella di posta ogni settimana.

Inviando questo modulo, l'utente dichiara di aver compreso che Snowflake elaborerà i suoi dati personali in conformità con la propria Informativa sulla privacy.

Rimanete informati sulle ultime informazioni sui prodotti, sui consigli degli esperti e sulle risorse di Snowflake, direttamente nella vostra casella di posta!