Per impostazione predefinita, Ollama esegue i grandi modelli di linguaggio (LLM - large language model) tramite un'interfaccia a riga di comando (CLI). Tuttavia, è possibile associare Ollama a Open WebUI, uno strumento con interfaccia utente grafica (GUI), per interagire con questi modelli di linguaggio naturale in un ambiente visivo e intuitivo.

Questa configurazione riduce la necessità di complessi e talvolta errori inserimenti da riga di comando, rendendola ideale per utenti non tecnici e per team che necessitano di un modo collaborativo e visivo per lavorare con i LLM e implementare applicazioni di intelligenza artificiale. L'approccio visivo migliora l'accessibilità e la produttività, consentendo a un pubblico più ampio di sfruttare la potenza dei modelli di intelligenza artificiale.

In questo articolo, imparerete a configurare Ollama e Open WebUI nel modo più semplice, utilizzando un modello di server privato virtuale (VPS) preconfigurato. Vi guideremo attraverso il dashboard di Open WebUI, vi mostreremo come personalizzare le uscite del modello ed esploreremo le funzionalità di collaborazione, fornendo una panoramica completa per iniziare a lavorare immediatamente.

Configurazione di Ollama e Open WebUI

Il modo più semplice per utilizzare Ollama con Open WebUI è scegliere un piano di hosting VPS di Hostinger. In questo modo, tutti i componenti necessari – Docker, Ollama, Open WebUI e il modello Llama 3.1 – sono già preconfigurati, eliminando la necessità di configurazioni manuali e complesse.

Basandosi sui requisiti di sistema di Ollama, raccomandiamo il piano KVM 4, che offre quattro core vCPU, 16 GB di RAM e 200 GB di spazio di archiviazione NVMe al costo di €10.99/mese. Queste risorse garantiranno il buon funzionamento dei vostri progetti di intelligenza artificiale, fornendo la potenza e la velocità necessarie per gestire carichi di lavoro impegnativi.

Dopo aver acquistato il piano, potete accedere al dashboard di Open WebUI semplicemente inserendo l'indirizzo IP del vostro VPS seguito da :8080 nel vostro browser. Ad esempio: http://your_vps_ip:8080. Questo vi porterà direttamente all'interfaccia grafica pronta per l'uso.

Tuttavia, se avete cambiato sistema operativo dall'installazione iniziale o se state utilizzando un normale piano VPS Hostinger, potete comunque installare Ollama come template seguendo questi passaggi:

  1. Navigate su VPSDashboard.
  2. Scorrete verso il basso fino alla sezione AI Tools.
  3. Trovate e selezionate il template Ollama & Open WebUI.
  4. Cliccate su Installa template.

Attendete circa 10 minuti affinché il processo di installazione si completi. Una volta terminata l'installazione, scorrete verso l'alto e cliccate su Gestisci applicazione per accedere a Open WebUI. Al vostro primo accesso, vi verrà chiesto di creare un account Open WebUI. Seguite le istruzioni sullo schermo e salvate le vostre credenziali per accessi futuri.

Esplorare il dashboard di Open WebUI

Questa sezione vi aiuterà a familiarizzare con le funzionalità di Open WebUI, dalla navigazione nel dashboard al lavoro con modelli multimodali. Il dashboard di Open WebUI offre una presentazione intuitiva e facile da usare anche per i principianti. Se avete familiarità con ChatGPT, l'adattamento a Open WebUI sarà ancora più facile, poiché condividono un'interfaccia utente molto simile.

Il dashboard è diviso in due sezioni principali:

  • Riquadro di navigazione: la barra laterale sinistra che include le opzioni per le conversazioni, i modelli, le impostazioni e altre funzionalità di gestione.
  • Riquadro dati: l'interfaccia di chat principale in cui interagite con i modelli, visualizzate le risposte e gestite le conversazioni.

Gestione dei modelli

Poiché avete installato Ollama e Open WebUI utilizzando il template Hostinger, il modello Llama 3.1 è già pronto per l'uso. Tuttavia, potete scaricare altri modelli di linguaggio tramite il pannello di selezione dei modelli situato nell'angolo superiore sinistro del vostro riquadro dati.

Qui, aggiungete un modello digitando il suo nome nella barra di ricerca e cliccate su Recupera [modello] da Ollama.com. Se non siete sicuri di quale modello utilizzare, visitate la libreria di modelli di Ollama per ottenere descrizioni dettagliate e casi d'uso raccomandati, che vi aiuteranno a scegliere il modello più adatto alle vostre esigenze specifiche.

Tra le opzioni più popolari, citiamo Mistral, noto per la sua efficienza e le sue prestazioni nella traduzione e nel riassunto di testi, e Code Llama, apprezzato per la sua potenza nella generazione di codice e nelle attività legate alla programmazione. Questi modelli offrono capacità diverse e possono essere scelti in base alla natura del compito da svolgere.

Una volta scaricato, avviate una nuova conversazione cliccando su Nuova conversazione. Scegliete il modello desiderato, digitate il vostro messaggio e il modello genererà una risposta. Come con ChatGPT, potete copiare i risultati, fornire il vostro feedback o rigenerare le risposte se non soddisfano le vostre aspettative.

A differenza dell'utilizzo di Ollama tramite l'interfaccia a riga di comando (CLI), la combinazione di questo strumento LLM con Open WebUI vi permette di cambiare modello durante una conversazione per esplorare diversi risultati all'interno della stessa chat. Ad esempio, potete iniziare con Llama per una discussione generale e poi passare a Vicuna per una risposta più specializzata sullo stesso argomento, senza dover avviare una nuova chat.

Un'altra caratteristica unica è la possibilità di caricare più modelli simultaneamente, il che è ideale per confrontare le risposte. Selezionate il vostro modello iniziale, quindi cliccate sul pulsante + accanto per scegliere altri modelli. Dopo aver inserito la vostra richiesta, ogni modello genererà i propri risultati fianco a fianco, consentendo un confronto diretto e una valutazione rapida.

Lettura suggerita: Imparate a scrivere prompt migliori grazie alla nostra guida sulle tecniche di prompt engineering IA.

Personalizzazione delle uscite del modello

La regolazione delle risposte del modello vi permette di affinare il modo in cui il modello interpreta le richieste, ottimizzandolo per attività, toni o esigenze di prestazioni specifiche. Premete il pulsante Controlli per accedere alle impostazioni che regolano il comportamento, lo stile e l'efficienza della risposta, tra cui:

  • Temperatura: Controlla la casualità della risposta. Un valore più alto rende il modello più creativo, mentre un valore più basso lo rende più focalizzato e deterministico.
  • Tasso di ripetizione: Impedisce al modello di ripetere frasi o idee specifiche, promuovendo risposte più varie e originali.
  • Top K: Limita il campionamento dei token ai K token più probabili in ogni fase, influenzando la qualità e la coerenza della risposta.
  • Top P: Limita il campionamento dei token a quelli che rientrano in una probabilità cumulativa P, offrendo un controllo sulla diversità dei token generati.
  • Massimo di token: Definisce la lunghezza massima della risposta del modello, utile per controllare la verbosità.
  • Numero di thread: Consente di configurare il numero di thread utilizzati per l'elaborazione parallela, influendo sulle prestazioni del modello.

Nello stesso menu, potete anche personalizzare le Valvole, che includono strumenti e funzioni personalizzati, e il Prompt di sistema, che definisce il tono e il comportamento generale del modello. Queste funzioni sono spiegate più in dettaglio nella sezione dedicata alle funzionalità di collaborazione.

Inoltre, la modalità Playground, accessibile nell'angolo superiore destro, vi consente di sperimentare diversi parametri e tipi di richieste. Nella scheda Chat, potete testare configurazioni conversazionali:

  • Prompt di sistema: Definisce la persona o il ruolo del modello (ad esempio, "Sei un consulente finanziario").
  • Prompt dell'utente: La vostra domanda o istruzione specifica.

Ad esempio, se le istruzioni del sistema sono "Sei un consulente finanziario" e inserite una domanda nel campo utente, il modello risponderà da quel punto di vista. Allo stesso tempo, la scheda Completamenti invita il modello a generare risposte continuando a partire dai vostri dati. Ad esempio, se digitate "L'apprendimento automatico è", il modello completerà l'affermazione spiegando l'apprendimento automatico, fornendo una risposta contestuale e informativa.

Generazione aumentata tramite recupero (RAG)

Ollama e Open WebUI supportano la generazione aumentata tramite recupero (RAG), una funzione che migliora le risposte dei modelli di intelligenza artificiale raccogliendo informazioni in tempo reale da fonti esterne come documenti o pagine web. In questo modo, il modello può accedere a informazioni aggiornate e specifiche per il contesto per risposte più accurate e pertinenti.

Caricamento di documenti

Open WebUI vi permette di caricare documenti nei formati DOC, PDF, TXT e RTF. Cliccate sul pulsante + nel campo del prompt e selezionate Carica file. Scegliete il documento che desiderate caricare, quindi digitate un'istruzione per il modello, ad esempio:

«Per favore, riassumi il contenuto del file allegato in 50 parole.»

Ricerca web

Se desiderate che il modello navighi sul web, potete connettere Open WebUI a SearchApi, un'interfaccia di programmazione delle applicazioni (API) che recupera informazioni in base ai risultati di ricerca. Seguite i passaggi seguenti per configurarla:

  1. Navigate su Spazio di lavoroValvole.
  2. Trovate SearchApi e cliccate su Aggiungi una chiave API.
  3. Inserite la vostra chiave API e cliccate su Salva.

Una volta completato il processo di configurazione, tornate all'interfaccia di chat, cliccate sul pulsante + nel campo messaggio e attivate la ricerca web. Ora potete chiedere al modello di accedere a informazioni direttamente dal web. Ad esempio:

«Trova le ultime notizie sulle energie rinnovabili e riassumi i punti più importanti.»

Funzionalità di collaborazione

Per i team che desiderano collaborare, Open WebUI permette di gestire più utenti, facilitando il lavoro congiunto sui progetti di intelligenza artificiale. Per aggiungere un nuovo utente:

  1. Navigate su Spazio di lavoroUtenti.
  2. Cliccate su Nuovo utente.
  3. Inserite un nome utente e una password.
  4. Scegliete il ruolo utente (Amministratore o Utente).
  5. Cliccate su Crea.

Una volta completata l'operazione, comunicate le credenziali all'utente in modo che possa accedere. Si prega di notare che gli utenti che non sono amministratori non possono accedere allo Spazio di lavoro e al pannello di amministrazione, mantenendo così una chiara separazione dei ruoli e dei permessi. Successivamente, esplorate lo Spazio di lavoro tramite la barra laterale sinistra. Nella scheda Modelli, potete creare nuovi modelli basati su modelli esistenti o importare modelli, offrendo flessibilità e capacità di personalizzazione avanzate per i vostri progetti.