OpenAI sta aggiungendo nuove funzionalità per dare agli sviluppatori un controllo maggiore sul fine-tuning e annuncia nuove opportunità per creare modelli personalizzati in collaborazione con OpenAI.

Esiste una serie di tecniche che gli sviluppatori possono utilizzare per aumentare le prestazioni di un modello, riducendo la latenza, migliorando l'accuratezza e diminuendo i costi. Che si tratti di estendere la conoscenza del modello con la Retrieval-Augmented Generation (RAG), di adattare il comportamento di un modello tramite il fine-tuning, o di creare un modello addestrato specificamente con nuove conoscenze di dominio, abbiamo sviluppato una serie di opzioni per supportare le implementazioni AI dei nostri clienti. Oggi, introduciamo nuove funzionalità che offrono agli sviluppatori un controllo maggiore sul fine-tuning tramite API e introduciamo più opportunità per collaborare con il nostro team di esperti e ricercatori AI nella creazione di modelli personalizzati.

L'API di Fine-tuning di OpenAI

Abbiamo introdotto l'API di fine-tuning self-service per GPT-3.5 nell'agosto 2023. Da allora, migliaia di organizzazioni hanno addestrato centinaia di migliaia di modelli utilizzando la nostra API. Attraverso il fine-tuning, i modelli possono comprendere i contenuti in profondità e le conoscenze e capacità esistenti di un modello possono essere estese per un compito specifico. La nostra API di fine-tuning supporta anche un numero maggiore di esempi rispetto a quanto possa rientrare in un singolo prompt, per ottenere risultati di qualità superiore, riducendo al contempo costi e latenza. Tra i casi d'uso comuni del fine-tuning figurano l'addestramento di un modello per generare codice migliore in un linguaggio di programmazione specifico, il riassunto di testo in un formato specifico o la creazione di contenuti personalizzati basati sul comportamento dell'utente.

Per esempio, Indeed, una borsa lavoro globale, desidera semplificare il processo di assunzione. In questo contesto, hanno introdotto una funzione che invia raccomandazioni personalizzate ai candidati e evidenzia le offerte di lavoro pertinenti in base alle loro competenze, esperienze e preferenze. Hanno affinato GPT-3.5 Turbo per generare spiegazioni di qualità superiore e più accurate. Grazie a ciò, Indeed è riuscita a migliorare costi e latenza, riducendo l'80% il numero di token nei prompt. Come risultato, hanno potuto aumentare il numero di messaggi ai candidati da meno di un milione al mese a circa 20 milioni.

Nuove Funzionalità per un Controllo Migliorato sul Fine-tuning

Oggi introduciamo nuove funzionalità che offrono agli sviluppatori un controllo ancora maggiore sul loro fine-tuning, tra cui:

  • Creazione di checkpoint basati sulle epoche: Creazione automatica di un checkpoint del modello completamente fine-tuned durante ogni epoca di addestramento, riducendo la necessità di un successivo riaddestramento, soprattutto in casi di overfitting.
  • Playground comparativo: Una nuova interfaccia utente del playground con visualizzazioni affiancate per confrontare la qualità e le prestazioni del modello, che consente valutazioni umane degli output di più modelli o istantanee di fine-tuning utilizzando un singolo prompt.
  • Integrazione di terze parti: Supporto per integrazioni con piattaforme di terze parti (a partire da Weights and Biases questa settimana), in modo che gli sviluppatori possano condividere dati dettagliati di fine-tuning con il resto del loro stack.
  • Metriche di validazione complete: La possibilità di calcolare metriche come la perdita e l'accuratezza sull'intero set di dati di validazione anziché solo su un set di esempio, ottenendo così migliori insight sulla qualità del modello.
  • Configurazione degli iperparametri: La possibilità di configurare gli iperparametri disponibili tramite la dashboard (e non solo tramite API o SDK).
  • Miglioramenti alla dashboard di fine-tuning: Inclusa la possibilità di configurare gli iperparametri, visualizzare metriche di addestramento più dettagliate e rieseguire lavori da configurazioni precedenti.

Una presentazione della creazione di un nuovo modello di fine-tuning in Playground.

Il Programma per Modelli Personalizzati

Al DevDay lo scorso novembre, in collaborazione con un gruppo dedicato di ricercatori OpenAI, abbiamo annunciato un programma per modelli personalizzati, progettato per addestrare e ottimizzare modelli per un dominio specifico. Da allora, abbiamo incontrato decine di clienti per determinare le loro esigenze di modelli personalizzati e abbiamo ulteriormente sviluppato il nostro programma per massimizzare le prestazioni.

Fine-tuning Assistito

Oggi annunciamo ufficialmente la nostra offerta di fine-tuning assistito come parte del programma per modelli personalizzati. Per il fine-tuning assistito, i nostri team tecnici hanno collaborato per utilizzare tecniche che vanno oltre l'API di fine-tuning, come iperparametri aggiuntivi e diversi metodi di fine-tuning parametrico efficiente (PEFT) su larga scala. Ciò è particolarmente utile per le organizzazioni che necessitano di supporto nella configurazione di pipeline di dati di addestramento efficienti, sistemi di valutazione e parametri e metodi su misura per massimizzare le prestazioni del modello per il loro caso d'uso o compito.

Per esempio, SK Telecom, un operatore di telecomunicazioni con oltre 30 milioni di abbonati in Corea del Sud, desiderava adattare un modello in modo che fosse un esperto nel settore delle telecomunicazioni, con un focus iniziale sul servizio clienti. Hanno collaborato con OpenAI per ottimizzare GPT-4 e migliorare le sue prestazioni nelle conversazioni relative alle telecomunicazioni in lingua coreana. Nel corso di diverse settimane, SKT e OpenAI hanno ottenuto un significativo miglioramento delle prestazioni nelle attività di servizio clienti nel settore delle telecomunicazioni – un aumento del 35% nella qualità del riassunto delle conversazioni, un aumento del 33% nell'accuratezza del riconoscimento delle intenzioni e un aumento dei punteggi di soddisfazione da 3,6 a 4,5 (su 5) confrontando il modello fine-tuned con GPT-4.

Modelli Completamente Addestrati su Misura

In alcuni casi, le organizzazioni devono addestrare un modello appositamente sviluppato da zero, che comprenda la loro attività, il loro settore o il loro dominio specialistico. I modelli completamente addestrati su misura acquisiscono nuove conoscenze da un dominio specifico modificando passaggi chiave del processo di addestramento del modello utilizzando tecniche innovative durante e dopo l'addestramento. Le organizzazioni che hanno successo con un modello completamente addestrato su misura spesso dispongono di grandi quantità di dati proprietari – milioni di esempi o miliardi di token – che desiderano utilizzare per insegnare al modello nuove conoscenze o comportamenti complessi e unici per casi d'uso estremamente specifici.

Harvey, un AI-na