Con il lancio del suo nuovo modello V3.1, DeepSeek alza l'asticella nel panorama dell'intelligenza artificiale. Per la prima volta, un modello permette di passare tra due distinte modalità operative, a seconda che l'applicazione richieda un pensiero complesso e approfondito o risposte rapide ed efficienti. Questa architettura ibrida è perfettamente in linea con la crescente importanza degli agenti AI e la necessità di flessibilità nelle loro implementazioni. Allo stesso tempo, DeepSeek rimane fedele alla sua filosofia fondamentale: offrire prestazioni elevate a un costo contenuto, ponendosi come un potenziale nuovo standard per i progetti di IA.
Due modalità, utilizzo flessibile
Il cuore dell'innovazione di V3.1 risiede nella sua capacità di operare in due modalità distinte: la modalità Think e la modalità Non-Think. La modalità Think è specificamente progettata per il ragionamento logico avanzato e l'utilizzo di strumenti complessi. È il motore ideale per задачи che richiedono analisi approfondite, processi decisionali multistep o l'interazione con API e database esterni. Al contrario, la modalità Non-Think gestisce in modo efficiente ed economico compiti più semplici e meno impegnativi dal punto di vista computazionale, come la generazione di testo di routine o risposte a domande frequenti.
Entrambe le modalità condividono una generosa finestra di contesto di 128.000 token, una dimensione notevole che consente al modello di comprendere e elaborare grandi quantità di informazioni contemporaneamente. La selezione tra le due modalità è resa semplice per gli utenti, che possono passare dall'una all'altra tramite un apposito interruttore all'interno della DeepSeek Chat o, per gli sviluppatori, attraverso l'utilizzo di diversi endpoint API. L'attivazione della modalità Think avviene tramite l'uso di specifici token di prompt, una separazione che conferisce al modello una notevole flessibilità. Questo approccio permette agli utenti che necessitano di risposte rapide di risparmiare risorse computazionali, mentre chi ricerca analisi precise ottiene accesso a funzionalità avanzate come agenti, chiamate a strumenti (Tool-Calls) e processi a più livelli. Per gli sviluppatori, questo si traduce in un maggiore controllo, sia dal punto di vista tecnico che finanziario.
Contesti più lunghi, training mirato
Rispetto al suo predecessore, Deepseek V3.1 ha ricevuto un potenziamento significativo, con l'aggiunta di ben 840 miliardi di token di training aggiuntivi. Il processo di addestramento è stato suddiviso in due fasi distinte: una fase iniziale più ampia, focalizzata su contesti da 32.000 token, e una fase estesa specificamente progettata per contesti da 128.000 token. Questo training mirato consente al modello di comprendere e elaborare meglio contesti più lunghi e complessi, una capacità cruciale per applicazioni che spaziano dall'analisi di intere basi di codice alla gestione di query di ricerca sofisticate.
I miglioramenti sono evidenti nei benchmark standard del settore, come SWE-Bench e Terminal-Bench. Deepseek V3.1 dimostra prestazioni superiori, in particolare nelle attività di codifica e logica, superando il precedente modello di ragionamento R1. Inoltre, la modalità Think di V3.1 fornisce risposte più rapide e precise rispetto alla versione precedente R1-0528. Questi risultati rendono il modello particolarmente attraente per i flussi di lavoro basati su agenti, dove la capacità di ragionare in modo accurato e di gestire contesti ampi è fondamentale per l'efficacia e l'efficienza delle operazioni.
Più economico della concorrenza
Un altro punto di forza di Deepseek V3.1 è la sua struttura di prezzi competitiva, che entrerà in vigore a partire dal 5 settembre 2025. I costi per le richieste di input sono fissati a 0,07 dollari USA per milione di token in caso di "cache hit" (ovvero, quando il modello riutilizza un risultato precedentemente calcolato) e a 0,56 dollari USA per milione di token in caso di "cache miss". Per le risposte di output, il costo è di 1,68 dollari USA per milione di token. Per mettere questi prezzi in prospettiva, OpenAI, per il suo modello GPT-5, richiede circa 10 dollari per milione di token. Deepseek si posiziona quindi come un'alternativa significativamente più economica.
Questa strategia di prezzo ha implicazioni profonde per gli sviluppatori. Consente di testare e scalare la logica degli agenti in modo altamente efficiente dal punto di vista dei costi. L'ampia finestra di contesto, unita ai prezzi contenuti, assicura che anche le attività più complesse non diventino eccessivamente dispendiose. L'idea di attivare lo "sforzo di pensiero" solo quando necessario, anziché in modo predefinito, risponde perfettamente alle esigenze degli attuali casi d'uso, permettendo un'ottimizzazione delle risorse senza compromettere la qualità delle elaborazioni.
Aperto e facilmente collegabile
Deepseek V3.1 abbraccia la filosofia dell'apertura e dell'interoperabilità. Il modello è disponibile sotto licenza MIT su Hugging Face, una piattaforma ampiamente utilizzata dalla comunità di ricerca e sviluppo dell'AI. Questa disponibilità consente a un vasto pubblico di accedere, sperimentare e integrare il modello nei propri progetti con facilità. Il modello può essere utilizzato direttamente tramite due endpoint API specializzati, garantendo un'integrazione fluida nei sistemi esistenti.
Inoltre, Deepseek V3.1 supporta il formato dell'API di Anthropic, un'ulteriore mossa verso l'interoperabilità con gli standard di settore. Deepseek sta anche testando la funzione "Strict Function Calling" come nuova opzione, un'innovazione che promette di migliorare la precisione e l'affidabilità delle interazioni tra il modello e gli strumenti esterni. L'obiettivo principale di tutte queste iniziative è rendere l'integrazione di V3.1 nei sistemi esistenti il più semplice possibile, sia per scopi di ricerca accademica che per lo sviluppo di prodotti commerciali, democratizzando l'accesso a una potenza di calcolo e ragionamento avanzata.
Riferimenti
- THE DECODER
- DeepSeek API Docs (Release)
- DeepSeek API Docs (Pricing)
- Hugging Face
- Reuters