DeepInfra Unisce le Forze con Hugging Face

Siamo molto soddisfatti di annunciare che DeepInfra è ora un provider di inferenza supportato su Hugging Face Hub. Questa partnership espande il campo di azione dell'inferenza serverless direttamente sulle pagine dei modelli Hub. I provider di inferenza vengono integrati in maniera fluida nei nostro client SDK, rendendoli facilmente utilizzabili in JavaScript o Python per supportare un vasto spettro di modelli.

Chi è DeepInfra?

DeepInfra è una piattaforma di inferenza AI serverless che offre uno dei tassi di costo per token più competitivi sul mercato. La sua piattaforma fornisce accesso a una vasta gamma di modelli, che aiuta gli sviluppatori ad includere un largo ventaglio di funzioni di AI applicabili direttamente nei loro progetti con notevole facilità.

I modelli gestiti da DeepInfra spaziano dall'LLM, ai modelli testo-immagine, testo-video, embeddings, e altro. Questa collaborazione iniziale introduce il supporto per le attività di generazione testuale e conversazionale su Hugging Face. Gli sviluppatori possono ora accedere facilmente a modelli di open-weight estremamente popolari, come DeepSeek V4, Kimi-K2.6, GLM-5.1, e molti altri. Presto seguiranno ulteriori funzionalità e tipi di modelli, tra cui testo-immagine, testo-video e embeddings.

Documentazione e Supporto

Per saperne di più sull’utilizzo di DeepInfra come provider di inferenza, consultare la sua pagina di documentazione ufficiale. È anche possibile controllare l’elenco completo dei modelli supportati da DeepInfra. Seguilo su Hugging Face per ricevere aggiornamenti costanti: https://huggingface.co/DeepInfra.

Integrazione degli SDK

DeepInfra è compatibile con gli SDK Hugging Face, disponibili come huggingface_hub (versione 1.11.2 per Python) e @huggingface/inference per JavaScript. L’esempio seguente mostra come utilizzare DeepSeek V4 Pro attraverso DeepInfra: utilizza un token Hugging Face per autenticarti — la richiesta verrà automaticamente gestita da DeepInfra.

Usare DeepInfra con gli Agenti

I provider di inferenza su Hugging Face sono integrabili nei principali Agent Harness, tra cui Pi, OpenCode, Hermes Agents, OpenClaw e altri. Questo permette agli utenti di integrare modelli ospitati da DeepInfra direttamente nei loro strumenti preferiti, senza la necessità di codice aggiuntivo. Per visualizzare l'elenco completo di integrazioni, visitare il link dedicato.

Bilanciamento del costo

Per le richieste dirette, dove si usa direttamente la chiave API di un provider, l'addebito verrà gestito da quest’ultimo. Ad esempio, se si utilizza una chiave API di DeepInfra, il fatturato verrà gestito direttamente da DeepInfra. Per le richieste route attraverso l'autenticazione via Hub Hugging Face, saranno addebitati i tassi API standard del provider. Non applichiamo alcun sovrapprezzo; passiamo semplicemente il costo direttamente. In futuro, potremmo introdurre accordi di ricavi con i nostri partner provider.

Vantaggi per gli Utenti PRO

Un aspetto importante da sottolineare è il beneficio riservato agli utenti PRO: riceveranno 2 dollari mensili di credito per l'inferenza, che possono essere utilizzati con qualsiasi provider. Gli utenti PRO godranno inoltre di ZeroGPU, Mode di sviluppo per Spaces, limiti moltiplicati fino a 20 volte e vantaggi simili.

Se non sei PRO, sai che Hugging Face offre comunque inferenza gratuita a tutti gli utenti registrati, ma ti invitiamo a considerare l'upgrade.

Feedback Benvenuto

Sei invitato a lasciare il tuo feedback sulla nostra pagina dedicata, visitando: https://huggingface.co/spaces/huggingface/HuggingDiscussions/discussions/49. I tuoi commenti hanno valore per noi e contribuiscono a migliorare il servizio.