\\ Home Page : Articolo : Stampa
Ant Group sfida Nvidia con dInfer, un framework AI 10 volte più veloce
Di Alex (del 18/10/2025 @ 03:00:00, in Intelligenza Artificiale, letto 70 volte)
Un'immagine concettuale che rappresenta la velocità di elaborazione del framework AI dInfer di Ant Group.
Un'immagine concettuale che rappresenta la velocità di elaborazione del framework AI dInfer di Ant Group.

Il gigante fintech cinese Ant Group ha lanciato una sfida diretta al dominio di Nvidia nel campo dell'intelligenza artificiale, rilasciando un framework open-source chiamato dInfer che promette prestazioni fino a 10 volte superiori. Questa mossa non è solo una gara di velocità, ma una mossa geotecnologica strategica per aggirare le restrizioni statunitensi sui chip avanzati, puntando tutto sull'innovazione software. ARTICOLO COMPLETO

Un nuovo paradigma: i modelli di diffusione
Il framework dInfer di Ant Group non è progettato per i Large Language Models (LLM) tradizionali come GPT, che sono di tipo "autoregressivo" e generano testo in modo sequenziale, una parola dopo l'altra. Invece, dInfer è ottimizzato per una classe più recente di modelli chiamata "diffusion language models" (dLLM). Questi modelli, già ampiamente utilizzati per la generazione di immagini e video, funzionano in modo diverso: generano l'output in parallelo, il che può portare a un'efficienza computazionale molto maggiore.

Scommettendo su questa architettura alternativa, Ant Group sta tentando di cambiare le regole del gioco. Di fronte alle restrizioni sull'esportazione di chip AI avanzati dagli Stati Uniti, le aziende cinesi non possono competere sulla pura potenza hardware. La loro strategia è quindi quella di innovare a livello di software e algoritmi, cercando un vantaggio in un campo dove possono ancora primeggiare.

Prestazioni da record
I risultati dei test interni di Ant Group sono impressionanti. Sul benchmark di generazione di codice HumanEval, utilizzando il proprio modello di diffusione LLaDA-MoE, dInfer ha raggiunto una media di 1.011 token al secondo. In confronto, il framework Fast-dLLM di Nvidia ha generato solo 91 token al secondo, mentre vLLM, un motore di inferenza open-source sviluppato a Berkeley, ha raggiunto i 294 token al secondo.

Questi numeri indicano che dInfer è fino a 10 volte più veloce della soluzione di Nvidia e 3 volte più veloce di vLLM per questo specifico tipo di modello. Secondo i ricercatori di Ant, questo risultato contribuisce a risolvere una delle principali limitazioni dei modelli di diffusione: il loro elevato costo computazionale, rendendoli una valida alternativa pratica ai modelli autoregressivi.

Una strategia open-source per l'indipendenza tecnologica
Rilasciando dInfer come progetto open-source, Ant Group non solo fornisce alla comunità di sviluppatori uno strumento pratico per accelerare la ricerca sui dLLM, ma posiziona anche la propria tecnologia come un potenziale standard di settore. Questa mossa si inserisce in una più ampia strategia di autosufficienza tecnologica cinese. Recentemente, è emerso che Ant Group ha sviluppato tecniche per addestrare modelli AI a un costo inferiore del 20% utilizzando semiconduttori di produzione cinese (di Alibaba e Huawei), ottenendo risultati paragonabili a quelli dei chip H800 di Nvidia.

L'introduzione di dInfer è molto più di un semplice annuncio tecnico. È un segnale che la corsa globale all'intelligenza artificiale non si combatte solo sul fronte dell'hardware. Innovando radicalmente le architetture software e promuovendo paradigmi alternativi, le aziende tecnologiche cinesi stanno dimostrando una notevole resilienza e capacità di aggirare le barriere geopolitiche, intensificando la competizione e accelerando il progresso in tutto il settore.