Appena un mese dopo aver introdotto il suo modello di ragionamento TurboS, il conglomerato cinese Tencent svela colui che ha servito come base: Hunyuan-T1. Secondo quanto dichiarato, grazie a un post-allenamento su larga scala, la sua capacità di ragionamento è stata considerevolmente ampliata e allineata con le preferenze umane, permettendogli di competere con DeepSeek R1.
Già dal 2024, con V2, un modello di linguaggio performante proposto a un costo competitivo, DeepSeek ha scatenato una guerra dei prezzi nel mercato cinese dell'IA, costringendo Tencent e i suoi principali concorrenti, tra cui Zhipu AI, ByteDance, Alibaba, Baidu, a rivedere al ribasso i loro prezzi. Mentre la guerra tecnologica intorno all'IA tra Stati Uniti e Cina continua a intensificarsi sin dall'apparizione di R1, la concorrenza nell'Impero di Mezzo raggiunge anche nuovi picchi. 

Un modello focalizzato sul ragionamento profondo

Dopo Baidu e Alibaba, è quindi il gigante Tencent che cerca di imporsi sul mercato cinese di fronte a DeepSeek
T1 si basa sull'architettura Hybrid-Transformer-Mamba MoE, che come suggerisce il nome, combina i vantaggi dei Transformers e dei modelli Mamba, integrando esperti, il che consente di limitare il numero di parametri attivi. È particolarmente adatta per compiti che richiedono un trattamento di contesto lungo e grande precisione. T1 riduce così le perdite di contesto e ottimizza l'uso delle risorse informatiche, risultando al contempo due volte più veloce nel decodificare. 
Grazie a un post-allenamento basato su RLHF (apprendimento per rinforzo con feedback umano), Tencent posiziona il suo modello come un concorrente serio nei confronti di OpenAI o1 e DeepSeek R1.
Secondo le valutazioni condivise da Tencent, Hunyuan-T1 mostra prestazioni:
  • Superiori o equivalenti su alcuni benchmark (MMLU-pro, CEval, AIME, Zebra Logic);
  • Particolarmente forti in matematica, con un punteggio impressionante di 96,2 su MATH-500;
  • Solide in ingegneria e codifica, dimostrando una capacità avanzata di risolvere problemi tecnici.
Benchmark forniti da Tencent

Per capire meglio

Cos'è l'architettura Hybrid-Transformer-Mamba MoE e perché è utilizzata in Hunyuan-T1?

L'architettura Hybrid-Transformer-Mamba MoE combina i vantaggi dei Transformer e dei modelli Mamba, integrando esperti per limitare il numero di parametri attivi. È utilizzata per ridurre la perdita di contesto e ottimizzare le risorse computazionali, in particolare per il trattamento di contesti lunghi e precisi. Questo migliora l'efficienza e la velocità di decodifica, rendendo Hunyuan-T1 competitivo per compiti complessi.