Da un’analisi effettuata nel novembre 2024 (potete leggerla qui) emergeva che i modelli linguistici (LLM) open source di origine occidentale (llama3 su tutti, sviluppato da Meta) erano ampiamente utilizzati in Cina, e talvolta anche implementati da organizzazioni statali o parastatali, alcune delle quali soggette a sanzioni e provvedimenti restrittivi statunitensi.

L’analisi era basata sull’analisi di 1572 istanze, installate su server cinesi e pubblicamente raggiungibili, di una piattaforma denominata “Ollama” che consente di installare localmente, anche su personal computer di utilizzo ordinario, modelli linguistici leggeri ma comunque in grado di svolgere agilmente compiti piuttosto complessi.

Considerato che ChatGPT non poteva (e tutt’oggi non può) essere utilizzato in Cina, l’utilizzo di modelli open-source liberamente scaricabili rappresentava una valida alternativa per cittadini e organizzazioni cinesi che intendessero avvalersi dell’intelligenza artificiale generativa.

L’analisi dei 1572 indirizzi ip sopramenzionati rivelava (v. immagine sotto) che llama3 era il modello più frequentemente installato, seguito da altri modelli cinesi od europei. Sebbene dalla ricerca emergesse plasticamente la “vivacità” del sistema cinese in tema di sviluppo di modelli linguistici, delineando un quadro ben diverso da quello dipinto da taluni soggetti (secondo i quali la Cina si stava semplicemente appropriando di tecnologie occidentali colpevolmente rilasciate liberamente – e gratuitamente – sul mercato), era comunque evidente che, alla fine del 2024, i modelli linguistici occidentali erano notevolmente competitivi e popolari, per lo meno da quanto era possibile osservare tramite l’aggregazione dei singoli dati reperiti da ciascuna istanza di Ollama.

La stessa ricerca, ripetuta nel gennaio 2026 – duque più di un anno dopo – su oltre 2.700 istanze di Ollama, dipinge un quadro radicalmente mutato. Si nota infatti che llama3 non è più il Re dei modelli installati, rimanendo relegato in quinta posizione, mentre il podio è occupato da modelli leggeri con la prima posizione occupata da smollm2 (da soli 135 milioni di parametri) e il secondo posto in mano a DeepSeek-r1 da 1,5 miliardi di parametri.

Cosa può indicare questo?

Con l’arrivo sul mercato locale delle versioni “pesanti” di DeepSeek, modello cinese che oggi rivaleggia con i più celebri cugini di OpenAI, Google e Anthropic, la Cina ha colmato il gap tecnologico che la vedeva, almeno fino a 14 mesi fa, relegata a mero fruitore di modelli open-source occidentali e modelli proprietari sviluppati dai tech-giants di Pechino: esperimenti interessanti ma comunque non paragonabili in termini prestazionali alle versioni commerciali sviluppate negli Stati Uniti.

La disponibilità di DeepSeek in Cina rende relativamente meno interessanti le soluzioni “locali” fruibili tramite l’interfaccia di Ollama: l’ipotesi è, quindi, che molte installazioni di llama3 siano state rimosse per far spazio a modelli “lightweight” meno onerosi in termini di architettura hardware e di costo-macchina.

Segno che il sistema AI cinese, effettivamente, non è più un attore di serie B.