Infodatacast

DeepSeek ai raggi X. La nostra prova

di Luca Tremolada e Andrea Gianotti

Attualmente è uno dei modelli linguistici open source made in China più potenti, ha capacità di “ragionamento” avanzate e costa meno degli altri. Qui trovate una analisi. Quello che lo rende diverso è che è in grado di competere con i modelli di reasoning più avanzati di OpenAI. Non solo. Il loro modello più potente, DeepSeek V3, presentato a dicembre, è un LLM (modello linguistico di grandi ) da 67 miliardi di parametri. Non è gigante: GPT-4, quello di OpenAI, dovrebbe avere superato i 100 trilioni di parametri. Se leggete il suo paper scientifico, scoprite però che per realizzarlo ci hanno speso poco meno di 6 milioni di dollari, almeno un decimo di quanto sarebbe costato GPT-4. Il motivo che ha messo in allarme mezza Silicon Valley è che ha superato, almeno così sostengono loro, o1 di OpenAI in diversi benchmark e test, tra cui il test di ragionamento matematico (AIME) e quello sul coding, cioè SWE-bench Verified. Lo proviamo oggi in diretta per voi. Siete su Ascanio.
Riproduzione riservata ©
loading...