Con l’aumento delle preoccupazioni riguardo a una possibile bolla nel settore della tecnologia, il fenomeno del “fai-da-te” nell’intelligenza artificiale (AI) sta prendendo piede. DeepSeek ha lanciato il suo modello linguistico AI R1, richiedendo solo 6 milioni di dollari, scatenando dubbi sulle spese dei leader del mercato
DeepSeek ha lanciato il suo modello linguistico AI R1, richiedendo solo 6 milioni di dollari, scatenando dubbi sulle spese dei leader del mercato. La fiducia in OpenAI resta alta, mentre nuovi progetti come TinyZero dimostrano che modelli più piccoli possono competere, evidenziando l’importanza della qualità dei dati rispetto alla dimensione.
Con l’aumento delle preoccupazioni riguardo a una possibile bolla nel settore della tecnologia, il fenomeno del “fai-da-te” nell’intelligenza artificiale (AI) sta prendendo piede. Un esempio significativo è rappresentato dal progetto TinyZero, sviluppato da ricercatori dell’Università della California, Berkeley. Questo progetto ha dimostrato come sia possibile costruire modelli di linguaggio generativo con investimenti minimi, sfruttando un semplice gioco matematico per insegnare ai modelli a ragionare.
Il DeepSeek R1 ha suscitato interrogativi quando ha annunciato di aver creato un modello di linguaggio generativo per soli 6 milioni di dollari, mentre i giganti dell’AI come OpenAI, sostenuta da Microsoft, continuano a spendere miliardi. Sebbene ci sia scetticismo sulle affermazioni di DeepSeek, gli investitori non sembrano rallentare il loro supporto a OpenAI, che si prepara a raccogliere 40 miliardi di dollari, con proiezioni di fatturato che triplicheranno nel corso dell’anno.
La bolla dell’AI e l’alternativa di TinyZero
Tuttavia, il panorama è complesso: alcuni esperti, come Joe Tsai, cofondatore di Alibaba, avvertono della formazione di una bolla nel mercato statunitense dell’AI, mentre i venture capitalists continuano a investire in sviluppatori cinesi di AI. Nonostante ciò, il progetto TinyZero si propone come un’alternativa accessibile, dimostrando che con modelli più piccoli è possibile ottenere comportamenti di ragionamento emergente.
Il team di TinyZero ha riprodotto un algoritmo ispirato a DeepSeek utilizzando un gioco chiamato “Countdown”, incentrato sull’abilità di ragionare piuttosto che sulla semplice applicazione di conoscenze matematiche preesistenti. Inizialmente, TinyZero ha adottato un approccio casuale per raggiungere un numero target, ma, con l’addestramento, ha imparato ad ottimizzare le proprie strategie.
Collaborazione e open source
Questa iniziativa non solo ha attratto l’attenzione di molti, ma ha anche stimolato la collaborazione tra diversi gruppi di ricerca. Ad esempio, il team di Stanford ha utilizzato lo stesso gioco per esplorare come l’AI apprende e supera le sfide tecniche. La disponibilità di progetti open source, come il sistema di apprendimento per rinforzo VERL sviluppato da ByteDance, ha facilitato ulteriormente queste ricerche.
In un contesto in cui i modelli di AI più grandi sono tradizionalmente visti come i più capaci, i risultati di TinyZero suggeriscono che la qualità dei dati e l’addestramento specifico per compiti rappresentano fattori determinanti. Questo sfida l’idea che solo enormi modelli con miliardi di parametri possano raggiungere un apprendimento iterativo e autovalutativo.
Un cambiamento di paradigma
Con un costo di addestramento di appena 30 dollari, TinyZero dimostra che è possibile ottenere risultati sorprendenti senza la necessità di ingenti investimenti. Questo nuovo approccio potrebbe segnare un cambiamento nel modo in cui viene concepita l’intelligenza artificiale, spostando l’attenzione dalla dimensione alla funzionalità e all’accessibilità.
La crescente disponibilità di modelli open-source e la capacità di personalizzare l’AI per specifici compiti stanno aprendo nuove strade per ricercatori e sviluppatori di ogni livello, rendendo l’AI più democratica e accessibile.