Negli ultimi tempi, il panorama dell’intelligenza artificiale sta cambiando direzione, Non sono più solo i giganteschi modelli come GPT-4 a rappresentare l’avanguardia. Stanno emergendo soluzioni più leggere e accessibili, come DeepSeek, che promettono prestazioni elevate con minori costi energetici ed economici.
Per anni si è seguita la cosiddetta “legge di scala”: più grande era il modello (in termini di parametri), migliori erano i risultati. Ma oggi questa logica mostra i suoi limiti. I nuovi modelli compatti riescono a mantenere livelli di precisione notevoli pur consumando molto meno.
DeepSeek, ad esempio, si avvicina alle performance dei grandi Large Language Models, come LLaMA 4 o GPT-4.5, ma richiede una frazione dell’energia e dell’acqua. Un solo addestramento di GPT-3 ha emesso 300 tonnellate di CO₂ e consumato 700.000 litri d’acqua: numeri insostenibili nel lungo periodo.
Grazie a tecniche come la “distillazione del modello”, dove un’intelligenza più grande insegna a una più piccola, si ottengono modelli snelli e performanti. Questo consente alle aziende di ospitare AI anche su infrastrutture locali, senza dover ricorrere necessariamente ai grandi cloud internazionali, migliorando privacy, sicurezza e rispetto del GDPR.
Il vantaggio? Costi ridotti, maggiore autonomia nella gestione dei dati e tempi di risposta più rapidi. Le applicazioni sono moltissime: customer care automatizzato, gestione documentale, assistenza legale e molto altro.
L’AI del futuro, quindi, non sarà la più grande, ma quella capace di fare di più con meno: sostenibile e accessibile. I modelli compatti offrono un equilibrio nuovo tra prestazioni e risorse, riducendo anche gli impatti ambientali. Perché la vera innovazione, oggi potrebbe non stare nella grandezza, ma nella leggerezza.
A.C.