Stop per dieci anni. Non ai modelli di Intelligenza Artificiale, ma alle leggi che vorrebbero regolamentarli. Negli Stati Uniti si discute una proposta che potrebbe cambiare radicalmente l’equilibrio normativo sull’Intelligenza Artificiale. Il Congresso sta valutando un emendamento alla legge di bilancio che introdurrebbe una moratoria decennale: per dieci anni, nessuno Stato federato potrebbe approvare leggi proprie in materia di AI.
A sostenere l’iniziativa è una parte del Partito Repubblicano, con l’appoggio diretto delle Big Tech. OpenAI, Google, Meta, Amazon e altri colossi del settore spingono da tempo per una regolamentazione centralizzata (o, più realisticamente, per la sua assenza) che eviti il proliferare di normative statali differenti. Per le aziende, il rischio è una frammentazione del mercato che rallenterebbe la corsa statunitense all’innovazione, lasciando spazio a potenze concorrenti come la Cina.
Ma la proposta solleva forti critiche. Il cofondatore di Anthropic ed ex dirigente OpenAI, parla di “peggiore dei mondi possibili”: la moratoria toglierebbe ogni possibilità di controllo pubblico su un’industria ad altissimo impatto. Nessuna regola federale chiara e nessuna possibilità per i singoli Stati di intervenire. Un vero e proprio tentativo di accaparramento di potere, destinato a rafforzare il monopolio sull’Intelligenza Artificiale generale (AGI), il traguardo più ambito dai colossi tech.
Il risultato? Dieci anni di vuoto legislativo, in cui le aziende potrebbero sviluppare tecnologie ad alto rischio senza supervisione democratica. I rischi? Mancanza di trasparenza nei modelli, nessuna garanzia su come vengano mitigati i rischi sociali o ambientali e opacità sulle procedure di test e validazione.
E mentre l’Unione europea stringe il cerchio con l’AI Act, gli Stati Uniti potrebbero decidere di fare l’opposto: lasciare mano libera a chi ha già il coltello dalla parte del manico. Il voto al Senato è atteso entro il 4 luglio. Se la proposta passerà sarà un segnale forte: a governare l’AI non saranno più le regole, ma il mercato.
E affidare lo sviluppo dell’AI esclusivamente al mercato significa rinunciare a una visione democratica del progresso tecnologico. Perché un’AI senza regole non è progresso: è potere concentrato. In un’epoca in cui gli algoritmi plasmano lavoro, informazione e diritti, abdicare alla regolazione equivale a cedere sovranità. Non è solo una questione tecnica: è una scelta politica sul tipo di società che vogliamo costruire e su quanto, della nostra libertà, siamo disposti a sacrificare.
A.C.