AI Governance, chi comanda davvero l’intelligenza artificiale?

Chi decide cosa un algoritmo può (o non può) fare? Dal Regolamento europeo AI Act ai codici etici delle big tech, un’indagine sul nuovo potere della tecnologia.

Foto di Donatella Maisto

Donatella Maisto

Esperta in digital trasformation e tecnologie emergenti

Dopo 20 anni nel legal e hr, si occupa di informazione, ricerca e sviluppo. Esperta in digital transformation, tecnologie emergenti e standard internazionali per la sostenibilità, segue l’Innovation Hub della Camera di Commercio italiana per la Svizzera. MIT Alumni.

Pubblicato:

L’intelligenza artificiale è diventata una questione di governance, fiducia e sovranità. Regole, economie, geopolitiche e responsabilità si intrecciano in una partita che ridefinisce chi controlla l’innovazione e chi la subisce.

Il potere invisibile: l’AI come infrastruttura di decisione

Chi governa l’intelligenza artificiale? La domanda sembra teorica e, invece, è la più concreta del nostro tempo. Perché ogni algoritmo, da quelli che filtrano notizie a quelli che concedono mutui o suggeriscono diagnosi mediche, racchiude una catena di potere. Decide chi vede cosa, chi ottiene cosa, chi resta escluso.

L’AI, oggi, non è un oggetto: è un’infrastruttura cognitiva che plasma il comportamento dei mercati, delle istituzioni, perfino della politica. Eppure, a differenza delle grandi rivoluzioni industriali del passato, non ha confini fisici. Non si può “nazionalizzare” un algoritmo, né ispezionare una rete neurale come una fabbrica. Il risultato è un paradosso inedito: tecnologia globale, responsabilità frammentata.

La governance, intesa come regole, procedure, poteri, non è mai stata così necessaria. E così sfuggente.

Il campo di gioco del potere: Stati, imprese, algoritmi

La governance dell’intelligenza artificiale vive in un equilibrio instabile tra tre forze: il diritto pubblico, le norme private e l’architettura tecnica. Nessuna domina completamente l’altra. Gli Stati tentano di regolamentare, le imprese definiscono standard, la tecnologia evolve più velocemente di entrambi.
Nel 2025, il mercato globale dell’AI supererà i 230 miliardi di dollari. Ma il valore reale, quello strategico, risiede nel controllo del codice e dei dati. Google, Microsoft, OpenAI e Anthropic detengono insieme oltre l’80 % della potenza computazionale dei modelli generativi. Non è solo concentrazione economica, è centralizzazione cognitiva.
Un economista della London School of Economics l’ha definita “l’OPEC dell’intelligenza”: pochi attori che regolano la risorsa più preziosa, l’informazione. E come in ogni oligopolio, la governance pubblica arriva dopo, spesso con il fiato corto.

L’AI Act europeo: una costituzione per la macchina

Con l’AI Act, l’Europa ha tentato qualcosa che nessun altro blocco economico aveva mai osato: dare al codice un quadro costituzionale. Entrato in vigore il 1° agosto 2024, il regolamento classifica i sistemi secondo quattro livelli di rischio — inaccettabile, alto, limitato, minimo — e impone obblighi proporzionati.

I sistemi ad “alto rischio” (sanità, credito, giustizia, sicurezza) dovranno rispettare requisiti di trasparenza, audit, tracciabilità dei dati, oltre a garantire la supervisione umana. Le imprese inadempienti rischiano sanzioni fino al 7 % del fatturato globale.

Dietro la grammatica tecnica, c’è una filosofia politica: la fiducia come fattore competitivo. L’Europa punta a costruire un mercato in cui la trasparenza valga quanto la velocità e la conformità diventi un asset. È una scelta controcorrente rispetto al modello americano, dove domina la libertà d’impresa e a quello cinese, fondato sul controllo statale. Tre visioni diverse di libertà, tutte inscritte nel silicio.

Etica privata, potere reale

Mentre Bruxelles normava, la Silicon Valley faceva altro: scriveva le proprie regole. Microsoft ha introdotto il suo “Responsible AI Standard”; Google aggiorna ciclicamente i “Principles of AI Ethics”; OpenAI pubblica revisioni periodiche della propria “Governance Charter”. Documenti che, nella sostanza, valgono più di molte leggi.

Sono codici etici che definiscono cosa un modello può generare, come deve reagire a richieste sensibili, quali dati può usare. Non sono leggi, ma funzionano come tali. Regolano miliardi di interazioni quotidiane. Eppure, nessuno le ha votate.

È la nascita di una “etica proprietaria”: un sistema di norme private con valore pubblico. Nel 2025, il 60 % delle aziende Fortune 500 dichiara di ispirarsi ai framework delle big tech per definire le proprie policy AI. Ma dietro la trasparenza dichiarata si nasconde un rischio: che la fiducia diventi branding e la responsabilità, un claim di marketing.

Fiducia come valuta del XXI secolo

Secondo un sondaggio OECD del 2025, l’82 % dei cittadini nei Paesi sviluppati ritiene che l’AI influenzi direttamente le proprie scelte quotidiane, ma solo il 27 % afferma di fidarsi delle istituzioni che la regolano. È il divario di fiducia più ampio mai registrato nel rapporto tra tecnologia e potere. La fiducia diventa così una nuova valuta economica.

Danone, BBVA e Airbus hanno introdotto sistemi interni di AI Impact Assessment per valutare ogni progetto generativo su tre assi: equità, tracciabilità, responsabilità. Non per filantropia, per ridurre il rischio reputazionale e garantire accesso ai capitali ESG, che nel 2025 valgono 33 trilioni di dollari globali.
Le aziende scoprono che la compliance non è un costo, ma un moltiplicatore di valore. E, ironia della sorte, più le macchine diventano “intelligenti”, più il mercato premia la trasparenza umana.

Geopolitica del codice: la nuova sovranità

Chi controlla l’infrastruttura del calcolo controlla il potere. Nel 2025, il 70 % della capacità di calcolo per l’AI è concentrato tra Stati Uniti e Cina. L’Europa, pur dotata di competenze accademiche di altissimo livello, detiene solo il 15 % dell’hardware necessario per addestrare modelli su larga scala.

Da qui la corsa ai sovereign cloud e alle partnership strategiche. L’accordo UE–Giappone sulla “AI of Trust” o la collaborazione USA–UK per i test di sicurezza algoritmica, sono segnali di un mondo che tenta di bilanciare potere tecnologico e autonomia politica. Ma la frammentazione è evidente: standard diversi, regole incompatibili, ecosistemi chiusi. Una “balkanizzazione digitale” che minaccia di frantumare l’internet globale in zone di influenza regolatoria.

Per le imprese transnazionali, la conseguenza è una nuova arte: navigare tra giurisdizioni, come tra correnti oceaniche. E sopravvivere richiede competenze legali tanto quanto ingegneristiche.

Le imprese come micro-Stati

In questo scenario, le grandi aziende diventano micro-sovranità. Non solo operano, ma regolano. Gestiscono flussi di dati, stabiliscono protocolli di comportamento, fissano criteri di equità e controllo. Ogni decisione aziendale sull’AI è un atto di politica interna.

Siemens ha istituito un AI Ethics Board con potere di veto sulle applicazioni industriali ad alto rischio. PwC, nel 2025, ha adottato un modello di “human-led AI governance” che impone la validazione umana in ogni processo decisionale automatizzato. Questi esempi segnano una transizione culturale: l’etica smette di essere una dichiarazione e diventa una procedura.

La governance, così, non è più un vincolo esterno. È un vantaggio competitivo interno. L’impresa che sa controllare i propri algoritmi controlla anche la propria reputazione, i propri mercati, il proprio futuro.

Diritto dell’innovazione: un equilibrio mobile

Il diritto dell’AI è un campo mobile, ibrido, quasi sperimentale. L’Italia, con il National AI Framework avviato nel 2025, introduce la prima certificazione algoritmica nazionale, mentre l’OCSE lavora a standard globali di explainability e audit indipendente. Il principio cardine, sempre più accettato, è la responsabilità proporzionale al controllo: chi governa il modello risponde delle sue conseguenze.

È una rivoluzione silenziosa. Il diritto non è più barriera, ma architettura del rischio. La sfida, però, è di natura culturale: riconoscere che l’errore può essere distribuito tra chi progetta, chi addestra, chi applica. Una “colpa condivisa” che richiede nuove competenze giuridiche e manageriali. In fondo, il diritto dell’innovazione sta diventando una scienza del compromesso: garantire evoluzione senza caos, libertà senza irresponsabilità.

Verso una governance intelligente dell’intelligenza

Governare l’AI significa, prima di tutto, governare l’incertezza. Non si tratta di bloccare la tecnologia, ma di costruire istituzioni in grado di comprenderla e correggerla. I governi devono diventare laboratori, non tribunali. Le imprese, ecosistemi di trasparenza. I cittadini, partecipanti informati, non spettatori.

Un modello di AI Governance efficace dovrà essere multilivello: pubblico per la legittimità, privato per la competenza, sociale per la fiducia. È un equilibrio fragile, ma possibile. Alla fine, la vera domanda non è chi comanda l’intelligenza artificiale. È un’altra, più sottile: chi la merita.
Chi saprà guidarla con misura, responsabilità e visione, governerà non solo la macchina, ma il futuro stesso della società digitale.