Chat Control divide l’Unione: tra chi vede nella scansione delle chat un baluardo contro il crimine e chi la interpreta come il preludio al capitalismo della sorveglianza. In gioco non c’è solo la tutela dei minori, ma la sovranità tecnologica europea, la competitività delle sue imprese crittografiche e la tenuta del modello di democrazia digitale che Bruxelles ha costruito dal GDPR in poi.
Indice
L’Europa e il paradosso del controllo
La Commissione europea ha rilanciato il Regulation to Prevent and Combat Child Sexual Abuse, soprannominato Chat Control, una normativa che imporrebbe ai servizi di messaggistica e cloud di scansionare i contenuti privati alla ricerca di materiale pedopornografico, anche nelle comunicazioni cifrate.
La misura è presentata come un atto di protezione sociale, ma rischia di diventare un esperimento di sorveglianza preventiva di massa senza precedenti nel continente.
Il meccanismo proposto — il cosiddetto client-side scanning — consentirebbe alle piattaforme di analizzare testi, immagini e URL direttamente sui dispositivi degli utenti, prima che vengano cifrati. L’obiettivo dichiarato è individuare materiale illegale e segnalarlo alle autorità in tempo reale. Dietro la promessa di tutela, però, si intravede un salto culturale: la presunzione di innocenza sostituita dal principio di controllo universale.
La presidenza danese del Consiglio Ue ha tentato di portare la proposta al voto entro ottobre 2025, ma la spaccatura è ormai profonda. Germania, Austria, Lussemburgo, Paesi Bassi e Svezia si oppongono apertamente e il voto è stato rinviato.
Client-Side Scanning: anatomia di una controversia
La scansione lato client viene descritta dai proponenti come una soluzione “neutrale”, capace di coniugare privacy e sicurezza. Tuttavia, studi accademici indipendenti ne hanno messo a nudo i limiti strutturali.
Il paper “Bugs in our Pockets: The Risks of Client-Side Scanning” (Abelson et al.) spiega che tali sistemi equivalgono a “inserire un software di sorveglianza nei dispositivi di tutti i cittadini”, con rischi di abuso e vulnerabilità gravi.
Ricerche più recenti su Adversarial Detection Avoidance Attacks dimostrano che gli algoritmi di riconoscimento basati su perceptual hashing possono essere facilmente ingannati o manipolati, compromettendo l’intero modello.
Ulteriori studi hanno evidenziato come i CSS possano nascondere funzioni secondarie – ad esempio di riconoscimento facciale – rendendo l’utente inconsapevolmente tracciabile.
In altre parole, la tecnologia è tutt’altro che “sicura”. La fiducia richiesta è assoluta, mentre la trasparenza è minima.
Il rischio non è solo l’abuso politico: è la creazione di un’infrastruttura tecnicamente instabile e giuridicamente opaca.
L’argomento etico: la protezione dei minori come imperativo
Nessuno contesta l’urgenza di combattere la pedopornografia. Il National Center for Missing & Exploited Children (NCMEC) ha registrato oltre 29 milioni di segnalazioni globali nel 2023, in crescita del 20 % rispetto al 2021.
I promotori del Chat Control sostengono che senza accesso ai messaggi cifrati le forze dell’ordine siano “cieche” di fronte alle reti criminali.
Ma la tecnologia proposta introduce un dilemma morale: è accettabile violare la privacy di 450 milioni di cittadini per scoprire un numero presumibilmente limitato di casi? L’Internet Society, nel suo Client-Side Scanning EU Report, risponde no:
“La sorveglianza generalizzata non è compatibile con una democrazia liberale, anche se motivata da scopi legittimi”.
Crittografia e democrazia: l’infrastruttura invisibile della fiducia
Il cuore della battaglia è la crittografia end-to-end (E2EE). Non è solo una tecnologia di sicurezza, ma una istituzione democratica: protegge giornalisti, avvocati, attivisti, medici, banche e imprese. Distruggerla per rendere possibile la sorveglianza significa smantellare la fiducia digitale che sostiene l’economia e i diritti civili.
Oltre 500 esperti di sicurezza informatica europei hanno sottoscritto un manifesto contro la proposta, avvertendo che la scansione preventiva “trasforma ogni smartphone in un potenziale dispositivo di intercettazione”.
Lo stesso EU Innovation Hub for Internal Security (Europol) riconosce che
“l’introduzione di vulnerabilità sistemiche nella cifratura può ridurre la sicurezza complessiva più di quanto la aumenti”.
La questione non è tecnica, ma strategica: chi controlla la crittografia, controlla il futuro della comunicazione globale.
Falsi positivi, errori di contesto e chilling effect
I sistemi automatici di scansione non comprendono il contesto. In Irlanda, secondo dati ufficiali, il 20,3 % delle segnalazioni di contenuti sospetti si è rivelato infondato. Moltiplicato per centinaia di milioni di utenti, significa milioni di falsi allarmi. Le conseguenze? Indagini inutili, stigmatizzazione, perdita di fiducia.
Ma il pericolo più sottile è culturale: il chilling effect. Sapere che ogni parola o immagine può essere letta da un algoritmo induce autocensura. Giornalisti, whistleblower e oppositori politici diventano meno propensi a comunicare liberamente. La libertà d’espressione non scompare per decreto, ma per rassegnazione.
Il diritto europeo di fronte al controllo generalizzato
La Carta dei Diritti Fondamentali dell’Ue, agli articoli 7 e 8, tutela la vita privata e la protezione dei dati. Il Servizio giuridico del Consiglio europeo ha già segnalato che la proposta Chat Control rischia di violare il principio di proporzionalità, poiché applica un controllo indiscriminato a soggetti non sospettati. Il parere congiunto EDPB-EDPS avverte che “l’intercettazione preventiva e generalizzata” sarebbe incompatibile con la giurisprudenza della Corte di Giustizia dell’Ue.
In diversi Stati membri, costituzioni e corti supreme hanno espresso riserve simili. La Germania ha dichiarato la proposta “incompatibile con la Legge Fondamentale”, un veto politico e giuridico che ha spostato gli equilibri nel Consiglio.
Lobby, industrie e il mercato nascosto della sorveglianza
Ogni regolamento crea un’economia. Nel caso di Chat Control, emergerebbe un nuovo mercato della sorveglianza legittimata, con aziende specializzate in AI di riconoscimento, auditing e infrastrutture di compliance.
Si tratta di un’industria potenzialmente miliardaria: il “sorvegliare per contratto” diventa business, con profitto diretto dalla raccolta e dall’analisi dei dati.
Il rischio è di trasformare l’Europa da bastione del GDPR a pioniere del capitalismo della sorveglianza legale.
Le società crittografiche indipendenti, invece, reagiscono. Signal ha definito il CSS “un malware istituzionale”.
Tuta Mail ha annunciato una causa contro l’Ue qualora il regolamento fosse approvato, denunciando la “creazione di backdoor che nessun sistema potrà più richiudere”.
Geopolitica e diplomazia digitale
Il destino di Chat Control è intrecciato alla geopolitica europea. La Germania guida il fronte del no, sostenuta da Lussemburgo, Paesi Bassi, Austria e Svezia. Francia e Polonia spingono per un testo più “equilibrato”, ma il compromesso appare difficile. Senza Berlino, il Consiglio non raggiungerà la maggioranza qualificata: il voto previsto per ottobre 2025 è stato rinviato sine die.
L’Ue si trova così in una posizione ambigua: promotrice globale della privacy (con il GDPR), ma tentata di introdurre la più vasta rete di sorveglianza preventiva dell’Occidente. Il precedente sarebbe storico: se Bruxelles apre la porta, altri governi — inclusi regimi autoritari — potranno imitarla legittimamente.
Innovazione, fiducia e migrazione tecnologica
La crisi di fiducia spinge utenti e sviluppatori verso soluzioni decentralizzate. Secondo analisti di Cointelegraph, l’adozione del Chat Control potrebbe accelerare il passaggio a reti Web3 e protocolli peer-to-peer dove la cifratura non è gestita da intermediari centralizzati. Le startup europee temono che la nuova normativa scoraggi investimenti in tecnologie di privacy-by-design, aprendo la strada alla fuga di innovazione verso Stati Uniti o Asia.
Nel medio periodo, la conseguenza sarebbe una erosione della competitività europea: meno fiducia, meno mercato, meno attrattività per capitali e talenti digitali.
Opinione pubblica e società civile
La reazione civica è stata massiccia. Campagne come FightChatControl.eu hanno raccolto milioni di firme e inviti a contattare i parlamentari. Un sondaggio YouGov del 2025 indica che oltre il 70 % dei cittadini europei si oppone alla scansione delle chat private. In Danimarca e Germania, piattaforme di partecipazione civica hanno inondato le email dei deputati europei con richieste di voto contrario.
Il dibattito ha assunto i tratti di una battaglia identitaria: che cosa significa essere europei nel XXI secolo? Difendere la privacy o sacrificare la libertà individuale in nome della protezione collettiva?
Verso un compromesso responsabile
Un equilibrio è possibile: limitare la scansione solo ai soggetti sospettati, previa autorizzazione giudiziaria; garantire audit indipendenti e limiti temporali precisi; esentare categorie sensibili (giornalisti, avvocati, operatori sanitari).
L’Unione può inoltre investire in strumenti alternativi: educazione digitale, cooperazione transnazionale, intelligenza artificiale forense e sistemi di rilevamento volontari, basati sul consenso e non sulla coercizione.
La proposta Chat Control è lo specchio di una tensione che attraversa tutte le democrazie tecnologiche: sicurezza o libertà, prevenzione o fiducia. Se l’Europa sceglierà la via della sorveglianza preventiva, rinuncerà al ruolo di laboratorio di diritti digitali conquistato con il GDPR. Se, invece, saprà costruire un modello che protegga i minori senza trasformare ogni cittadino in sospetto, potrà definire il primo vero contratto sociale della rete.
La domanda è semplice e definitiva: la sicurezza dei nostri figli deve passare per l’abbandono della nostra libertà?
Il modo in cui l’Europa risponderà a questa domanda segnerà il futuro della democrazia digitale globale.