News in Pillole

“Chat Control 2.0”: cosa succede, perché preoccupa e quali sono le alternative

1. Quando e cosa si voterà

Il provvedimento in discussione è la Regulation to Prevent and Combat Child Sexual Abuse (CSAR), comunemente chiamata “Chat Control” o “Chat Control 2.0”. A ottobre 2025 è prevista una decisione politica cruciale: i governi dell’UE dovevano pronunciarsi in una riunione del Consiglio nei giorni intorno al 14 ottobre 2025 per decidere se appoggiare la proposta e mandarla avanti nelle fasi finali del processo legislativo europeo. Se il Consiglio trova una maggioranza qualificata, il testo può procedere verso il trilogo e la possibile approvazione finale.

Cosa contiene la proposta (in breve)

Obbligo per fornitori di servizi di comunicazione (messaggistica, email, storage, social DM, ecc.) di rilevare e segnalare materiale sessuale di abuso su minori (CSAM) e condotte di grooming.

Il testo impone misure anche per le comunicazioni cifrate end-to-end: la scansione “all’origine” o “client-side scanning” è tra i meccanismi previsti per rendere rilevabile il contenuto prima o al momento dell’invio.

2. È davvero utile e sarà efficace?

La risposta breve: potrebbe contribuire al rilevamento di alcuni abusi noti, ma ci sono forti dubbi tecnici e pratici sull’efficacia reale e sui danni collaterali.

Argomenti a favore dell’utilità

I sostenitori sostengono che obbligare le piattaforme a rilevare e segnalare CSAM può intercettare materiale noto che altrimenti circolerebbe indisturbato, aiutando forze dell’ordine e centri come il NCMEC. In casi concreti, il tracciamento automatico di hash/inidici già noti è efficace per individuare contenuti conosciuti.

Limiti pratici e perché l’efficacia è dubbia

Contenuti nuovi e grooming: individuare materiale nuovo o conversazioni ambigue (grooming) richiede algoritmi che interpretino testo e contesto con grande precisione — cosa che oggi l’IA non fa senza errori.

Evitabilità tecnica: chi vuole eludere i controlli può usare strumenti (servizi esterni, VPN, trasferimenti via file cifrati con chiavi esterne, server non soggetti alla regolamentazione). Le misure obbligatorie rischiano quindi di spostare il problema fuori dall’ambito regolato, senza eliminarlo.

Rischio falsi negativi e falsi positivi

Falsi negativi: contenuti realmente illeciti potrebbero non essere individuati se sono rielaborati, modificati o condivisi tramite canali non scansionati.

Falsi positivi: dati reali mostrano come strumenti automatici generino molte segnalazioni non rilevanti (anche a percentuali significative), con conseguenze pratiche per utenti e autorità che devono processare centinaia di migliaia di segnalazioni. Anche piccoli tassi di errore diventano grandi numeri con il volume di messaggi attuali.

Conclusione pratica: la misura può incrementare alcune capacità investigative, ma non è una panacea — e potrebbe creare più problemi operativi e di fiducia di quanti ne risolva.

3. È legale?

Anche qui la risposta non è monosillabica: la proposta solleva serie questioni di compatibilità con i diritti fondamentali europei e con la giurisprudenza su crittografia e privacy.

Rischi legali e costituzionalità

Autorità indipendenti per la protezione dei dati (EDPB/EDPS), molte ONG, esperti di crittografia e numerosi ricercatori sostengono che la scansione generalizzata di corrispondenza privata immischiata con obblighi su comunicazioni cifrate potrebbe violare diritti garantiti dalla Carta dei Diritti Fondamentali dell’UE (privacy, protezione dei dati, segretezza delle comunicazioni, libertà di espressione). La proposta è quindi sotto forte scrutinio rispetto al requisito di necessità e proporzionalità delle misure.

Precedenti giurisprudenziali e opinioni

Sentenze e pareri (anche a livello europeo) hanno sottolineato che forzare la degradazione o la “backdoor” nella crittografia può essere incompatibile con i principi di uno Stato di diritto, se non sono previste garanzie rigorose e chiare. Già in passato istituzioni europee hanno espresso perplessità sull’idea di backdoor per E2EE.

Tra legale e pratico: il punto critico

Anche ammesso che il legislatore scriva paletti tecnici e garanzie, la questione rimane: le misure sono davvero proporzionate rispetto al diritto alla riservatezza? Molti giuristi affermano di no, o quanto meno dicono che il testo attuale non contiene sufficienti garanzie indipendenti e supervisione giudiziaria per soddisfare gli standard europei.

4. Quali sono le alternative (meno invasive e più efficaci)?

Molti esperti e ONG propongono alternative o integrazioni alla scansione generalizzata. Ecco le principali, con pro/contro:

4.1. Migliorare la cooperazione e le risorse alle forze dell’ordine

Investire nelle risorse investigative, nei team specializzati, nei centri di segnalazione e nella formazione degli operatori per elaborare segnalazioni di qualità.

Pro: meno invasivo, usa strumenti esistenti; Contro: è lento e richiede investimenti continuativi.

4.2. Targeted orders e supervisione giudiziaria rigorosa

Invece di scansione di massa, permettere ordini mirati su singoli account/individui sotto controllo giudiziario e con prove iniziali.

Pro: rispetta meglio la proporzionalità; Contro: può essere meno rapido nel catturare reti diffuse e richiede capacità investigative nazionali.

4.3. Hashing e database di materiale noto (solo per materiale già catalogato)

Usare hash e banche dati di immagini/filmati già identificati come CSAM — tecnicamente meno invasivo se applicato solo a file già noti.

Pro: buono contro materiale noto; Contro: inutile contro contenuti nuovi o riformattati.

4.4. Policy tecniche e misure di prevenzione (educazione, age verification volontaria, campagne)

Prevenzione, protezione delle vittime e campagne educative per ridurre la domanda e intercettare grooming prima che diventi reato.

Pro: affronta le radici; Contro: effetto a lungo termine, non immediato.

4.5. Strumenti longitudinali di intelligence non invasivi

Tecniche di analisi meta-dati aggregate (senza contenuto) per individuare pattern a livello macro (es. cluster di condivisione sospetta), seguite da indagini mirate.

Pro: meno invasivo se progettato correttamente; Contro: attenzione alla definizione di “meta-dato” e al rischio di deanonymization.

Molti osservatori raccomandano una combinazione: più risorse investigative, limiti precisi alla scansione (se usata), supervisione giudiziaria e investimenti in prevenzione piuttosto che una scansione di massa senza garanzie.

Fonti che analizzano soluzioni alternative e criticano il mass-scanning sono numerose (ricercatori, ONG, gruppi di crittografi).

5. Il collegamento con ProtectEU e il rischio che “dia accesso a tutto sul nostro telefono”

Cos’è ProtectEU

ProtectEU è una strategia / iniziativa della Commissione Europea (Internal Security Strategy) mirata a rafforzare la capacità degli Stati membri di contrastare minacce interne ed esterne, tra cui crimini gravi e minacce online. Il portale/strategia copre vari strumenti di cooperazione, condivisione di informazioni e potenziamento delle capacità statali.

Come si collega ProtectEU alla Chat Control

ProtectEU è un quadro strategico che facilita la cooperazione e gli scambi operativi tra Stati membri (risorse, dati, strumenti tecnici). Se il CSAR/Chat Control introduce obblighi tecnici (p.es. scanning e segnalazioni), le informazioni risultanti potrebbero fluire — attraverso canali di segnalazione e cooperazione — verso strutture e database nazionali/europei che rientrano nello spettro operativo di ProtectEU. In altre parole, ProtectEU non è il meccanismo di scansione, ma uno degli ecosistemi tramite cui i risultati investigativi e le intelligence possono essere condivise o centralizzate.

Perché questo può significare “tutto sul nostro telefono” come potenziale motivo d’indagine

1. Client-side scanning = punto di accesso: se c’è scansione sul dispositivo dell’utente, tecnicamente si è introdotto un punto in cui il contenuto privato diventa leggibile ad un algoritmo (e, in alcuni step, a esseri umani via segnalazione). Questo crea il meccanismo tecnico che permette — potenzialmente — di estrarre informazioni dal telefono.

2. Ampiezza della segnalazione: la proposta non si limita sempre a immagini già catalogate; include anche rilevamento di grooming, linguaggio sospetto, URL e categorie più ampie. Questo allargherebbe la gamma di contenuti che possono generare allarmi.

3. Function creep (deriva d’uso): uno dei timori più citati è che strumenti creati per un fine (CSAM) possano poi essere usati per altri scopi (come sorveglianza politica, indagini su reati minori, controllo di contenuti “inappropriati” che non rientrano nello scopo originario). Senza garanzie molto concrete e trasparenti, questo rischio non è teorico.

Esempio pratico: una battuta o un meme

Una “battuta” testuale o un meme può essere decontestualizzato dagli algoritmi: se contiene parole, frasi o immagini che il sistema associa (in modo errato) a pattern di grooming o CSAM, può generare una segnalazione. Quella segnalazione scatta procedure umane di verifica: dall’esercizio di analisi in azienda fino alla notifica alle autorità. Questo è il motivo per cui molte voci temono che anche contenuti innocui possano dar luogo a indagini.

6. Rischi concreti (riassunto rapido)

Erosione della crittografia: introduzione di punti di visibilità sul contenuto privato.

Falsi positivi: ondata di segnalazioni non rilevanti che gravano su utenti, piattaforme e autorità.

Function creep: uso progressivo degli strumenti per scopi più ampi della lotta al CSAM.

Impatto su categorie vulnerabili: giornalisti, attivisti, vittime che comunicano con assistenti/avvocati potrebbero subire ricadute.

7. C’è un modo per opporsi?

Il Chat Control 2.0 non è ancora legge, e i cittadini europei possono ancora esprimere il proprio dissenso.

Uno degli strumenti più immediati è la piattaforma ufficiale

fightchatcontrol.eu

Sul sito è possibile inviare un’email preimpostata ai rappresentanti del Parlamento europeo e ai governi nazionali, chiedendo di bloccare o modificare la proposta per difendere la privacy e la crittografia.

Bastano pochi clic per far arrivare la propria voce a chi deciderà il futuro delle nostre comunicazioni.

Proteggere i minori online è un obiettivo sacrosanto. Ma cedere la chiave delle nostre conversazioni private non può essere la soluzione.

È il momento di informarsi, reagire e pretendere leggi che difendano i bambini senza spiare tutti.

Approfondisci il tema e scopri come agire su fightchatcontrol.eu

Related posts

Vivere fino a 100 anni

Andra Juhasz

Fentanyl, il Potente Analgesico dal Lato Oscuro

Redazione

Quanto ci costa andare al mare?

Redazione