1. Ma sécurité, vaut-elle ma liberté ?
Août 2024. Un Britannique partage un tweet pendant les émeutes de Southport. Il prend de la prison ferme. Pas pour avoir menacé quelqu'un. Pour avoir relayé un contenu jugé « susceptible d'attiser la haine ». La même année, le fondateur de Telegram est arrêté à Paris — pas pour ce qu'il a dit, mais pour ce que sa plateforme a laissé circuler.
Vous connaissez la phrase qu'on sert à chaque fois : « Si vous n'avez rien à cacher, vous n'avez rien à craindre. »
Elle rassure. C'est exactement pour ça qu'elle devrait vous alerter.
1 Ce que personne ne conteste — et ce que tout le monde évite
Personne de sérieux ne défend la circulation libre des contenus pédocriminels.
- En 2023, l'Internet Watch Foundation a recensé plus de 275 000 pages d'images d'abus sexuels sur mineurs.
- Le cyberharcèlement touche un adolescent sur trois en Europe.
- Des appels à la violence en ligne se transforment en agressions physiques en quelques heures.
Face à ça, l'inaction a un coût humain concret.
Mais pour repérer ces contenus parmi des milliards de publications quotidiennes, il faut construire un mécanisme qui scanne, classe et filtre tout ce qui circule. Pas seulement ce que publient les suspects — tout ce que publie tout le monde.
La protection et la surveillance sont les deux faces du même dispositif. C'est cette impossibilité — pas l'incompétence ni la mauvaise foi — qui rend le débat insoluble.
2 Le filtre existe — mais chaque crise en élargit les mailles
2.1 Le test du tort direct
Qu'est-ce qui justifie, au juste, de restreindre une liberté ? John Stuart Mill a posé la réponse la plus tranchante en 1859 dans De la liberté : seul un tort direct à autrui le justifie. Pas ce qui choque. Pas ce qui « pourrait déraper un jour ». Un tort avéré, identifiable, subi par une personne réelle — et une réponse proportionnée à ce tort. Ce filtre étroit n'est pas un défaut. C'est toute sa valeur : protéger uniquement les propos consensuels, ce n'est pas protéger la liberté d'expression, c'est protéger le confort.
2.2 L'érosion programmée
Mais ce filtre résiste-t-il aux crises ? C'est la question qu'a posée Mireille Delmas-Marty, juriste, professeure au Collège de France, dans Libertés et sûreté dans un monde dangereux (2010). Sa conclusion est sans appel : à chaque crise, la définition juridique du « tort » s'élargit — et le seuil de proportionnalité s'abaisse. Après 2001, le « tort » inclut le financement indirect du terrorisme. Après 2015, la « consultation habituelle » de sites djihadistes. Après les émeutes de 2024, le retweet d'un contenu « susceptible d'attiser la haine ».
Le filtre de Mill est toujours dans nos textes de loi. Mais la pression de chaque crise en élargit les mailles. Et les mailles ne se resserrent jamais.

3 Le mécanisme change ce qu'on dit — même quand il ne vous vise pas
3.1 L'autocontrainte invisible
Admettons que le principe tienne. Que la loi reste raisonnable. Reste une question que Mill ne pouvait pas poser : pour appliquer ce filtre à l'échelle du numérique, quel mécanisme faut-il construire — et que fait ce mécanisme au passage ?
Michel Foucault a décrit ce « au passage » dans Surveiller et punir (1975) à travers le panoptique de Bentham : une architecture où chacun se sait potentiellement observé sans savoir s'il l'est réellement. Le résultat est dévastateur. Ce n'est pas la surveillance qui discipline — c'est le fait de se savoir potentiellement surveillé. L'autocontrainte remplace le contrôle. Et ceux qui s'autocensurent ne sont pas les criminels — ce sont les gens ordinaires. Ceux qui « n'ont rien à cacher ».
3.2 La domination sans censure
Philip Pettit, philosophe à Princeton, pousse le raisonnement un cran plus loin dans Republicanism (1997). La liberté, ce n'est pas seulement l'absence d'interférence — c'est l'absence de domination. Autrement dit : même si vous n'êtes jamais censuré, le fait que quelqu'un détienne la capacité de vous rendre invisible — shadowban, déréférencement, suspension — à tout moment, sans procédure, sans recours, change déjà la nature de l'espace.
Vous n'avez rien à cacher. Mais vous avez tout à craindre d'un espace où la capacité d'interférence arbitraire est structurelle.

4 Votre filtre, à vous
Face à la prochaine actualité sur la régulation numérique, posez-vous deux questions.
🛠 L'outil à emporter
Quel est le tort direct, concret, identifiable — et la réponse proposée est-elle proportionnée à ce tort ? (Mill)
Le mécanisme construit pour répondre cible-t-il les auteurs du tort — ou tout le monde ? Et qui détient le pouvoir de l'utiliser à d'autres fins ? (Foucault / Pettit)
Si la réponse est « tout le monde, et personne ne contrôle » — c'est là que votre conversation commence.
→ Pour aller plus loin : retrouvez la fiche synthèse, les slides et la vidéo complète dans le Module « Libertés numériques » sur culturgepourcomprendre.fr
Qui contrôle le mécanisme ?


