
La haine en ligne : le business model le plus rentable d’internet
Je ne suis pas sociologue. Je ne suis pas psychologue. Je ne suis pas expert en technologies numériques. Je suis juste madame lambda qui scrolle un peu comme tout le monde sur ses réseaux sociaux, histoire de voir ce qu’il se passe.
Mais plus les années passent, plus je trouve que c’est devenu irrespirable. La haine en ligne est devenue virale !
Et comme nous allons le voir, alimenter la haine en ligne : c’est un véritable business.
La haine en ligne : Le constat, simple et brutal
Ouvrez Facebook. Ouvrez X. Ouvrez TikTok. Ouvrez Instagram. Peu importe la plateforme. Peu importe l’heure. Peu importe le sujet.
Vous trouverez de la haine.
⛔️ Sous une vidéo d’un homme qui cuisine : « T’as vu sa g……? »
⛔️ Sous la photo d’une femme qui sourit : « Réfais tes dents co……. »
⛔️ Sous un article sur le réchauffement climatique : des insultes.
⛔️ Sous une annonce de décès par accident : « il avait qu’à rouler moins vite ».
⛔️ Sous un post en lien avec la politique : alors là, c’est la totale !
On insulte les gros. On insulte les maigres. On insulte les riches. On insulte les pauvres. On insulte ceux qui parlent. On insulte ceux qui se taisent. On insulte les femmes parce qu’elles sont des femmes. On insulte les hommes parce qu’ils sont des hommes. On insulte les jeunes. On insulte les vieux.
Tout le monde y passe.
Personne n’est épargné. Tout le monde est une cible.
Et ce n’est pas par hasard
On parle souvent de « dérives » des réseaux sociaux. Le mot est pratique. Il laisse entendre un accident, un excès ponctuel.
Mais, il faut regarder les choses en face : les contenus qui divisent, attaquent ou provoquent de la haine en ligne circulent davantage que les contenus nuancés.
Ce n’est pas une impression. C’est un mécanisme documenté.
En 2018, une étude du MIT publiée dans la revue Science a analysé la propagation de 126 000 rumeurs sur Twitter entre 2006 et 2017. Résultat : les fausses informations se propagent significativement plus vite et plus loin que les informations vérifiées. Les chercheurs expliquent que les contenus suscitant surprise, indignation ou peur déclenchent davantage de partages. (Source : MIT – Science, 2018)
Et ça ne s’arrête pas aux fake news. Une autre étude, publiée en 2021 dans Nature Human Behaviour, a montré que les messages exprimant de l’indignation morale génèrent plus d’engagement sur les réseaux sociaux. L’indignation augmente la probabilité qu’un contenu soit partagé, commenté, amplifié. (Source : Nature Human Behaviour, 2021)
Autrement dit : l’émotion négative est un accélérateur. Et, dans un environnement dans lequel la visibilité dépend de l’engagement, cette dynamique n’a rien de neutre.
L’algorithme ne distingue pas un débat, d’un lynchage
Je ne suis pas ingénieur. Mais, après quelques lectures, voici ce que j’ai trouvé :
Les plateformes fonctionnent sur un principe : maximiser le temps passé et les interactions. Concrètement, leurs systèmes analysent le nombre de commentaires, le temps de lecture, les partages, les réactions.
⛔️ Un post qui provoque 2 000 agressifs ? Performant.
⛔️ Un post qui suscite 40 échanges argumentés ? Invisible.
J’en fais moi-même les frais. J’essaye de publier des articles de culture générale, d’informations… 10 likes pour 5 500 abonnés sur FB. Mes posts ne font l’objet que de 180 impressions : autrement dit 180 personnes sur les 5 500 abonnés les voient.
Si demain, je publie un post polémique, il sera imprimé sans doute 20 fois plus. D’ailleurs, le post que j’ai publié sur la viande rouge en est l’exemple le plus parlant. Sans compter que les gens ne lisent même pas l’article. Ils se déchaînent juste dans les commentaires.
Et, l’algorithme ne fait pas la différence entre une discussion constructive et un déferlement d’insultes. Il mesure l’intensité de l’activité. Point.
Plus un contenu déclenche de réactions, plus il est diffusé. Plus il est diffusé, plus il déclenche de réactions.
Le cercle est aussi simple que terrifiant.
Ils savent. Et ils laissent faire. Ils encouragent même !
En 2021, Frances Haugen, ancienne employée de Facebook, a divulgué des documents internes — les fameux « Facebook Files » — montrant que Meta connaissait l’effet polarisant de ses algorithmes. Certaines modifications augmentaient la division et la polarisation, tout en améliorant l’engagement. L’un des constats internes évoquait explicitement l’attraction du cerveau humain pour les contenus divisants. (Source : Reuters, 2021)
Ce n’est pas une découverte récente. C’est un paramètre intégré.
Et en face, on parle de quoi ? De 116 milliards de dollars de revenus publicitaires pour Meta en 2022. (Source : Rapport annuel Meta, 2022). Imaginez en 2025 !
Plus les utilisateurs restent connectés, plus les annonces sont vues. Et les contenus qui suscitent colère et indignation retiennent davantage l’attention que les contenus modérés.
🔴 🔴 La colère, les commentaires haineux font tourner la machine à cash. Votre indignation paie leurs dividendes.
Les marchands de rage
Et, forcément, il y a ceux qui ont compris les règles du jeu et qui en ont fait un métier.
On appelle ça le « rage bait » : l’appât à colère. Le principe est limpide :
- Publier une opinion volontairement outrancière
- Caricaturer un sujet sensible
- Déclencher l’indignation
- Récolter les réactions
- Encaisser
Plus la réaction est forte, plus la visibilité augmente. Et cette visibilité se monétise : publicité, partenariats, vues, abonnés.
🔴 🔴 Certains créateurs le reconnaissent ouvertement. Ce n’est pas une théorie. C’est une adaptation aux règles du jeu. Dans un système où la visibilité dépend du volume d’interactions, provoquer devient rationnel.
Et nous ? On tombe dans le panneau à chaque fois. On commente pour dire « C’est n’importe quoi ! » On partage pour dire « Regardez ce que ce dingue a osé publier ! » On s’indigne. On s’énerve. On alimente la machine.
Le créateur de « rage bait » ne croit pas forcément ce qu’il dit. Il sait simplement que notre colère paie ses factures.
Les trolls : main-d’œuvre gratuite du système
Il y a les créateurs de rage bait, qui provoquent pour gagner de l’argent. Et puis il y a les trolls. Eux ne gagnent rien. Pas un centime. Pas un abonnement. Pas un partenariat.
Mais ils font exactement le même travail.
Le troll commente pour blesser. Il interpelle pour humilier. Il relance pour envenimer. Il ne participe pas à une conversation. Il la sabote.
Et dans un système qui ne distingue pas un échange constructif d’un pugilat verbal, le troll est une aubaine. Chacune de ses provocations génère des dizaines de réponses indignées. Chaque réponse génère d’autres réactions. L’algorithme s’emballe. Le contenu monte. La visibilité explose.
Le troll ne travaille pour personne. Mais, il travaille pour le système.
Il est le rouage invisible de la machine à engagement. Le petit soldat non rémunéré d’un modèle économique qui se nourrit de conflits.
Et nous, à chaque fois qu’on lui répond, on lui donne exactement ce qu’il veut.
Le tribunal sans juge
Les réseaux sociaux sont aussi devenus le plus grand tribunal du monde. Un tribunal sans juge, sans avocat, sans droit à la défense, sans présomption d’innocence.
Quelqu’un est accusé de quelque chose ? Pas besoin de preuves. Pas besoin de contexte. Pas besoin de sa version des faits. La sentence tombe en temps réel, dans les commentaires, par milliers.
On condamne. On exécute. On passe au suivant.
Et si la personne était innocente ? Et si c’était un malentendu ? Et si le contexte changeait tout ?
Trop tard. Le mal est fait. La meute est déjà passée à une autre proie.
Des vies derrière les écrans
Pendant qu’on parle d’algorithmes et de modèles économiques, il y a des gens qui souffrent. Vraiment.
En 2021, le Pew Research Center a publié une étude montrant qu’une large part des internautes américains a déjà été confrontée à des comportements agressifs ou humiliants sur les réseaux. Les chercheurs soulignent que les plateformes ne sont pas de simples espaces de discussion, mais des environnements dans lesquels certains comportements sont amplifiés par la structure même des interactions.
(Source : Pew Research Center, 2021)
Des adolescents qui n’osent plus aller au lycée parce qu’une rumeur a été balancée sur les réseaux. Des femmes harcelées, insultées, menacées de mort pour avoir osé donner un avis. Des hommes lynchés publiquement pour un mot maladroit sorti de son contexte. Des inconnus transformés en souffre-douleur national en l’espace d’une nuit.
Et parfois — il faut le dire parce que c’est la réalité — des gens qui mettent fin à leurs jours. À cause de commentaires. De mots tapés en trois secondes par quelqu’un qui aura oublié le lendemain.
Trois secondes pour taper. Une vie détruite.
Et nous dans tout ça ?
Je ne vais pas me poser en donneuse de leçons. Moi aussi, il m’arrive de tomber dans le piège. De lire un truc qui me révolte et de vouloir répondre. De me laisser emporter. D’oublier que derrière le commentaire stupide, il y a peut-être quelqu’un de perdu, de blessé, de mal informé — ou simplement un con, mais un con quand même humain.
Je ne suis pas au-dessus de tout ça. Personne ne l’est.
Mais, il y a un moment où il faut regarder le tableau d’ensemble.
Et le tableau, il est moche.
La haine engendre la haine
Parce que voilà ce que je constate, au fond, à force de traîner sur ces plateformes.
La haine engendre la haine. Toujours.
Celui qui se fait insulter finit par insulter. Celui qui se fait humilier finit par humilier. Celui qui subit la violence finit par la reproduire.
Un commentaire violent appelle un autre commentaire violent. La réponse entraîne une surenchère. La surenchère attire d’autres intervenants. Plus la discussion s’envenime, plus elle est visible. Plus elle est visible, plus elle attire.
Le phénomène est cumulatif. Implacable.
À force, la brutalité devient un mode d’expression ordinaire. La nuance paraît faible. L’attaque paraît efficace. On entre dans une spirale dans laquelle tout le monde crie et personne n’écoute. Où tout le monde attaque et personne ne tend la main.
Et ça tourne. Sans fin. Sans but. Sans issue.
Et la modération ? Une modération de façade
Les plateformes affirment investir massivement dans la modération. Elles parlent d’intelligence artificielle, d’équipes dédiées, de milliers de modérateurs.
Dans les faits ? Essayez de signaler un commentaire haineux. Vraiment haineux. Et attendez.
Vous recevrez soit rien du tout — le signalement disparaît dans un trou noir — soit une réponse automatique vous informant que le contenu « ne contrevient pas aux règles de la communauté ».
Des insultes ? Conformes. Des propos discriminatoires ? Conformes. Des attaques personnelles violentes ? Conformes.
En revanche, un post supprimé pour une photo jugée inappropriée. Un compte restreint pour un mot sorti de son contexte. Une vidéo retirée pour un problème de droits musicaux en arrière-plan.
Le constat est difficile à ignorer : la modération fonctionne très bien quand il s’agit de protéger les intérêts de la plateforme. Beaucoup moins quand il s’agit de protéger les gens.
C’est déprimant.
Et, c’est lamentable parce que des entreprises milliardaires regardent ce désastre, comptent leurs bénéfices, et appellent ça de l' »engagement ».
C’est lamentable parce que la haine ne reste pas isolée. Elle circule. Elle s’accumule. Elle entraîne. Et à force, elle finit par structurer le climat général.
C’est triste parce qu’on le sait tous, au fond. On le sait. Mais, on continue quand même.
Sur le même thème :
🔗 Les influenceurs, stop ou encore
🔗 Quand l’IA remplace les témoins de Jéhova
Découvrez tous mes articles en parcourant les pages
Restez informé(e). Recevez les nouveaux articles : santé, bien-être, société, culture générale — sans 50 pubs, sans enjolivement, sans concession.
Votre adresse ne sera jamais partagée. Vous vous désabonnez en un clic.
Sources citées dans cet article :
- MIT / Science (2018) : The spread of true and false news online
- Nature Human Behaviour (2021) : Out-group animosity drives engagement on social media
- Reuters (2021) : Facebook whistleblower testimony
- Pew Research Center (2021) : The State of Online Harassment
- Meta – Rapport annuel (2022) : Fourth Quarter Results
- Commission européenne : Digital Services Act
Vous pourriez aussi aimer

Chocolat noir : méfaits, plomb, cadmium… faut-il s’inquiéter ?
9 octobre 2024
Glamscrolling, doomscrolling, sadscrolling… : quand le scrolling devient un piège mental
28 mai 2025