Le 25 mars 2026, un jury californien a dit ce que tout le monde savait mais que personne n'avait encore officialisé.

Meta et YouTube ont été déclarés négligents dans la conception de leurs plateformes. Les jurés ont conclu que les deux entreprises savaient que leur design était dangereux, ont délibérément omis d'en avertir leurs utilisateurs, et ont causé un préjudice réel.

Les dommages accordés : 6 millions de dollars. Pour Meta, valorisée à mille milliards, c'est une amende de parking. Ce n'est pas ce qui compte.

Ce verdict fait jurisprudence dans environ 2 000 autres poursuites en cours — portées par des parents, des districts scolaires, des procureurs d'État. Et la veille, au New Mexico, un autre jury avait condamné Meta à 375 millions de dollars pour avoir dissimulé ce qu'elle savait sur l'exploitation sexuelle d'enfants sur ses plateformes.

En moins de 24 heures. Deux jurys. Deux théories juridiques différentes. Le même verdict : Meta savait. Meta n'a pas protégé. Meta paie.

Mark Zuckerberg devant le Sénat américain

Le bouclier qui protégeait la tech depuis 30 ans vient de craquer.

Pendant trois décennies, les plateformes américaines étaient protégées par la Section 230 — une loi de 1996 qui stipule qu'un site internet n'est pas responsable du contenu publié par ses utilisateurs. Grâce à elle, Meta ne pouvait pas être poursuivi pour un post haineux, ni YouTube pour une vidéo dangereuse.

Les avocats ont trouvé la faille. Ne pas attaquer le contenu. Attaquer le design.

Scroll infini, filtres, autoplay — des fonctionnalités conçues pour maintenir une adolescente en ligne jusqu'à 16 heures par jour, alimentant sa dépression, son anxiété, sa dysmorphie corporelle et ses comportements d'automutilation.

La comparaison avec l'automobile est parfaite : un constructeur ne peut pas être poursuivi pour un conducteur imprudent. Il peut l'être pour des freins défectueux qu'il connaissait et a dissimulés. C'est exactement ce cadre juridique qui vient d'être validé.

Les documents internes présentés au tribunal étaient accablants. Un mémo interne : "Si on veut gagner avec les ados, on doit les attirer quand ils sont encore des pré-ados." Un autre révélait que les enfants de 11 ans étaient quatre fois plus susceptibles de revenir sur Instagram que sur les applications concurrentes — malgré une limite d'âge officiellement fixée à 13 ans.

Meta savait. Meta a continué.

Trois implications que le marché n'a pas encore pricées.

1. L'engagement maximal est désormais un passif légal. Chaque fonctionnalité conçue pour maximiser le temps d'écran est maintenant une exposition au risque juridique. Les boucles de dopamine, les likes, les streaks, les notifications agressives — tout ce qui a alimenté la croissance de ces plateformes peut être retourné contre elles devant un jury.

2. La comparaison Big Tobacco n'est plus une métaphore. C'est le "moment Big Tobacco" de la tech — le moment où l'industrie du tabac a dû admettre non seulement que son produit était nocif, mais qu'elle le savait et avait essayé de le dissimuler. Les Frances Haugen leaks de 2021 avaient déjà prouvé que Meta connaissait les effets négatifs sur les adolescents. Le tribunal vient de rendre cette connaissance juridiquement et financièrement coûteuse.

3. Le Congrès américain reprend la main. Les 6 millions de dommages sont symboliques. Ce qui suit ne l'est pas. Chaque verdict favorable aux plaignants renforce la pression politique pour légiférer. Le Kids Online Safety Act attendait exactement ce type de précédent.

Big Tobacco dépense des milliards pour étendre son influence sur les soins de santé et la recherche

La Note du Signal

Meta n'a pas construit un réseau social. Elle a construit une machine à créer de la dépendance — conçue, testée, optimisée en interne. Un jury vient de le dire officiellement pour la première fois. Le business model de l'attention vient d'acquérir un coût qu'il n'avait jamais eu.

Sources : CNN · NPR · NBC News · Fortune · Al Jazeera · PBS NewsHour — 25-26 mars 2026