En mars 2026, deux plaignants ont intenté une action collective fédérale contre Meta et Luxottica, accusant les fonctionnalités AI des lunettes intelligentes Ray-Ban d’envoyer des clips vidéo à des annotateurs humains au Kenya, violant ainsi la promesse de Meta selon laquelle “les lunettes sont conçues pour la vie privée”. Les avocats ont déclaré : les lois actuelles sont tout simplement insuffisantes pour faire face à ce que ces entreprises font.
(Résumé : Les lunettes intelligentes de Meta exposées : les images privées des utilisateurs sous la douche, lors d’actes sexuels, des numéros de cartes de crédit… tout envoyé au Kenya pour former l’AI)
(Contexte : Un ancien cadre de Meta révèle les fautes de Zuckerberg : création secrète d’outils de “censure des discours à Hong Kong et Taiwan”, vente de la vie privée des utilisateurs de Facebook)
Table des matières
Basculer
L’arme de la plainte provient de la propre rédaction de Meta : “Les lunettes sont conçues pour la vie privée, contrôlées par vous.” En 2023, lors de la promotion des lunettes intelligentes Ray-Ban, Meta a imprimé cette phrase sur son matériel promotionnel. Trois ans plus tard, cette phrase apparaît dans une section de citations d’une plainte collective fédérale.
Ce mois-ci, le média Dong District a cité une enquête conjointe du quotidien suédois “Dagens Nyheter” et de “Göteborgs-Posten” : les utilisateurs de lunettes intelligentes de Meta envoient la totalité de leur vie privée au Kenya. Les annotateurs ont accès à des contenus allant des scènes de salle de bain, des segments d’actes sexuels, ainsi que des numéros de carte de crédit et des dossiers financiers.
Rapidement, les plaignants Gina Bartone et Mateo Canu ont déposé une action collective fédérale contre Meta Platforms et le fabricant de lunettes Luxottica of America. Le cœur des accusations dans la plainte : les clips vidéo des utilisateurs activant les fonctionnalités AI n’ont pas été traités par un modèle AI comme annoncé, mais ont été envoyés à des annotateurs humains sous-traités par Sama au Kenya pour examen. Tout au long de ce processus, Meta n’a jamais informé clairement les utilisateurs.
La plainte allègue que les deux entreprises ont violé les lois fédérales et de plusieurs États sur la vie privée.
Brian Hall, avocat spécialisé en vie privée et AI (cabinet d’avocats Stubbs Alderton & Markiles), a déclaré lors d’une interview avec Fortune : “C’est horrible, c’est exactement ce que nous imaginions tous comme une possibilité.”
Mais il a immédiatement souligné les difficultés réelles auxquelles la plainte est confrontée : les conditions de service de Meta stipulent déjà que les annotateurs de données “peuvent examiner le contenu interactif de manière automatisée ou manuelle”. En d’autres termes, au moment où les utilisateurs cliquent pour accepter les conditions, ils ont théoriquement autorisé ce processus.
La responsabilité légale se retrouve donc dans une zone grise. Mais Hall ne pense pas que cela permette à Meta de s’en tirer : “C’est une responsabilité en matière de relations publiques. Ce sont des informations et des images très sensibles.” Le fait que les termes soient écrits en profondeur ne signifie pas qu’il y ait un consentement éclairé, et la question de savoir si les utilisateurs ont été suffisamment informés est au cœur du litige.
La plainte révèle également une lacune systémique plus fondamentale. Les lunettes intelligentes enregistrent souvent non seulement la vie du porteur, mais aussi les visages et les comportements de toutes les personnes autour, sans qu’elles en aient connaissance ni qu’elles aient donné leur consentement.
Hall a directement souligné ce dilemme : “Le triste fait est que nos lois sur la vie privée ne sont pas conçues pour protéger les observateurs, elles sont conçues pour protéger la capacité du porteur à gérer ses propres données.”
Les personnes filmées ont presque aucun recours dans le cadre juridique actuel.
Hall a également proposé un scénario hypothétique qui pourrait amplifier l’ampleur de cette discussion : si Meta ajoutait une fonctionnalité de reconnaissance faciale en temps réel aux lunettes Ray-Ban, les failles de vie privée existantes passeraient de la gêne au “danger”.
“Pour reconnaître quelqu’un au tribunal, avant, il fallait fouiller dans Facebook ou Instagram, maintenant c’est en zéro seconde, automatique, sans coût,” a-t-il déclaré, “vous pouvez vous asseoir dans la salle d’audience et identifier un témoin en temps réel.”
Ce n’est pas un scénario de science-fiction. L’assistant AI de Meta peut déjà identifier des objets et des scènes devant la caméra ; la reconnaissance faciale n’est qu’à un pas. La conclusion de Hall est : les lois actuelles sont tout simplement insuffisantes pour faire face à ce que Meta et d’autres entreprises de médias sociaux font.