
Derrière l’éclat publicitaire des lunettes d’IA, il y a des yeux humains. À Nairobi, des employés du sous‑traitant Sama regardent en effet, parfois, ce que voient les clients qui portent les « Ray‑Ban Meta ». C’est le résultat d’une enquête publiée fin février par des médias suédois : ces vidéos servent à améliorer les algorithmes, mais elles exposent aussi des scènes intimes et des moments privés à des salariés payés pour annoter et corriger les données.
Le centre de sous‑traitance Sama est basé à Nairobi, au Kenya. Meta a présenté les lunettes « Ray‑Ban Meta » à Palo Alto à l’automne 2025.
Les témoignages des employés donnent froid dans le dos : « On y voit aussi des scènes de sexe filmées avec les lunettes connectées – quelqu’un les porte et a des relations sexuelles », raconte l’un d’eux. Un autre ajoute : « On voit des conversations où quelqu’un parle de crimes ou de manifestations. Ce ne sont pas que des salutations, ça peut aussi être des choses très sombres. » Un troisième se souvient d’une vidéo où un homme pose ses lunettes sur la table de chevet, quitte la pièce, puis sa femme entre et se change.
Ces séquences ne sont pas de simples anomalies. Les salariés de Sama travaillent à améliorer la reconnaissance et les fonctions d’assistance des lunettes — traduction en temps réel, guidage touristique, prise de photo — et, ce faisant, ils accèdent à des flux bruts captés chez des utilisateurs qui ont accepté les conditions d’utilisation. Meta vend l’appareil comme une assistante tout‑en‑un, capable de concurrencer le smartphone et, surtout, préservant la vie privée de son porteur.
La tension est claire : d’un côté, un produit mis en scène par Mark Zuckerberg et des campagnes virales — y compris des spots montrant des célébrités testant les lunettes —, de l’autre, des humains qui voient des images que les utilisateurs croyaient peut‑être privées. Les risques juridiques et éthiques sont immenses : divulgation non désirée, exploitation de scènes sensibles, ou simple traumatisme pour les relecteurs exposés à du contenu violent ou sexuel.
Meta affirme recourir à des garde‑fous techniques et à des politiques de modération pour protéger les utilisateurs. Mais ces garanties peinent à convaincre quand la réalité du filtrage repose sur des équipes externes confrontées à des images intimes. À l’heure où la technologie promet de tout rendre transparent et immédiat, la frontière entre assistance et surveillance devient, littéralement, visible — souvent sans que l’utilisateur s’en rende compte.