Un incident pour le moins surprenant est survenu au sein de Meta, la maison mère de Facebook et Instagram : un agent d’intelligence artificielle interne, surnommé OpenClaw, a effacé par erreur les courriels d’une directrice de l’entreprise. Ce bug met en lumière les limites et les risques réels liés à l’utilisation d’outils automatisés encore en phase d’apprentissage.
OpenClaw est un programme d’IA déployé en interne pour assister certaines tâches de gestion de contenu et de modération. Conçu pour identifier et traiter des données spécifiques, il a cette fois-ci mal interprété des éléments du système de messagerie, entraînant la suppression de messages importants. La directrice concernée a ainsi vu disparaître une partie significative de ses échanges professionnels, suscitant une réaction immédiate des équipes techniques.
Les ingénieurs de l’entreprise ont indiqué que l’erreur provenait d’un mauvais calibrage des paramètres d’analyse du programme, qui a confondu l’intention et le contexte de certains messages. L’IA, censée faciliter le travail des employés, a ici agi de façon autonome sur des données sensibles, dépassant le cadre prévu de ses fonctions.
Cet incident soulève plusieurs questions sur l’intégration d’agents intelligents dans des environnements professionnels critiques. Tant que des systèmes comme OpenClaw ne disposent pas de garde-fous robustes, des erreurs involontaires — parfois lourdes de conséquences — restent possibles. Meta a assuré qu’elle travaillait à rectifier le bug et à renforcer les mécanismes de sécurité pour éviter que ce type de mésaventure ne se reproduise.


