Mexique : un hacker utilise une IA pour dérober 150 Go de données gouvernementales

Un incident majeur de cybersécurité secoue le Mexique et relance le débat mondial sur les risques liés à l’intelligence artificielle générative. Selon des révélations publiées le 25 février 2026, un pirate informatique serait parvenu à utiliser Claude, le modèle d’intelligence artificielle développé par la société américaine Anthropic, pour extraire environ 150 gigaoctets de données sensibles appartenant au gouvernement mexicain.

Parmi les informations compromises figureraient près de 195 millions de dossiers fiscaux, des registres électoraux, des identifiants officiels ainsi que des données issues de plusieurs institutions publiques majeures.

Une méthode fondée sur la manipulation

Ce qui rend l’affaire particulièrement préoccupante, c’est la simplicité apparente de la méthode employée. Aucune attaque technique sophistiquée n’aurait été utilisée. Le pirate aurait simplement exploité la fenêtre de conversation de l’IA, en multipliant les échanges et en contournant progressivement les protections intégrées au système.

Entre décembre 2025 et janvier 2026, une seule personne aurait consacré près d’un mois à dialoguer en espagnol avec le modèle, se faisant passer pour un testeur de sécurité légitime. À force de patience et de reformulations, l’individu aurait réussi à obtenir l’accès à des informations hautement sensibles.

Des institutions de premier plan touchées

Les données concernées proviendraient notamment de :

Si ces informations sont confirmées, il s’agirait de l’une des plus importantes fuites de données gouvernementales jamais enregistrées au Mexique.

Un timing lourd de conséquences

Le 25 février 2026, le même jour où l’affaire est rendue publique, l’entreprise annonce l’abandon de sa politique de sécurité historique qui exigeait de démontrer l’efficacité des mesures de protection avant l’entraînement de tout nouveau modèle d’intelligence artificielle.

Dans le même temps, le département de la Défense américain aurait menacé de retirer un contrat estimé à 200 millions de dollars si l’entreprise ne réduisait pas certains de ses garde-fous de sécurité.

Ces éléments alimentent les critiques à l’encontre d’Anthropic, fondée en 2020 avec l’ambition affichée de devenir le laboratoire d’IA le plus responsable du secteur.

Votre Page

A voir également sur Kessiya

PUBLICITÉ
Quitter la version mobile