Dans un récent rapport de l’Université de Stanford, le manque de transparence des modèles d’intelligence artificielle (IA) est mis en lumière, soulevant des préoccupations majeures quant à leur utilisation dans les applications commerciales et académiques. L’étude révèle que même les modèles les plus transparents, tels que Llama 2 de Meta et GPT-4 d’Open AI, ne parviennent pas à atteindre des niveaux de transparence acceptables, ce qui pourrait compromettre leur adoption et leur utilisation à grande échelle.
L’indice de transparence, développé par les chercheurs de Stanford, a révélé que le modèle le plus transparent, Llama 2 de Meta, a obtenu un score de 54%, tandis que le modèle phare d’Open AI, GPT-4, n’a atteint que 48%. Cette insuffisance de transparence est préoccupante car elle rend difficile pour les entreprises de déterminer si elles peuvent en toute sécurité construire des applications basées sur ces modèles, et elle entrave également les recherches universitaires.
Selon l’étude, le problème réside dans le manque de divulgation de certaines informations cruciales par les entreprises. En particulier, les entreprises ne révèlent pas l’étendue des contenus protégés par des droits d’auteur utilisés pour entraîner leurs modèles, ce qui peut entraîner des complications juridiques. De plus, l’utilisation de travail humain pour corriger les données d’entraînement n’est pas divulguée, ce qui ajoute à l’opacité du processus.
Rishi Bommasani, directeur de la recherche à Stanford sur les modèles dits de « fondation », a souligné que toutes les entreprises devraient viser un niveau de transparence de 80% à 100%. Actuellement, aucune entreprise ne fournit d’informations sur le nombre d’utilisateurs dépendant de leurs modèles, ni sur les pays ou marchés qui les utilisent.
Ces résultats pourraient avoir un impact sur la régulation de l’IA à l’avenir. Plusieurs pays, dont l’Union européenne, les États-Unis, la Chine et le Royaume-Uni, ont exprimé leur souhait de voir émerger une IA plus transparente. L’absence de transparence dans ces modèles pose des risques potentiels pour la société, l’économie et la sécurité nationale, a averti le président américain Joe Biden lors de discussions antérieures sur le sujet.