Kessiya
Aucun Résultat
Voir tous les résultats
  • Accueil
  • Culture
  • Divertissement
  • Sport
  • Politique
  • Abidjan
  • Afrique
  • Côte d’Ivoire
  • International
  • CAN 2023
  • Accueil
  • Culture
  • Divertissement
  • Sport
  • Politique
  • Abidjan
  • Afrique
  • Côte d’Ivoire
  • International
  • CAN 2023
Aucun Résultat
Voir tous les résultats
Kessiya
Aucun Résultat
Voir tous les résultats
PUBLICITÉ
PUBLICITÉ

Accueil » Technologie » L’IA encore bien loin d’être “transparente”, selon une étude

L’IA encore bien loin d’être « transparente », selon une étude

par Charles Sibailly
octobre 19, 2023
dans Technologie
Share on FacebookWhatsapp

LIRE AUSSI

États-Unis : Un sénateur propose une “taxe sur les robots” face aux risques de l’IA

Côte d’Ivoire : Le Commissariat du Hadj lance une nouvelle plateforme d’inscription en ligne pour l’édition 2026

ChatGPT peut désormais acheter des produits à la place de l’utilisateur

Dans un récent rapport de l’Université de Stanford, le manque de transparence des modèles d’intelligence artificielle (IA) est mis en lumière, soulevant des préoccupations majeures quant à leur utilisation dans les applications commerciales et académiques. L’étude révèle que même les modèles les plus transparents, tels que Llama 2 de Meta et GPT-4 d’Open AI, ne parviennent pas à atteindre des niveaux de transparence acceptables, ce qui pourrait compromettre leur adoption et leur utilisation à grande échelle.

L’indice de transparence, développé par les chercheurs de Stanford, a révélé que le modèle le plus transparent, Llama 2 de Meta, a obtenu un score de 54%, tandis que le modèle phare d’Open AI, GPT-4, n’a atteint que 48%. Cette insuffisance de transparence est préoccupante car elle rend difficile pour les entreprises de déterminer si elles peuvent en toute sécurité construire des applications basées sur ces modèles, et elle entrave également les recherches universitaires.

Selon l’étude, le problème réside dans le manque de divulgation de certaines informations cruciales par les entreprises. En particulier, les entreprises ne révèlent pas l’étendue des contenus protégés par des droits d’auteur utilisés pour entraîner leurs modèles, ce qui peut entraîner des complications juridiques. De plus, l’utilisation de travail humain pour corriger les données d’entraînement n’est pas divulguée, ce qui ajoute à l’opacité du processus.

Rishi Bommasani, directeur de la recherche à Stanford sur les modèles dits de « fondation », a souligné que toutes les entreprises devraient viser un niveau de transparence de 80% à 100%. Actuellement, aucune entreprise ne fournit d’informations sur le nombre d’utilisateurs dépendant de leurs modèles, ni sur les pays ou marchés qui les utilisent.

Ces résultats pourraient avoir un impact sur la régulation de l’IA à l’avenir. Plusieurs pays, dont l’Union européenne, les États-Unis, la Chine et le Royaume-Uni, ont exprimé leur souhait de voir émerger une IA plus transparente. L’absence de transparence dans ces modèles pose des risques potentiels pour la société, l’économie et la sécurité nationale, a averti le président américain Joe Biden lors de discussions antérieures sur le sujet.

Votre Page

A voir également sur Kessiya

PUBLICITÉ
Tags: Intelligence artificielle
PartagerEnvoyé
, Telegram : @KessiyaCom Rejoignez Kessiya sur Télégram

Laisser un commentaire Annuler la réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

, Telegram : @KessiyaCom Rejoignez Kessiya sur Télégram

Lettre d’information

PUBLICITÉ
Kessiya

© 2023 Kessiya

Liens utiles

  • A Propos
  • Africa News
  • Mentions légales
  • Politique privée

Suivez-nous

Aucun Résultat
Voir tous les résultats
  • Accueil
  • Category
  • Landing Page
  • Buy JNews
  • Support Forum
  • Pre-sale Question
  • Contact Us

© 2023 Kessiya