Accueil » 18 pays dont la France s’engagent à développer une IA sécurisée

18 pays dont la France s’engagent à développer une IA sécurisée

quantum physics, wave, particles-4550602.jpg

18 pays s’engagent à développer une IA sécurisée, mais négligent les questions éthiques fondamentales.

Les pays signataires, dont les États-Unis, le Royaume-Uni et la France, s’engagent à développer des systèmes d’IA sécurisés dès la conception. La NSA et plusieurs grandes entreprises du secteur ont également participé à l’élaboration de ces lignes directrices. L’accord comporte 17 recommandations générales, notamment sur la protection des données, la réalisation de tests et la transparence.Il ne traite pas des risques liés à l’intelligence artificielle générative ou des données utilisées pendant la phase d’entraînement.

Une condition indispensable

Face à la course à l’IA, les pays signataires s’engagent à développer des systèmes sûrs et fiables.

Lire :  Interview exclusive avec Jacques Fitoussi, Fondateur et directeur de l’entreprise ECOVIE

L’accord, signé par les États-Unis, le Royaume-Uni, la France et d’autres pays, vise à garantir que la sécurité soit prise en compte dès la conception des systèmes d’IA.Les lignes directrices de l’accord couvrent quatre domaines clés du cycle de vie des systèmes d’IA :

  • Conception
  • Développement
  • Déploiement
  • Opération et maintenance
Les lignes directrices recommandent des mesures d’atténuation pour réduire les risques de sécurité liés à chaque domaine.L’accord est ouvert à toutes les parties prenantes, y compris les scientifiques de données, les développeurs, les gestionnaires, les décideurs et les propriétaires de risques.Il s’agit d’une étape importante dans la promotion de la sécurité de l’IA dans le monde entier.
Lire :  Elon Musk : le prestidigitateur des investisseurs

 

Fréjus

Laisser un commentaire

Abonnez-vous à notre newsletter

Jamais de spams promis !

Retour en haut