Accueil » 18 pays dont la France s’engagent à développer une IA sécurisée
quantum physics, wave, particles-4550602.jpg

18 pays dont la France s’engagent à développer une IA sécurisée

18 pays s’engagent à développer une IA sécurisée, mais négligent les questions éthiques fondamentales.

Les pays signataires, dont les États-Unis, le Royaume-Uni et la France, s’engagent à développer des systèmes d’IA sécurisés dès la conception. La NSA et plusieurs grandes entreprises du secteur ont également participé à l’élaboration de ces lignes directrices. L’accord comporte 17 recommandations générales, notamment sur la protection des données, la réalisation de tests et la transparence.Il ne traite pas des risques liés à l’intelligence artificielle générative ou des données utilisées pendant la phase d’entraînement.

Une condition indispensable

Face à la course à l’IA, les pays signataires s’engagent à développer des systèmes sûrs et fiables.

Lire :  L'intelligence artificielle : un atout majeur pour les entreprises, à condition d'avoir la bonne formation

L’accord, signé par les États-Unis, le Royaume-Uni, la France et d’autres pays, vise à garantir que la sécurité soit prise en compte dès la conception des systèmes d’IA.Les lignes directrices de l’accord couvrent quatre domaines clés du cycle de vie des systèmes d’IA :

  • Conception
  • Développement
  • Déploiement
  • Opération et maintenance
Les lignes directrices recommandent des mesures d’atténuation pour réduire les risques de sécurité liés à chaque domaine.L’accord est ouvert à toutes les parties prenantes, y compris les scientifiques de données, les développeurs, les gestionnaires, les décideurs et les propriétaires de risques.Il s’agit d’une étape importante dans la promotion de la sécurité de l’IA dans le monde entier.
Lire :  Mark Zuckerberg : révolution de la réalité virtuelle par la pensée

 

Retour en haut